"Trend" Speichertechnologie der nächsten Generation: Vier Technologien haben das größte Potenzial

1. Die nächste Generation von Speichertechnik Inventar: vier Technologien mit dem größten Potenzial, 2. die neuen Anforderungen des Ausbruchs der kinetischen Energie des starken Gedächtnis; 3.Immervision und Socionext werden zusammenarbeiten, panomorphEYE Development Kit zur Verfügung zu stellen, 4. Lassen Sie die AI personalisierte und einen geringeren Stromverbrauch IBM Forschung und Entwicklung neuer Neuronaler Netzwerkchip

1. Speichertechnologie der nächsten Generation: Die vier Technologien haben das größte Potenzial;

Mit dem Aufkommen von mobilen Geräten, Netzwerkanwendungen, für die energieeffiziente Datenspeicher und Speichertechnologie zur Zeit steigenden Nachfrage nach DRAM-Speicher und NAND-Flash-Speicher-Technologie in den Mainstream, aber nicht schnell Lese- und Schreibgeschwindigkeiten von DRAM zum Speichern von Daten für eine lange Zeit ;. NAND-Flash Kann Daten speichern, aber die Lese- und Schreibgeschwindigkeit ist nicht gut.

Während sowohl computing, Speicherkapazität des Speichers der nächsten Generation, wie beispielsweise einen magnetoresistiven Speicher (MRAM), resistive RAM (RRAM), 3D-XPoint Technologie und High-Potential der Elektronenspinmagnetspeicher (STT-MRAM), usw., um die nächsten zu werden, der neue Liebling der Generation-Speichertechnologie.

Die Technologie von MRAM wird theoretisch ermöglichen, dass SRAM-Zugriffe über DRAM hinausgehen und Daten nach einem Stromausfall nicht verloren gehen.Eine frühe Entwicklung von Everspin wurde als wichtiger Anwärter für die nächste Generation von Speichertechnologien betrachtet 2017 war ein Ausbruch der MRAM-Technologie. Im Jahr der Großintegrierten Schaltkreistechnologie in Japan veranstaltete Japan ein internationales Seminar über integrierte Schaltkreise, Systeme und Anwendungen für große integrierte Schaltkreise und veröffentlichte gemeinsam mit der Everspin Corporation die Anti-thermische Entmagnetisierungs-eMRAN-Technologie mit der Fähigkeit, Daten in Celsius zu erzeugen. Speichern Sie Daten bei 150 Grad, kann so lange wie ein paar Jahre 22-Nanometer-Prozess-Technologie, wird voraussichtlich Ende 2017, 2018 Produktion.

TSMC, die einst in Speicher-R & D investierte, aber zu hohen Kosten verlor und sich vom Speichermarkt zurückzog, enthüllte 2017 das TSMC-Technologieforum, dass es 22nm Prozess eingebettete magnetoresistive Speicher (eMRAM) Produktionstechnologie hat. Testproduktion

RRAM hat den Vorteil eines geringeren Stromverbrauchs als NAND und seine Schreibinformationen sind 10.000-mal schneller als NAND-Flash.Die Hauptakteure in der Forschung sind Micron, Sony und Samsung.

TSMC hat auch angekündigt, dass es eine Produktion von 22nm eRRAM-Technologie herstellt.Die Haupthersteller der 3D XPoint-Technologie sind Intel und Micron.Sie verwenden eine dreidimensionale Struktur aus mehrschichtigen Schaltungen und verwenden Gitterwiderstände für 0 und 1. Das Prinzip ist RRAM ähnlich.

Es ist ein guter Ersatz für Speichergeräte und ist fast 1000-mal schneller als NAND-Flash-Speicher und kann auch für Computeranwendungen mit niedrigen Anforderungen an den Befehlszyklus verwendet werden.

STT-MRAM ist eine Anwendung der Quantenspinell-Drehimpuls-Technologie, hat eine hohe Leistungsfähigkeit und einen niedrigen Energieverbrauch von DRAM und SRAM und ist mit bestehenden CMOS-Herstellungstechnologien und -prozessen kompatibel.

Derzeit sind IBM und Samsung, SK Hynix und Toshiba die wichtigsten Anbieter. IBM und Samsung haben Forschungsarbeiten im IEEE veröffentlicht, die zeigen, dass sie erfolgreich 10 Nanosekunden Übertragungsgeschwindigkeit und eine supersparende Architektur erreicht haben.

Obwohl die Zukunft der Speicher der nächsten Generation erwartet wird Teil des DRAM und NAND-Flash-Speichermarkt zu ersetzen, oder auch die alte Technik zu ersetzen. Aber ich glaube, dass mit künstlicher Intelligenz, Netzwerkgeräte und Datenerfassung und Mess Nachfrage, Speichertechnologie der nächsten Generation zuerst wir konzentrieren uns auf die Hauptforderung von neuen Anwendungen, wie TSMC eingebettete Speicher gesperrt, und die volle spielen die Vorteile von Rechen- und Speicher Combo und weitere Miniaturgröße, höhere Marktdurchdringung Montage zu erzielen.

Wenn jedoch der Verkäufer dynamische Sicht die 22-Nanometer-Technologie Mitte 2018 nach Emram reif und beginnt eine große Anzahl von Marktanwendungen zu haben.

(Der Autor ist eine Politik, Forscher am Nationalen Zentrum für Forschung und Information Research Laboratories) Economic Daily

2. Der neue Ausbruch Speicher kinetischer Energiebedarf stark;

In modernen elektronischen Produkten spielt das Gedächtnis eine unverzichtbare Rolle: Im Jahr 2017 überschritt der Output-Wert der Halbleiterindustrie zum ersten Mal 400 Milliarden US-Dollar, was unter anderem darauf zurückzuführen ist, dass der Speicherbedarf so stark gestiegen ist, dass die Hersteller den Verkaufspreis steigern können 50 Prozent, Südkoreas Samsung ist der größte Speicherlieferant, der größte Gewinn.Diese Welle der Speicher-Boom wird voraussichtlich weiterhin von den aufkommenden Bedürfnissen, Internet der Dinge, tragbare Geräte, Cloud-Speicher und riesige Mengen von Datenverarbeitung getrieben werden den Speichermarkt treiben Kinetische Energie.

Derzeit Speichereigenschaften entsprechend die Daten, nachdem der Strom geteilt werden kann in die flüchtigen und nichtflüchtige Speicher, kann eine volatiler Speicher Daten nach einem Stromausfall, die hohen Kosten beibehalten, aber mit hohen Geschwindigkeit, in der Regel für die temporäre Datenspeicherung verwendet verschwunden ist, nicht-flüchtige Die Speicherzugriffsgeschwindigkeit ist langsam, aber es kann Daten für eine lange Zeit speichern.

Statischer Direktzugriffsspeicher (SRAM) und dynamischer Direktzugriffsspeicher (DRAM) werden in Computersystemen und elektronischen Produkten häufig als flüchtiger Speicher für temporäre Datenspeicher verwendet.DRAM wird derzeit in PC / NB- und mobilen Anwendungen verwendet. Hauptsächlich, aber es wird auch Jahr für Jahr zur Unterstützung von Virtualisierung, Zeichnung und andere komplexe, Echtzeit-Arbeit-Anwendungen zu erhöhen.DRAM wurde von mehr als 20 Unternehmen weltweit seit den 1980er Jahren hergestellt.Zur Zeit gibt es nur Samsung, SK Hynix, und Micron und andere drei Oligopolmärkte, die Anwendungskategorien aus der Haupt-PC-Klasse und Unterhaltungselektronik (wie iPod), Mobiltelefone, Tablet-Computer, tragbare Geräte, intelligente Autos, treiberlose Autos Nachfrage nach DRAM wächst auch.

Nur-Lese-Speicher (ROM) oder wiederbeschreibbare Speicher wie herkömmliche mechanische Festplatten (HDD), Solid-State-Festplatten (SSD), Flash-Speicher (Flash-Speicher) usw. haben unterschiedliche Lese- / Schreibeigenschaften, bleiben jedoch nach dem Abschalten der Stromversorgung erhalten. Es kann Daten für eine lange Zeit speichern.Flash-Betriebsgeschwindigkeit ist schneller als die der allgemeinen Festplatte, so dass es allmählich Mainstream wird.

Flash und ROM-Speicherarchitektur können in parallel (NOR) mit Tandem (NAND), ein parallel-Flash-Speicher (NOR-Flash) ist allgemein in dem BIOS, tandem-Typ-Flash-Speicher (NAND-Flash) aufgeteilt ist in der allgemeinen Unterhaltungselektronik üblich, wie Mobiltelefone, Flash-Laufwerke, SSD, usw., setzt NAND-Flash-Technologie mit dem Prozess zu entwickeln, hat die Einheit Kapazitätskosten weiter sinken, Embedded-Geräte in das Smartphone, gewesen und industrielle Anwendungen in den letzten Jahren eine große Popularität, in großen und wachsenden Datenspeicherung Erhöhung der Zahl der Notebook-SSDs Nachfrage, SSD gemacht durch den NAND-Flash, um die Festplatte eines allgemeinen Trends für die großen Hersteller Samsung, Toshiba und SK Hynix allmählich ersetzt hat.

DRAM und NAND-Flash sind in ihren Eigenschaften und Kosten komplementär.Der erstere hat eine große Übertragungsbandbreite pro Sekunde, hoheEinheitskosten und einen hohen Stromverbrauch, der letztere hat eine langsame Übertragungsgeschwindigkeit, niedrige Kosten pro Einheit und einen niedrigen Stromverbrauch, so sind beide Der Markt und die Funktion sind getrennt, und es stellt auch zwei große Lager mit aktuellen Speicherprodukten dar. Als Reaktion auf das explosive Wachstum des Internet der Dinge, Big Data und Cloud-Daten ist Speicher unabhängig oder eingebettet und wird eine Schlüsselkomponente der Systemarchitektur sein. .

Mit Blick auf das Jahr 2020 wird der globale Speichermarkt 79,51 Milliarden US-Dollar betragen, davon entfallen 38,9 Prozent auf DRAM, 55,1 Prozent auf NAND Flash, und die Speicherkapazität für die nächste Generation wird auf 2,0 Prozent steigen.

Aufgrund des Engpasses und der Auswirkung von Mainstream-Speicher-DRAM und NAND auf den Miniaturisierungsprozess wird das Finden alternativer Lösungen oder das Ändern von Schaltungen zur Erfüllung zukünftiger Datenspeicheranforderungen das wichtigste Thema in der gegenwärtigen Speicherindustrie sein.

Die drei Hauptmetriken zum Entwickeln der nächsten Speichergeneration umfassen Kosten, Komponentenleistung, Skalierbarkeit und Dichte usw., wobei Kosten Speicherpartikel, Module und Steuerschaltungen usw. umfassen, wobei die Komponentenleistung Latenz, Zuverlässigkeit und Datenerhaltungsbeständigkeit umfasst. Usw.

Die nächste Generation von Speicher, ist jetzt allgemein in Richtung auf den Weg über die gespeicherte Ladung Ändern von Daten durch eine Änderung der Mechanismus gespeichert für den Zugriff auf die staatlichen Beschränkungen des Prozesses, aber auch geringen Stromverbrauch für das gemeinsame Ziel der nächsten Generation von Speicherkomponenten und sogar Taiwan hat die weltweit zu lösen advanced Process und Schaltungskomponenten und hervorragende F & E-Personal, sehr günstige Lage in der Gedächtnisentwicklung stehen sollte den Vorteil, die Verbesserung der ökologischen Kette der Elektronikindustrie, das Monopol von ausländischen Herstellern nutzen, das Thema des Speichermarkt zu vermeiden, eine feste Position in der Welt, zu halten die Wettbewerbsfähigkeit von Taiwans Industrie. (die Schreiber ist eine Politik, Forscher am nationalen Zentrum für Forschung und Information Research Laboratories)

STPI Einführung

Nationales Institut für Experimentelle Wissenschafts- und Technologiepolitik Forschungs- und Informationszentrum (STPI) im Jahr 1974 gegründet wurde, ist es seit langem gewidmet die Forschung und Entwicklung von Wissenschaft und Technologie, um die notwendigen Daten zu sammeln, zu bauen, zu analysieren, zu verarbeiten und Service-Themen. In der letzten Jahren sowohl in der Informations Ressourcenbasis und Stärkung der Analyse Forschung Entwicklung, Schlüsselfragen zu erforschen, zum Patent Intelligence-Analysen, Innovation und Unternehmertum gleiche Energie zu fördern, und die Regierung zu unterstützen, die Vision und Strategie der wissenschaftlichen und technologischen Entwicklung kartieren, in Richtung Politikforschung Denkfabrik nach vorn in der Technologie spezialisiert hat. Wirtschaftstag

3. Immervision und Socionext werden zusammenarbeiten, um das panomorphEYE-Entwicklungskit bereitzustellen;

MONTREAL - (BUSINESS WIRE) - Immervision und Socionext gaben heute die Gründung einer strategischen Partnerschaft für künstliche Intelligenz (KI) und Roboter für Roboter, Automobile, Drohnen und andere intelligente Geräte bekannt. Learning (ML) -Anwendungen zur gemeinsamen Entwicklung des ersten umfassenden intelligenten Vision-Sensor-Systems Das PanomorphEYE-Entwicklungskit soll im Juli 2018 auf den Markt kommen.

Durch die Zusammenarbeit unserer beiden Unternehmen hat jeder das Potenzial, Smart-Vision-Systeme für intelligente Geräte und Maschinen zu nutzen, denn die einzigartige Kombination aus intelligentem Sehen und fortschrittlichem SoC-Design mit integrierten Sensoren ermöglicht es jedem, sich vorzustellen Intelligente Produkte. "

Dies

Der panomorphEYE umfasst stereoskopisches 3D, 360-Grad-Surround, Time-of-Flight (TOF), Gyroskop, Kompass und andere Sensoren, die für Rapid Prototyping von unschätzbarem Wert sind, die Markteinführung beschleunigen und die Produktfähigkeiten verbessern.

Immervision führt menschliche Faktoren in globale Geräte ein und ermöglicht intelligente Sicht durch einzigartige Panorama-Weitwinkel-Bilderfassung, Data-In-Picture- und Bildverarbeitungsfunktionen, die die menschliche Fähigkeit zur Wahrnehmung der Umgebung verbessern.

Socionext bietet beispiellose Fachkenntnisse in System-on-Chip (SoC) -Systemen und stellt Bildverarbeitungs-, Netzwerk- und Computerfunktionen für führende Geräte von heute bereit, die gemeinsam überlegene visuelle Fähigkeiten, Autonomie und Intelligenz bieten Mehr, siehe mehr Intelligenz.

Immervision Executive Vice President und Chief Business Officer Alessandro Gasparini erklärt: ‚durch die Zusammenarbeit zwischen unseren beiden Unternehmen, jeder intelligente Vision-System für intelligente Geräte und die Entwicklung intelligenter Machine Vision und fortschrittliche SoC-Design und Board verbringen. Die einzigartige Kombination von Sensoren ermöglicht es jedem, sich intelligentere Produkte vorzustellen.

Mitsugu Naito, Senior Vice President Socionext Firma sagte: ‚erfolgreiche Zusammenarbeit zwischen der Immervision und Socionext verschiedenen Kamera- und Bildverarbeitungsanwendungen gewesen Spitzenlösungen für heute zu schaffen, ich bin sehr erfreut, ihre strategische Partnerschaft bekannt zu geben, eine neue eingegeben. Wir werden die Fähigkeiten von Menschen und Maschinen weiter verbessern und den Menschen helfen, ein effizienteres und sichereres Leben zu führen. "Business Wire

4. KI personalisieren und weniger Strom verbrauchen IBM entwickelt neue neuronale Netzwerkchips

"NetEase Smart News 16. Juni News" auf der GPU auf dem neuronalen Netzwerk hat einige erstaunliche Fortschritte im Bereich der künstlichen Intelligenz gemacht, aber die Zusammenarbeit zwischen den beiden ist nicht perfekt. IBM Forscher hoffen, eine Art zu entwerfen Speziell für neue Netzwerke neuronaler Netzwerke, die schnellere und effizientere Alternativen bieten.

Erst zu Beginn dieses Jahrhunderts erkannten die Forscher, dass GPUs (Graphics Processing Units), die für Videospiele entwickelt wurden, als Hardwarebeschleuniger für größere neuronale Netze als bisher verwendet werden können.

Dies ist auf eine große Anzahl dieser Chips kann parallel berechnet werden, anstatt in der Reihenfolge, wie sie wie eine herkömmliche CPU verarbeitet werden. Dies ist besonders nützlich, wenn die richtige Tiefe lernenden neuralen Netzwerk von Hunderten von Neuronen zusammengesetzt ist schwer zu berechnen.

Die Einführung der GPU in diesem Bereich entwickelt worden, aber diese Chips müssen noch Verarbeitung und Lagerung trennen, die viel Zeit und Mühe Mittel auf die Datenübertragung zwischen den beiden aufgewendet. Dies veranlasste die Menschen eine neue Suche zu starten Speichertechnologien, die Gewichtsdaten am selben Ort speichern und verarbeiten können und dadurch die Geschwindigkeit und Energieeffizienz erhöhen.

Die neuen Speichervorrichtungen speichern Daten in analoger Form, indem sie ihre Widerstandspegel einstellen - das heißt, die Daten werden in einem kontinuierlichen Bereich anstelle des Binärspeichers von binär 1 und 0 gespeichert, weil die Information in dem Speicher gespeichert ist. In der Leitfähigkeit der Zelle ist es daher möglich, einfach die Spannung zwischen den Speicherzellen zu übertragen und das System die Berechnung durch physikalische Mittel durchführen zu lassen.

Die inhärenten physikalischen Defekte dieser Vorrichtungen bedeuten jedoch, dass ihr Verhalten inkonsistent ist, was dazu führt, dass die derzeitige Klassifikationsgenauigkeit, sie zum Trainieren neuronaler Netze zu verwenden, signifikant geringer ist als die Verwendung von GPU.

"Wir können auf einem schnelleren System als GPU trainieren, aber wenn das Training nicht so genau ist, wäre das nutzlos", sagte Stefano Ambrogio, ein Postdoktorand bei IBM Research, der das Projekt leitete, in einem Interview mit Singularity Hub. Bislang gibt es keinen Beweis dafür, dass die Verwendung dieser neuen Geräte so genau sein kann wie die Verwendung einer GPU.

Aber die Forschung hat neue Fortschritte gemacht: In einem Artikel, der letzte Woche in der Zeitschrift Nature veröffentlicht wurde, beschrieben Ambrogio und seine Kollegen, wie sie neue analoge Erinnerungen und traditionellere elektronische Komponenten für ihre Arbeit nutzen Ein Chip, der die Geschwindigkeit der GPU mit höherer Geschwindigkeit und geringerem Stromverbrauch erreichen kann.

Der Grund, warum diese neuen Speichertechnologien schwierig sind, tiefe neuronale Netze zu trainieren, ist, dass dieser Prozess die Stimulation jedes Neurons tausende Male hoch und runter erfordert, bis das Netzwerk vollständig ausgerichtet ist.Um den Widerstand dieser Vorrichtungen zu ändern, müssen ihre atomaren Strukturen neu konfiguriert werden. Und jedes Mal, wenn der Operationsprozess anders ist, sagte Ambrogio: Diese Stimuli sind nicht immer die gleichen, was zu einer ungenauen Einstellung des Gewichts der Neuronen führt.

Forscher haben dieses Problem gelöst, indem sie "synaptische Einheiten" geschaffen haben, von denen jede einem einzelnen Neuron im Netzwerk mit Langzeit- und Kurzzeitgedächtnis entspricht. Jede Zelle besteht aus einem Paar von Phasenänderungsspeichern ( Die Kombination aus einer PCM-Zelle und drei Transistoren und einem Kondensator speichert das PCM Gewichtsdaten in dem Widerstand und der Kondensator speichert die Gewichtsdaten als eine Ladung.

PCM ist eine Art "nichtflüchtiger Speicher", was bedeutet, dass selbst wenn keine externe Energiequelle vorhanden ist, die gespeicherten Informationen gespeichert werden können und der Kondensator "flüchtig" ist, so dass er seine Ladung nur innerhalb weniger Millisekunden aufrechterhalten kann. Aber Kondensatoren haben keine Variabilität von PCM-Geräten und können daher schnell und genau programmiert werden.

Wenn das neuronale Netzwerk das Bild zum Abschluss der Klassifizierungsaufgabe trainiert, wird nur das Gewicht des Kondensators aktualisiert.Nach Betrachtung von einigen tausend Bildern werden die Gewichtsdaten zur Langzeitspeicherung an die PCM-Einheit übertragen.Die Variabilität des PCM bedeutet das Gewicht Die Übertragung von Daten kann immer noch Fehler enthalten, aber da die Einheit nur gelegentlich aktualisiert wird, kann der Leitwert erneut überprüft werden, ohne die Komplexität des Systems zu erhöhen.Ambrogio sagte, dass, wenn direkt an der PCM-Einheit trainiert wird, dies nicht durchführbar ist.

Um ihre Geräte zu testen, führten die Forscher eine Reihe beliebter Bilderkennungs-Benchmark-Tests in ihren Netzwerken durch, die mit der führenden neuralen Netzwerk-Software von Google, TensorFlow, vergleichbare Genauigkeit erzielten, aber vor allem sagten sie voraus, dass sie sich letztendlich ausbauten. Der Chip wird 280-mal effizienter sein als die GPU, und die Rechenleistung pro Quadratmillimeter ist 100-mal so hoch wie die der CPU, wobei die Forscher den Chip noch nicht vollständig gebaut haben.

Obwohl reale PCM-Einheiten in den Tests verwendet wurden, wurden andere Komponenten am Computer simuliert.Ambrogio gab an, dass sie hoffen, zu überprüfen, ob diese Methode machbar ist, bevor sie Zeit und Aufwand investieren, um einen vollständigen Chip zu bauen Beschlossen, echte PCM-Ausrüstung zu verwenden, weil die Simulation dieser Geräte noch nicht zuverlässig ist, aber die analoge Technologie anderer Komponenten bereits ausgereift ist, sind sie zuversichtlich, einen vollständigen Chip basierend auf diesem Design zu bauen.

Es kann nur mit GPUs in vollständig verbundenen neuronalen Netzen konkurrieren.In diesem neuronalen Netzwerk ist jedes Neuron mit den Neuronen auf der oberen Schicht verbunden, sagte Ambrogio, aber in Wirklichkeit sind viele neuronale Netzwerke nicht vollständig verbunden. Oder nur einige Schichten sind vollständig miteinander verbunden.

Ambrogio sagte jedoch, dass der endgültige Chip für die Zusammenarbeit mit GPUs ausgelegt sei, so dass er auch Berechnungen für die gesamte Verbindungsschicht im Umgang mit anderen Verbindungen durchführen könne und dass diese effizientere Methode für den Umgang mit vollständig verbundenen Schichten sein könne Weit verbreitet.

Was ist mit so einem dedizierten Chip möglich?

Ambrogio sagte, es gebe zwei Hauptanwendungsbereiche: erstens, künstliche Intelligenz auf persönliche Geräte anzuwenden und zweitens Rechenzentren effizienter zu machen, letzteres ist ein großes Problem für große Technologieunternehmen, da ihre Server viel Strom verbrauchen.

Wenn künstliche Intelligenz direkt auf persönliche Geräte angewendet wird, können Benutzer ihre Privatsphäre schützen, indem sie ihre Daten nicht in der Cloud teilen müssen, aber Ambrogio sagte, dass die aufregende Aussicht die Personalisierung künstlicher Intelligenz ist.

Er sagte: "Indem Sie dieses neuronale Netzwerk auf Ihr Auto oder Smartphone anwenden, können Sie weiterhin von Ihrer Erfahrung lernen."

"Ihr Mobiltelefon wird für Ihre Stimme personalisiert, Ihr Auto basiert auch auf Ihren Gewohnheiten, um einen einzigartigen Fahrstil zu schaffen."

2016 GoodChinaBrand | ICP: 12011751 | China Exports