In der Tat haben das MIT-Forscherteam und seine Mitforscher ähnliche Entdeckungen in ihrer früheren, für 2016 geplanten computergestützten Chiparchitektur gemacht, bei der Photonen anstelle von Elektronen als theoretische Wechselwirkung zwischen Licht und Linse selbst verwendet werden Eine komplizierte Berechnung: Fourier-Transformation - Unter Verwendung dieses Prinzips und unter Verwendung mehrerer Strahlsteuertechniken können die Korrelationen verwendet werden, um das gewünschte Ergebnis einer Suche zu finden, und die Chiparchitektur wird von dem Forschungsteam als Programmable Nano bezeichnet Photonische Prozessor.
Im Juni 2017 präsentierte ein MIT-Forscherteam einen Vortrag über programmierbare nanophotonische Prozessoren und veröffentlichte in Nature Photonics, dem ersten Autor und Korrespondenten für das Papier, das in Hangzhou geboren wurde Shen ist derzeit Mitbegründer und CEO von Lightel- ligence und einer von 35 chinesischen Technologieinnovationsjugendlichen unter 35, die 2017 vom MIT Review ausgewählt wurden.
Photon Computing hat einzigartige Vorteile im Umgang mit einigen AI-Algorithmen
Abbildung 丨 2017 MIT-Review Chinas 35-jährige 35-jährige wissenschaftliche und technologische Innovation ausgewählt, Lighteligence Mitbegründer und CEO Shen auch Morgen
Lightelligence derzeit unter der Leitung von Chen Yichen, der vollen Entwicklung der relevanten optischen Chip-Technologie, einschließlich Chip-Design, der Kern-Algorithmus, Getrieben, Peripheriegeräte und andere, will ein komplettes optisches Computing-Ökosystem zu bauen. Da Lightelligence Technologie entwickelt, die Ökologie der Rechen wahrscheinlich völlig verändern deshalb Aufmerksamkeit, einschließlich dem Baidu Cloud-Computing als Kern der Entwicklungsprojekte, sowie eine Reihe von US-Halbleiter-Industrie Führungskräfte sind optimistisch, was die Zukunft wegen des photonischen Chips und werden Lightelligence frühe Investoren.
Shen Chen auch den DT-jun ausgedrückt, aufgrund seiner Promotion an MIT-Forschungsprojekt ist in erster Linie auf nanophotonics, nur im Jahr 2015, KI-Anwendungen nehmen schnell ab. Wie wir alle wissen, zusätzlich zu den Daten, Hardware-Anwendung von AI ist auch sehr wichtig, , so mit der Idee der photonische Anwendungen in der IT-Umgebung starten.
Aber warum niemand gedacht Photonen zu drehen, um die Wirkung von neuronalen Netzen berechnen es 2015? Shen Chen sagte auch, dass dies, weil in der Vergangenheit das neuronale Netzwerk-Computing ist nicht populär, und die traditionelle Logik Berechnung wird nicht berechnet Photon besten Orts des Fall ist.
Tatsächlich könnte ein photonischer Chip die geeignetste zukünftige Hardwarearchitektur für AI-Berechnungen sein, da die Natur des Lichts inhärent linear ist (der wichtigste Teil der AI-Berechnungen), was eine hochdimensionale parallele Berechnung beinhaltet. Im Gegensatz dazu, obwohl Quantencomputer in letzter Zeit aufgrund von KI viel Aufmerksamkeit auf sich gezogen haben, ist das Quantencomputing immer noch ein Bereich, der besser dekodiert oder durchsucht werden kann und in der Massenproduktion noch nicht ausgereift ist, aber sein Potenzial ist nicht zu unterschätzen.
Von der Übertragung bis zur Berechnung werden Photonenchips zur ultimativen Computerlösung?
Nach der Einführung des ersten Standard-CMOS-Prozess-Hybrid-Silizium-Lasers von 2006 durch Intel gelang es, zwei völlig unterschiedliche physikalische Phänomene, elektrisch und optisch, zu vereinen. Im Laufe der Jahre wurde eine optische Übertragung mit sehr hoher Bandbreite basierend auf dieser Technologie entwickelt Die Architektur ist zu einem Lieblingspunkt von Hochleistungsrechenzentren geworden, wodurch die durch große Datenübertragungsraten verursachten Systemengpässe effektiv reduziert werden.
2015 IBM Forscher haben eine neue experimentelle Techniken für die photonische computing, durch die die CPU in der gleichen Paket-Größe des Problems des Siliziums photonischer Technologie zur optischen Schnittstellen-Chip, aber IBM Photons integrierten photonischen Arrays aus Silizium in lösen gewesen Schema kann auf Single-Chip-System (das SoC), kostengünstige Standardstecker (Randstecker) von durchgelassenem Licht, oder zusammen so lange angewandt werden, wie der Chip zwischen der Chipkante kann CMOS-Chip zu Chip Kommunikation sein.
Diese Entwicklungen in erster Linie als photonischen Chip Verbindung zwischen dem Chip und dem Chip zwischen traditionellen gelöst oder Chip und Speichersystemen. Durch hochintegrierten Chips photonischer Erfindung, die vorherige große und komplexe optische Transportinfrastruktur zu ersetzen, und Schnellere, niedrigere Latenz
Das eigentliche Konzept, Photonen in den Computerbereich zu bringen und sogar einen "photonischen Chip" zu bilden, wurde erst in den letzten zwei Jahren allmählich entdeckt.
Obwohl sich die Halbleiterchiptechnologie auf die Integration neuer Anwendungen und Algorithmen stützt, können immer mehr Dinge getan werden: Tatsächlich basiert die Chiparchitektur selbst auf der gleichen Logik und ist begrenzt durch Halbleitertechnologie, Rechenleistung, Größe und Stromverbrauch, Kostenbildung ist schwierig, die vier Ecken der Beziehung auszugleichen.
Zu diesem Zeitpunkt auch die Industrie begann, sich aktiv für neue Computing-Technologie suchen durchzubrechen den Status. GPGPU, neuronales Netzwerk-Chip, DSP, FPGA vorgeschlagen, es bei der Lösung von spezifischen Computing-Anwendungen zu verschiedenen Zeiten spezialisiert, aber sie befassen sich nicht mit den zugrunde liegenden Chip Problem ist, dass, basierend auf physikalischen Eigenschaften beschränkt davon die Halbleiterstruktur zugewandt ist.
Abbildung Shu Photonen synaptischen Wirkungsprinzip
Die wachsenden Rechenanforderungen von AI bringen die Verarbeitungsarchitektur zum Laufen und Intel beispielsweise wird in Zukunft CPU- und FPGA-Rechenleistung kombinieren, um komplexere Anwendungsszenarien zu bewältigen.NVIDIA verstärkt seine neueste Generation von GPU-Lösungen dramatisch Darüber hinaus hoffen viele, passendere neue Architekturen für spezifische Berechnungen wie NPUs, Quantencomputer und die neuesten Computerkonzepte einzuführen: photonische Schaltkreise basierend auf photonischen Schaltkreisen (Photonische Schaltungen) Computerarchitektur.
In der Tat ist das ‚Licht‘ in einer Computerumgebung verwendet wird, hat eine Geschichte von mehr als ein paar Jahrzehnte, vor allem in der Vergangenheit zwischen den verschiedenen Chips oder Speicher Altgerät Datennutzung zu übertragen, und weil die damit verbundenen Übertragungstechnik Kosten sind zu hoch und müssen verwendet werden teure Peripherie, um seine Wirksamkeit zu zeigen, daher ist ‚Licht‘ der Übertragung nie auf den Consumer-Markt populär, führten uns nicht allzu deutlich das Bewusstsein für diese Tatsache.
Allerdings ist die Berechnung eine andere Ebene Fragen.
Abbildung Shu SMART Photonics photonischen Chip
Mit einem sehr einfachen Konzept, um den Photon-Computing-Chip zu erklären, ist die Verwendung des Chips unzählige optische Schalter, die Rolle ist ähnlich dem Logik-Gate in Halbleiter-Chips, die Verwendung unterschiedlicher Wellenlängen, Phase und Intensität von Lichtkombinationen, komplexe Spiegel, Filter Und Prismenstruktur des Arrays der Informationsverarbeitung.
Die Siliziumphotonik basiert wie die Mikroelektronik auf siliziumbasierten Halbleiterarchitekturen, und Silizium hat als optische Kommunikationsübertragung an Popularität gewonnen, die aufgrund der schnellen Reaktion und der parallelen Natur von Licht sofort große Datenmengen übertragen kann und daher häufig in Daten verwendet wird Mitte des Servers.Weil der Photon-Transfer-Prozess ist stabil, parallele Fähigkeit, und die Fehlerkorrektur Design ist relativ einfach, die Übertragung und Umwandlung von Energie ist sehr klein, so dass die Verwendung von Photonic-Computing-Architektur theoretisch relativ geringe Leistung sein kann Zweitens können photonische Chips theoretisch in sehr kleinen Anwendungen wie mobilen Geräten verwendet werden.
Photonische Chips können die derzeit ausgereifte Halbleitertechnologie nutzen, und der photonische Chip befindet sich noch im experimentellen Stadium. Nur die alte Mikrometer-Technologie kann die vorhandene Rechenleistung des Halbleiterchips und damit die Zukunft des Mikroraums erheblich übertreffen. Mit der Zunahme der Chipdichte kann die Leistung ein beträchtliches Wachstum sein und sogar die Möglichkeit haben, die Grenzen des Mooreschen Gesetzes vollständig zu überarbeiten.
Der CMOS-Prozess ist der größte Vorteil der Photonik, aber das Ziel besteht nicht darin, herkömmliche Halbleiter zu ersetzen
Abbildung 丨 CMOS
Shen Yichen sagte auch, dass, da der photonische Chip grundsätzlich noch auf dem aktuellen CMOS-Herstellungsprozess basiert, er in Bezug auf Kosten- oder Massenproduktionstechnologie vorteilhafter ist als der spezielle Prozess, der im Quantencomputer verwendet wird. Obwohl der photonische Chip im Labor derzeit in der Dichte ist Es ist besser als ein traditioneller Halbleiterchip, aber viel besser als ein Quantenchip.
Die Leistung von photonischen Chips hängt von der Architektur und dem Algorithmus ab, beispielsweise wie viele verschiedene Wellenlängen des Lichts zur gleichen Zeit zu kombinieren sind, oder die Bandbreite des im Chip verwendeten optischen Signals und der Engpass der photoelektrischen Umwandlung, aber nur vom Physikalischen Feature-Sicht, in dem entsprechenden Algorithmus, um ein hundert Mal die Geschwindigkeit der traditionellen Halbleiter-Chips zu erreichen ist kein großes Problem.
Natürlich in der Theorie kann ein groß angelegter photonischen Chip, nur sehr wenig tun können, aber weil das Licht nicht geeignet für nicht-lineare Operation ist, noch zusätzlich zu Integration und Größe des optischen Chips bestimmte Spezifikationen haben, vollständig zu Halbleiterchips ersetzen wir haben eine Menge Schwierigkeiten.
Aus dem Chip, der Algorithmus auf das umgebende Ökosystem in der Entwicklung
Shen Chen betonte auch, dass die aktuelle Lightelligence photonischer Chip-Entwicklung abgeschlossen wurde, hat das Laborstadium zeigen, in dem Algorithmus, Bus und Lagerung eine entsprechende Gestaltung des Fortschritts, natürlich, die wichtigsten Computer-Chips oder Ökologie, dies erfordert auch mehr Forschung Institutionen und Unternehmen hinzugefügt, um den Bereich des optischen Computing gemeinsam zu bauen zu erweitern.
Da das Hauptprodukt ein Chip ist, ist der Kern die Kombination aus Algorithmus und Hardware und den entsprechenden Chip-Anweisungen und -Compilern, und die Aufgabe von Lighten- ligence besteht darin, den entwickelten Chip zum Beispiel auf das derzeit beliebte Framework anzuwenden TensorFlow, Caffe und so weiter.
Darüber hinaus entwickelt Lighelligence entsprechende periphere Designs aufgrund der Besonderheiten der Photonenzählung bei der Übertragung oder Speicherung, obwohl die derzeitigen Speichersysteme die Geschwindigkeit von Landungsoperationen beschleunigen können, aber die Leistung von Photon Computing einschränken können, Daher wird dieser Teil der Zukunft, oder mit Photon-Computing-optimiertem Design als Ziel, in der Lage sein, die Gesamtvorteile von Photon-Computing hervorzuheben.
Nach Lightelligence Team arbeitet nun die ökologische Photonenkorrelationsberechnung zu verbessern, ist der aktuelle Kurs nicht ausgereift, aber die Industrie für High-Performance Computing, und eine noch bessere Architektur neuronale Netzwerk-Computing hat eine sehr hohe Erwartungen, glaube ich, dass photonische Computing-Architektur Landung stark beschleunigen kann AI ökologische Veränderung der Gesamtberechnung.
Shen Yi Chen sagte, ob es für einen bestimmten Zweck ist, oder für allgemeine Zwecke Rechenleistung, das die Auswahl der Entwicklung verschiedener Prozess Chip-Architektur sein. Lightelligence ersten oder wird die Technologie oder Anwendungsszenarien reifere photonischen Chip-Anwendungen, und schalten Sie dann nach und nach erweitern verfügbar Palette von Anwendungen, während auch die vorderen und hintere Ende der photonischen Chip-Technologie zu entwickeln, arbeitet, besser für die Zukunft der verschiedenen Computerszenarien angepasst.
Shen betonte auch, dass auf dem Weg zum Photon Computing im Allgemeinen immer noch viele technische Verbesserungen vorgenommen werden müssen, aber es ist wahrscheinlich die beste Zeit und die am nächsten zu erreichende Lösung im Vergleich zu den bisherigen Versuchen mit Photonen.