Vor kurzem auf die Beziehung zwischen AI-Chip (ASIC) und FPGA, die Status der Industrie in Frage. Deshalb werden wir die Industrie dieses Thema Investoren einladen, Unternehmer diskutiert.
Unter Hinweis auf die Geschichte der Chip-Entwicklung, ist die Geschichte der Entwicklung eines Prozesses von Moores Gesetz getrieben, sondern auch eine Geschichte der Entwicklung von anwendungsdefinierten Architektur ist ASIC nicht so darüber gesprochen wird durch FPGA ersetzt werden, das Problem selbst ist ein Laie.
Unter Moor Gesetz Verlangsamung des Hintergrunds, Chip-Architektur und die Hardware- und Software-System definierte Anwendungsszenarien werden noch wichtige Veränderung, wie eine Welle nach der neuen Anwendungen GPU, DSP, Videoverarbeitungschips spezielle Chip-Architektur bringen, AI in diesem mit der Entwicklung von Wellen- und Gezeiten, die Konvergenz des Algorithmus sein wird, fällt nach und nach einige der effizienteren Architektur aus, und diese Szenen Chip-Architektur und Anwendungssoftware ist hoch integriert, ausgewogene Leistung, Leistung und Kosten des Designs.
Die Computing-Architektur besteht aus drei Kernelementen, darunter Computing, Storage und Networking, so dass sich die Chip-Typen grundsätzlich in drei Kategorien unterteilen lassen, die leicht zu verstehen sind.
Lassen Sie uns zunächst über den Computer-Chip sprechen, Intel und ARM CPU, NVIDIA GPU, CEVA DSP gehören zu dieser Art von Chip oder IP, ist die Hauptaufgabe, Logik und Mathematik Operationen abzuschließen, unterstützen die IT-Welt des Cloud Computing, mobile Endgeräte Anwendung und Signalverarbeitung, sogar AI usw. FPGA ist eine der kleinen Kategorien, weniger als 5% des gesamten Intel-Umsatzes, normalerweise kann FPGA einige beschleunigte Operationen durchführen, bei denen die CPU nicht gut ist, wie Signalverarbeitung, KI-Argumentation usw. Die Unzulänglichkeiten von FPGA sind jedoch auch sehr deutlich: FPGA betont die Vielseitigkeit der Logik, unterstützt Software-Neuschreiben und -Konfiguration, was zu einem Engpaß bei der Computational Density führt, und die allgemeine Logik bringt eine Menge Redundanz, was Kosten und Energieverbrauch bedeutet. Im Zeitalter des mobilen Internets und des Internets der Dinge sind die Anzahl der Benutzer und die Komplexität der Anwendungen stark angestiegen, und die Rechendichte (Rechenleistung durch Stromverbrauch der Einheit) stellt die Kernkompetenz dar. FPGAs sind offensichtlich nicht kompetent, obwohl FPGAs in beschleunigten Szenarien verglichen werden können. Die CPU ist eine Größenordnung höher, aber mindestens eine Größenordnung niedriger als die dedizierte AI-Engine.
Einige Leute werden in Frage stellen, ob ASIC nicht universell ist.Tatsächlich ist die Antwort sehr einfach.Universal und Computational Density stellen eine Art Kompromiß dar. Zum Beispielkann die CPU in der Theorie jede Operation ausführen, aber die allgemeineArchitektur bringt den Verlust der Berechnungsdichte mit sich. Zum Beispiel kann die beste Server-CPU nur 1Tflops AI-Denkvermögen liefern, schauen Sie sich die GPU an, sie kann leicht 10Tflops machen, aber die GPU kann komplexe logische Operationen nicht abschließen, so dass sie niemals die CPU ersetzen kann; Eine Art zwischen CPU und ASIC, mit einiger Flexibilität, aber niedriger Kostenleistung, kann nicht die Hauptströmungsbedürfnisse, wie die Mobiltelefonindustrie, erfüllen, um einige Cents der Kosten zu sparen, das Design ständig zu optimieren, sich einer so riesigen Industrie zu stellen, Die Kosteneinsparungen von Bit für Bit sind enorme Vorteile, so dass das Schicksal von FPGA immer ein Übergangsprodukt in der frühen Phase des Marktes oder ein Segment, das kleine Chargen dient.
Vor kurzem haben wir eine interessante Sache bemerkt: Intel hat ein Unternehmen erworben, das sich mit strukturiertem ASIC-Design beschäftigt und einen Teil der redundanten Logik aussparen kann, um den Entwicklungsprozess von FPGA-Logikdesign zu ASIC basierend auf FPGA-Design zu beschleunigen Out of ASIC ist die ultimative Antwort auf den Mainstream-Markt.
Aurora Borealis hat in vier AI Chip-Unternehmen investiert:
▪ Getrennt für Cloud Computing,
▪ Selbstfahrende schwarze Sesamsamen,
▪ Unterhaltungselektronik und Milliardensicherheit,
▪ Unsere Technologie mit Ultra-Low-Power-Sensorfusion,
Diese Unternehmen haben die KI-Engine für verschiedene Anwendungsszenarien optimiert: Der zukünftige Chip-Hersteller kann nicht nur ein Hersteller von Hardware sein, sondern muss die Bedürfnisse des Anwenders verstehen und die Grenzen der Flexibilität definieren, um die besten Produkte zu definieren. Der Cloud-Computing-Markt muss mehr KI-Netzwerkmodelle unterstützen, so dass sein Architekturdesign vielseitiger und näher an der GPGPU-Architektur ist, während Black Sesame und Yizhi die Leistungsanforderungen des Anwendungsszenarios genau verstehen und nur wenige Benutzer unterstützen müssen Mehrere Algorithmen und mehr, um das Gleichgewicht zwischen Stromverbrauch und Leistung zu verfolgen.Der Kunde kümmert sich wirklich nicht um Universalität, sonst ist die CPU in Ordnung, aber die Kosten unter der Rechendichte, die die Szene Anforderungen erfüllt.
Andere das neue Unternehmen nicht in Frage greift Kapazität, ASICs Ziel ist es, das meisten Mainstream und relativ kostengünstiges Verfahren zu verwenden, um die FPGA mit dem modernsten Herstellungsprozess abzuschließen, um Dinge zu tun, Kapazität ist kein Problem, zum Beispiel hundert Millionen chilenischer einfach verwenden, um die 40nm und 28nm der Prozess mehr als 1TOPS Zahl Kraft zur Verfügung stellen kann, FPGA Kosten nur 1/10 oder weniger ist, ist die modernste Herstellungsverfahren für universelle Chipdesign geeignet, sondern im Rahmen einer Verlangsamung Moores Gesetz wird eine große Belastung. hier auch über persönliche Ansichten unter tief Kommt Übernahme sprechen wollen, FPGA-Entwickler sehr klein sind, schwierig zu bedienen, so Automatisierung ist ein wertvolles Werkzeug für die FPGA, tief Kommt AI Software-Tools können den Entwicklungsfortschritt der FPGA, Xilinx beschleunigen, aber wenn sie es weiterhin in Forschung und Entwicklung investieren, bleibt zu AI gewidmet Chip gesehen. Intel als Branchenführer in Autopiloten, Verbrauch, Sicherheit und Cloud-Computing ein dediziertes AI Chip-Layout, einschließlich BAT haben ihren eigenen AI-Chip entwickelt, wobei diese Richtung noch erheblicher Konsens.
Lassen Sie uns zusammenfassen den Standpunkt, die Szene Definition AI dedizierten Chip und heterogene Computing ist das Hauptthema der nächsten Änderung der Computing-Architektur.
In der Tat ist die chinesischen Investitionen AI Chip-Unternehmen nicht zu viel, aber zu wenig, wirklich reife Industrie erfahrene Team jagen und die Investment-Community sollte das Thema, sondern auch die Zukunft des Landes strategischer Ressourcen unterstützen.