Drei Hauptfraktionen kämpfen gegen einen AI-Chip: Intel setzt auf einen neuronalen Netzwerkprozessor

Vor kurzem mit einem 103 Jahre alten San Francisco Art Palast, angehende Technologie Konferenz Intel - AI Developers Conference (bezeichnet als 'AIDC) Ruqierzhi dieser Zeit wird Intel auf Erweiterung AI Ökologie konzentriert.

In zwischen den Szenen zwischen AI romanischen Architektur und das Gefühl der Technologie, Helms Intel Naveen Rao sprechen über AI Artificial Intelligence Intel-Hardware und Software-Kombination, aber die meisten schwer als die Informationen durch Aushang bekannt gegebenen Nervana neuronalen Netzwerkchip, nach dem Plan , Intels neuester AI-Chip Nervana NNP L-1000, wird 2019 offiziell auf den Markt kommen, das ist Intels erster kommerzieller neuraler Netzwerkprozessor.

Vor zwei Jahren, Naveen Rao und Tiefe des Lernens, CEO und Mitbegründer von Start Nervana Systeme. Nachdem das Unternehmen von Intel übernommen wurde, werden Nervana der Kern von Intel Schiffe künstliche Intelligenz, Nervana NNP Serie entstanden, Naveen Rao ist Ernennung zum Leiter des Produktbereichs Künstliche Intelligenz.

Intel Vice President künstliche Intelligenz Products Division, Nervana Teammitglied Carey Kloss auf der Straße in einem Interview mit Business Herald Reporter des 21. Jahrhunderts befragt: ‚Unsere frühen Tagen begann die Entwicklung des Lake Crest (Nervana NNP Reihe von frühen Generation-Chip, Codename) war unser gesamtes Team über 45 Mann, baut eine der größten Chip (Silizium-Chip), haben wir die Neon (Tiefe Lernsoftware), auch integrierte Cloud-Stack entwickelt, diese kleinen Team durchgeführt werden. aber das ist, wo die Herausforderung, es wird ein kleines Team sein Wachstumsschmerzen Es hat lange gedauert, bis die ersten Produkte herauskamen.Nervana wurde 2014 gegründet. Bis zum letzten Jahr wurde der Chip wirklich eingeführt.

Doch nach Intel Beitritt kann Nervana die verschiedenen Ressourcen von Intel verwenden, ‚natürlich, rufen Sie die Ressource ist keine einfache Sache, aber Intel umfangreiche Erfahrung in den Bereichen Marketing Aspekten des Produkts hat. Zur gleichen Zeit, Intel hat bisher habe ich gesehen Die beste Nach-Silizium-Bring-up- und Architektur-Analyse. "Carey Kloss sagte 21st Century Business Herald:" Wir haben Hunderte von Systemen gleichzeitig laufen ", Nervana Mitarbeiter und 6 Monate Die Mitglieder, die gerade beigetreten sind, arbeiteten auch Tag und Nacht, um für neue Produkte zusammenzuarbeiten. "Nervana ist seiner Ansicht nach in einem vernünftigen Tempo und hat alle Elemente für den Erfolg im nächsten Jahr.

Neben Nervana, Intel künstliche Intelligenz Flaggschiff Unternehmen erworben umfasst auch Movidius Fokus auf visuelle Verarbeitung, FPGA (Field Programmable Gate Array) Riesen-Altera, intelligente Fahr Zusammenhang Mobileye usw. In der Tat, ab 2011 begann Intel weiter zu investieren AI-verbundenen Unternehmen, einschließlich der chinesischen Cambrian Horizont zugleich Intels Konkurrenten wachsen NVIDIA GPU Triumph auf dem Gebiet der künstlichen Intelligenz; .. Google hat vor kurzem die dritte Generation AI-Chip freigegeben TPU, der Chip für tiefe Lernarchitektur TensorFlow Optimierung von Google und Google-Entwicklern mit einem TPU zur Verfügung zu stellen und andere zugrunde liegende Dienstleistungen, im vergangenen Jahr, Baidu gemeinsame ARM, violett zeigen scharfe und Hanfeng elektronische Publizieren DuerOS Weisheit Chips, die wichtigsten Anbieter von interaktiven Sprach lösen Programme, Facebook und Alibaba sind ebenfalls in das Chip-Feld eingestiegen, unter denen Alibaba Dharma einen neuronalen Netzwerkchip namens Ali-NPU entwickelt, der hauptsächlich für Bilder, Videoerkennung und Cloud-Computing-Szenarien verwendet wird.

Wie wird Intel auf die "Erfahrung" dieses künstlichen Intelligenzchips reagieren?

Drei Fraktionen kämpfen um die Vorherrschaft Insgesamt ist das derzeitige globale Muster der künstlichen Intelligenz noch nicht klar, nicht an ihre jeweiligen Technologie lokaler Kriegsführung gehört zu erkunden, ist es noch nicht eingegeben der totale Krieg gedrängt. Künstliche Intelligenz ist ein allgemeines Konzept, erhebliche Unterschiede in spezifischen Anwendungsszenarien, Unternehmen wenn klassifiziert der Fokus ist anders, nach technischem und Business Schools können globale Unternehmen in drei Fraktionen aufgeteilt werden. ein Schulsystem-Anwendungen sind, die typischen Vertreter von Google und Facebook. nicht nur, dass sie künstliche Intelligenz System-Level-Rahmen entwickeln wie Google berühmte künstliche Intelligenz Rahmen Tensorflow, Facebook Pytorch, sondern auch Investitionsanträge Groß. Zum Beispiel Google stark in Forschung und Entwicklung Autopiloten, Übersetzung 2C Start Geschäft investiert, während Facebook künstlichen Intelligenz-Technologie auch in sozialen Netzwerken weit verbreitet Bildverarbeitung, Verarbeitung natürlicher Sprache und in anderen Bereichen.

Die zweite Kategorie ist die Chip-Fraktion, ist der Schlüssel Betreiber Stützkraft zur Verfügung zu stellen, der größte Spieler ist der Intel und NVIDIA. NVIDIAs GPU-Computing-Möglichkeit, die wichtigsten Geräte Bedürfnisse, Rechenleistung in Grafik-Rendering, das Gebiet der künstlichen Intelligenz und Blockkette zu ergreifen sehr prominent auch in diesem Unternehmen Druck auf Intel setzen, während Nvidia und Intel scheinen anders ‚Intel Inside‘, würde es vorziehen, ein wirkliche Kraft Plattformbetreiber zu werden, und die erfolgreiche Einführung seiner CUDA-Plattform.

Am 30. Mai veröffentlichte NVIDIA der erste Integration von künstlicher Intelligenz und High Performance Computing-Computing-Plattform --HGX-2, der Welt, die derzeit die größte GPU - Computing-Plattform DGX-2 als traditionellen Betreiber hinter dem Kraftfeld. Intel-Chef natürliche übertroffen werden, 50 Jahre Geschäft bedeuten eher alte Menschen in den letzten Jahren häufig Blockbuster Fusionen und Übernahmen im Bereich der künstlichen Intelligenz ins Leben gerufen: 2015 $ 16,7 Milliarden Erwerb von ‚field Programmable Gate Array Riese‘ (field Programmable Gate Array, FPGA ) Altera, die Grundlage für die zukünftige Entwicklung Trendberechnung Kraft Basis gelegt, FPGA im Bereich Cloud Computing, Netzwerke und andere Aspekte der Kante Computing hat ein großes Potenzial, 2016, Intel Nervana erworben, plant das Unternehmen, diese Fähigkeit in der Tiefe Lernen zu nutzen, um zu kämpfen GPU, die im selben Jahr auch Visual Processing Chip-Startups Movidius erworben; 2017 Nian Intel für Antrieb $ 15,3 Milliarden Erwerb von israelischer Hilfe des Unternehmens Mobileye, sollte das Gebiet der automatischen Piloten einzugeben.

Neben Systemanwendung und Chip-Kuchen zu schicken, ist die dritte Kategorie die Anwendung der Technologie der meisten der übrigen Unternehmen fallen in diese Kategorie zu senden. Auch wenn verschiedene Unternehmen eine Tiefe Lernen haben behauptet haben, künstliche Intelligenz, sogar einzigartig, tief Technologie Akkumulation, aber in Wirklichkeit meist basierte Technologie-Plattform-Anwendungen und Chip Kuchen senden. nur mehr technologieorientierte C-Terminal-Benutzer senden, einschließlich Autopiloten, Bilderkennung und anderen Unternehmensanwendungen. objektiv, Technologie Die Fraktion gehört zu "der Herr ist gut in Sachen und Dinge sind auch".

Ausgehend von der aktuellen Wettbewerbslandschaft hat die System Application School nach und nach ihren Vorteil ausgenutzt und verfügt über die meisten Kernkompetenzen auf dem Gebiet der künstlichen Intelligenz: In der Ära der traditionellen Computer und Mobiltelefone sind Systeme und Chips kooperativer und Chips sind noch mehr Nehmen wir eine dominante Position: Insbesondere im Computermarkt dominiert Intel im Bereich der Rechenleistung komplett und umspannt PCs und Apples MAC-Rechner.Auf der Systemseite haben Windows und iOS jeweils ihre eigenen Vorzüge und können sich nicht gegenseitig ersetzen, sondern ihren gemeinsamen Intel Aber es kann nicht ersetzt werden.In der Ära der Mobiltelefone, obwohl der Protagonist der Computer hat sich von Intel zu Qualcomm geändert, der Chip ist immer noch im Mittelpunkt, und seine Bedeutung und Betriebssystem sind gleichmäßig aufgeteilt.

In den letzten 1-2 Jahren hat sich die Situation rasant verändert: Apple hat eine eigene Taktik zur Entwicklung und Produktion von MAC-Chips veröffentlicht, der Aktienkurs von Intel sinkt seit einiger Zeit, im Bereich der künstlichen Intelligenz ist dieser Trend aufgrund der unterschiedlichen Anforderungen von Computerszenarien noch ausgeprägter. Groß, Google muss ausgereifte Chips nach ihren Bedürfnissen entwickeln, und es ist technisch machbarer.Wenn Intel Chips für verschiedene Szenarien anpassen will, bedeutet dies, dass Intel vollständig auf 2B übertragen wird, verglichen mit dem vorherigen 2B2C-Modell, rein Das Geschäft von 2B wird offensichtlich dem von Partei B ähneln, und die Komplexität der Geschäftssparte wird dramatisch zunehmen.Historisch gesehen ist die Verlagerung eines Unternehmens von 2C auf 2B im Allgemeinen auf den Verlust seiner Kerndominanz in der Branche zurückzuführen und muss sich zurückziehen. Ich suche Zeiten.

Wetten auf Nervana NNP Also, wie intensiviert Intel im harten Wettbewerb sein Chip-Geschäft?

Nach Naveen Rao Intel trat, wurde Intel Vice President, AI-Abteilung (AIPG) verantwortliche Person, Chip die Einführung von Intel Neuronalnetzwerkprozessor (Nervana NNP) Serie führt. Die Konferenz vorgeschlagen Bereitstellung von Software-Tools für Entwickler in AIDC Hardware Ökologie in der Industrie scheint Intel technische Stärke, Software-Tools und Hardware ist kein Problem, aber Ökologie war ein offene Frage. in der PC-Ära, ist der Kern des Öko-Chips, so dass Sie umwelt um uneinnehmbar Chip Intel machen aufbauen können, aber im Zeitalter der künstlichen Intelligenz ist die künstliche Intelligenz der Kern des ökologischen Systems, Power Spanzählimpuls Teil der Ökologie Bereitstellung ist, CPU-Anzahl Leistung zur Verfügung stellen kann, GPU auch zur Verfügung gestellt werden kann, kann Intel produzieren, kann Nvidia produzieren, auch Google, Apple selbst Produktion kann nun in Tiefendaten und des wissenschaftlichen Rechnens, Intels Chip-Layout hauptsächlich Xeon (Xeon) Chip-Serie, Movidius Vision Chip VPU, Nervana NNP-Serie, sowie FPGA (field Programmable Gate Array). diese Artikel erfahren Produktliniensegmente, die jeweils mehrere unterschiedliche Anwendungsszenarien.

Nervana NNP Serie ein neuronales Netzwerk-Prozessor ist, die Schlussfolgerung Phasentiefe Ausbildung und Lernen, Nervana NNP vor allem für die Berechnung Trainingsphase nach Intels Plan, 2020 auf die Tiefe des Lernens und der Ausbildung (Deep Learning, bezeichnet als die ‚DL‘ die Wirkung von 100 mal). dieser neuronale Netzwerkprozessor von Intel und mit Facebook in Zusammenarbeit entworfen, können Sie sagen voraus, dass der Chip weitgehend Rahmen der maschinellen Lernens Pytorch Facebook eine gute Unterstützung, nachdem alle Pytorch von Facebook Ambitionen haben sollte Google ist sicher, wird offiziell gestartet werden, im Jahr 2019 ein Showdown von Tensorflow aber das neuesten Chip-Geschäft sein wird das Muster des tiefen Lernens verändern, wie unberechenbar.

Naveen Rao schrieb in seinem Blog: ‚Wir entwickeln die ersten kommerziellen neuronalen Netzwerk-Prozessoren Intel Nervana NNP-L1000 (Codename Frühlings-Kamm), geplant für die Freigabe im Jahr 2019 im Vergleich zur ersten Generation des Lake Crest Produkts, wir. Intel wird voraussichtlich Nervana NNP-L1000 wird 3-4 mal die Trainingsleistung erzielen. Intel Nervana NNP-L1000 auch bfloat16 unterstützen wird, die weit in der Industrie ein numerisches Datenformat für das neuronale Netz der Zukunft verwendet wird, wird Intel in der künstlichen Intelligenz sein Produktlinie Unterstützung für bfloat16 erweitert, darunter Intel und Intel Xeon-Prozessor FPGA. ‚in der Tat startete Frühling Crest am Ende 2018 ist seit langem gemunkelt, aber jetzt scheint es, im Jahr 2019 zu diesem Zeitpunkt der offizielle Strategie in dieser Hinsicht eine Verzögerung gibt, erklärt Carey Kloss den Reportern: ‚in den moderneren Prozessknoten, integrieren wir können mehr Gesenk (Silizium-Chips) höhere Verarbeitungsgeschwindigkeit erreicht werden, aber es braucht Zeit Siliziumwafer herzustellen Es braucht auch Zeit, bis der Siliziumchip ein neuer neuronaler Netzwerkprozessor wird, was der Grund für die Verzögerung ist.

Für die Differenz zwischen zwei Generationen von Chips, wobei seine Analyse: ‚Lake Crest-Prozessor als erste Generation, in GEMM (Matrixberechnung) und ein Faltungs neuronales Rechen eine sehr gute Auslastung erreicht haben, der nicht nur zu 96% des Durchsatz beziehen. die Höhe der Nutzung, aber in Abwesenheit von vollständiger Anpassung haben wir haben auch das Beste aus der Situation, 80% höher zu erreichen, als bei GEMM Rechenauslastung., wenn wir entwickeln den nächsten Generation-Chip, wenn wir einen hohes berechnet sind in der Lage zu halten mit Rate, das neue Produkt hat eine Leistungssteigerung von 3 bis 4 mal.

In Bezug auf dem Wettbewerb, sagte Carey Kloss: ‚Ich weiß nicht, was die Straßenkarte, dass unsere Konkurrenz ist, aber unsere Reaktionsgeschwindigkeit ist relativ schnell, so dass ich denke, dass wir im Nachteile nicht in der neuronale Netzwerkverarbeitung werden wie bfloat16 seit einiger Zeit gewesen. vor kurzem immer beliebter geworden, verschoben viele Kunden vorbringen zur Unterstützung der Anforderungen bfloat16 haben wir nach und nach zugunsten von bfloat16 ‚TPU und Kontrast Googles Sicht, glaubt er, und es hat. dass der zweiten Generation TPU ähnlich Lake Crest, TPU drei Generationen ähnlich wie Frühling Wappen.

Angriff auf alle Seiten Neben dem hoch angesehenen Nervana NNP sind Intels Xeon-Chips auf Server und große Computergeräte ausgerichtet: So verwenden Chinas Supercomputer Tianhe Nr. 1 und Nr. 2 Intel Xeon-Sechs-Kern-Prozessoren.

In Bezug auf die visuellen Chip wuchs Intels Geschäft schnell. Movidius VPU Chips bereits in der Automobil-, unbemannte Luftfahrzeuge und andere Hardware in den Schwellenländern gegenüber, wie Dajiang unbemannte Luftfahrzeuge, Tesla und Google Clips Kameras haben angenommen Movidius Der visuelle Chip.

Movidius Marktführer Gary Brown the 21st Century Business Herald Reporter sagte: ‚In Movidius haben wir den Chip entwickelt visuelle Verarbeitungseinheit VPU VPU genannt ist ein Chip, der Computer Vision und Smart-Kamera-Prozessor, so dass wir beide Chips. Es gibt drei Arten der Verarbeitung: ISP-Verarbeitung, bei der es sich um die Bildsignalverarbeitung, die Verarbeitung basierend auf der Kameraerfassungstechnologie und die Computervision und das Deep Learning handelt.

Er zitierte Beispiele für spezifische Anwendungsszenarien wie VR-Produkte und Robotik, intelligente Heime, industrielle Kameras, KI-Kameras sowie Überwachung und Sicherheit, darunter Überwachung und Sicherheit, insbesondere in China, Überwachungs- und Überwachungskameras Der Markt ist besonders groß, und einige große Unternehmen entwickeln Überwachungskameras wie Hikvision und Dahua.

Gary Brown erwähnte auch, dass der aktuelle Bereich der intelligenten Haus wächst schnell, obwohl der Markt klein ist, sondern entwickelt sich schnell. ‚Es gibt viele Unternehmen in der Entwicklung von intelligenten Geräten wie Smart-Home-Security, Home persönlicher Assistent, intelligente Türklingel, und den Zugang zu Wohnungen und Familie Kontrolle. aber im Heimbereich, Low-Cost, Low-Power, lange Lebensdauer der Batterie zu erreichen, und ein sehr präzise ist ein ziemliche Herausforderung. denn wie ein Außen Schatten in Mobile, es möglich ist, die Alarmanlage auszulösen, und daher sehr gering Die Fehlalarmrate ist sehr wichtig und sollte eine gute Genauigkeit haben.

Und eine der Herausforderungen, die Unternehmen ist, wie man weiterhin High-Performance-Chips zu schaffen: ‚Wir haben eine Reihe von Strategien, wie einen geringeren Stromverbrauch mit einem Front-End-Algorithmus, so dass wir den größten Teil der Chip herunterfahren können, nur ein kleiner Teil der Optimierung des Betriebs der Gesichtserkennungsfunktion Wenn ein Gesicht auftaucht, werden andere Chips aktiviert. Dadurch bleibt das Gesichtsüberwachungssystem jederzeit eingeschaltet. Außerdem verfügen wir über viele energiesparende Algorithmen, um die Heimkamera für etwa 6 Monate zu halten. ", Erklärte Gary Brown.

Darüber hinaus FPGA von Altera Ladung dieser Linie von der Situation ab. Mit der Ankunft der Welle 5G, Datenanalyse und Berechnung der Dinge IoT Nachfrage Surge, Netzwerk- und Zugangsknoten oder mindestens zehn Milliarden Klassengröße als die Größe eines Mobiltelefons 1-2 Größenordnungen höher als die typische Forderung der Dinge, die sich flexibel den Algorithmus ändern verwendet werden müssen, die die Stärke des FPGA ist, kann FPGA auf die Bedürfnisse von Computerszenarien durch ändern seiner eigenen Struktur, die auch macht Intel in Zukunft gerecht angepasst werden Es ist möglich geworden, effiziente Chips für verschiedenste Arten von Geräten bereitzustellen.Von der 16,77 Milliarden US-Dollar-Erwerbungsmenge ist ersichtlich, dass Intels Kauf offensichtlich nicht nur ein unmittelbarer Wert ist.

Fast-Breaking-Szenarien auf Unternehmensebene Intel Eine aktuelle Umfrage zeigt, dass die Firmenkunden in den Vereinigten Staaten, mehr als 50% bewegen sich in Richtung Cloud-Lösung auf der Basis bestehender Intel Xeon Prozessoren ihre ursprünglichen Bedarf für künstliche Intelligenz gerecht zu werden, während die Zahl der Führungskräfte bei Intel in einem Interview mit Reportern gesagt haben, gibt es keine Lösung für alle künstlichen Intelligenz Szenarien, Intel mit dem technischen und kaufmännischen nach Kundenwunsch durchführen wird. B. Intel Xeon und FPGA oder Xeon und Movidius zusammen konfiguriert, Um eine höhere Leistungsfähigkeit der künstlichen Intelligenz zu erreichen.

Für Intel diese verbesserte künstliche Intelligenz wird weithin in der Enterprise-Klasse Szene Naveen verwendet werden Rao sagt: ‚Wenn beschleunigte Computing die Zukunft der künstlichen Intelligenz Übergang zu fahren, wir eine breite Palette von Enterprise-Lösungen zur Verfügung stellen müssen. Dies bedeutet, dass unsere Lösung die größte Rechenleistung bietet und mehrere Architekturen von Milliwatt bis Kilowatt unterstützen kann.

Carey Kloss erklärte weiter zu Reportern 21st Century Business Herald Szenario künstlichen Intelligenz-Chip: ‚Spring Crest kann gesagt werden, dass die höchsten Ebene der Nervana Neuron-Prozessor-Architektur, so dass ihre Kunden in großem Maßstab Rechenzentrum umfassen, hat bereits ein sehr starken Daten. wissenschaftliche Arbeit von großen Unternehmen, Regierung, etc. Wenn Sie eine niedrige Verzögerung und kleine Modelle benötigen, Xeon Lage sein, Ihnen zu helfen, sie durch die Daten aus der Wolke bis zum Ende erhalten können. "

Insbesondere wird Intel auch die medizinische, unbemannt, neue Retail zu erforschen gemacht, Vernetzung und andere Szenarien, wie zum Beispiel im Gesundheitswesen, Berichten zufolge, Intel ist Novartis (Novartis) in Zusammenarbeit mit der Verwendung von neuronalen Netzen, die Tiefe von High Content zu beschleunigen Screening - das ist eine frühe Wirkstoffentwicklung ist ein wichtiges Element der Zusammenarbeit zwischen der beiden Seiten Zeit Bildanalysemodell zu trainieren, wurde auf 31 Minuten von 11 Stunden reduziert - mehr als 20-mal effizienter.

Niemand in dem Laden, bietet Intel kein Convenience-Store Jingdong 'Computing Gehirn', die derzeit in intelligentere Geschäften (Sinopec Express Convenience-Stores, Jingdong home) eingesetzt und intelligenten Automaten Projekt. Algorithmisch Jingdong Seite der Maschine Lernalgorithmus in unbemannten Geschäften vor allem in Wissen verwendet, bekannt Waren, Spielen drei Richtungen bekannt, da die Online- und offline-Daten öffnen betreffen, Video- und andere unstrukturierte Daten in Datenstrukturen usw., müssen in der traditionellen Algorithmen des maschinellen Lernens, um jetzt beliebter in Machine-Vision CNN (Faltung neuronales Netz) Algorithmen, intelligente Lieferkette verwendet werden, wie SVM, statistische lineare Regression, logistische Regression und andere Netzwerk-Bedingungen bessere Situation Die meisten Videodaten können in der Cloud mit einem größeren Modell erstellt werden.Im Falle eines schlechten Netzwerks, über Edge-Computing wie Mobile, erfolgt Edge Computing über ein kleines Netzwerk.Die verwendete Hardware umfasst Intels Edge-Server.

Obwohl Inteler Affäre Feinde, die Transformation, das Tempo der Expansion sehr fest ist. R & D-Wert nur aus der Sicht, nach der Statistik von IC Insights, bevor 2017 die Top 10 Halbleiterunternehmen in dem gesamten F & E-Ausgaben von $ 35,9 Milliarden, auf Platz Intel ersten der Bericht zeigt, dass Intel die F & E-Ausgaben $ 13,1 Milliarden, einen Anteil von 36% der Gesamtausgaben der Gruppe waren, etwa ein Fünftel des Intel 2017 Verkäufe. mit den enormen Investitionen in verschiedenen Schlachten, AI-Chip auch in 2017 Intensiviert.

2016 GoodChinaBrand | ICP: 12011751 | China Exports