1.VAR und Smart-Chip-Debüt Weltmeisterschaft in Frankreich 成最大赢家;
Peking, 16. Juni Elektro-WM startete FIFA wichtige Reformen: zum ersten Mal gestartet VAR (Video Schiedsrichter-Assistent), und mit einem Smart Chip im Ball Rennen auf dem dritten Spiel im 16. Spiel implantiert. Tag, das Französisch-Team in dem Showdown mit dem australischen Team wieder einmal die Begünstigten werden, beide erhielten die erste günstige Strafe.
Nachdem die Kommunikation mit dem Assistenten des Video-Schiedsrichters gab Cunha das Französisch-Team eine Strafe pendelte. Gelieziman den Ball leicht in das Ziel, das Französisch-Team zu machen auf dem pendelte VAR zu verlassen, bevor die nächsten Stadt. Dies ist das erste Mal, VAR pendelte resultierende Strafe.
Diese Strafe löste viele Kontroversen aus: In der Pressekonferenz nach dem Spiel sagte der französische Trainer Deschamps, dass dieser Ball genau wie der Elfmeter ist, den Portugal am Vortag gegen Spanien erzielt hat. die Entscheidung, mein australisches Teams des niederländischen Trainers Van Marwijk Schiedsrichter glaubt, dass es ein Fehlurteil war: ‚Obwohl ich nicht die Video-Wiedergabe gesehen habe, aber ich bin in Ordnung, klar in der Feldposition sehen, soll es nicht sein, Ein Elfmeter. Die Position des Schiedsrichters ist näher, aber er sagte zunächst, dass es keine Strafe gibt und das Spiel ging weiter. Wir sind die Opfer von VAR, aber wir werden diese Entscheidung nicht anfechten. "
Das französische Team profitierte bei dieser Weltmeisterschaft weiterhin von VARs und smarten Chips und setzte auch seine früheren Erfolge fort: 1998 startete die FIFA offiziell den "Goldenen Ball Sudden Death" und später die Silver Ball Technology im Weltcup. Achtelfinale der WM mit Paraguay, der Französisch Verteidiger Laurent Blanc erzielte die erste golden Goal in der WM-Geschichte Tabletten Frankreich zu qualifizieren. mit diesem Getreide von unschätzbarem golden Goal, das Französisch-Team nach dem Schnitt zu helfen Durch die Tatsache, dass diese Regel zufällig und zu grausam war, hat die FIFA 2004 nach zwei Jahren der Umsetzung das goldene Ballsystem und das silberne Ballsystem gestrichen.
Um die Entwicklung des Fußballs zu fördern, um die Spieler zu schützen und die Kontinuität des Spiels zu gewährleisten, wurde die FIFA versucht, einige der Regeln zu ändern. Aber einige Leute sind glücklich, andere traurig sind. Im Jahr 1970, der erste Einsatz von gelben und roten Karten 9. in Mexiko statt WM, die erste gelbe Karte von dem ehemaligen Sowjetunion Roper Gorbatschow gewonnen wurde. 1974 gab das zehnte WM-Spiel gegen Chile, Bundesrepublik Deutschland in der Bundesrepublik Deutschland, Türkei Baba Kan einen WM-Schiedsrichter in der Geschichte des chilenischen Spielers Fidel Zeljko Die erste rote Karte wird bestraft. (Ende)
2. GPU, FPGA-Chip ist ein "rechtshändiger" Arm geworden, um maschinelles Lernen zu verbessern;
"NetEase Smart News 17. Juni Nachrichten" In kommerzielle Software wurden Computer-Chips vergessen. Für kommerzielle Anwendungen ist dies eine Ware. Weil Roboter-Technologie und persönliche Hardware-Geräte enger miteinander verknüpft sind, so die Herstellung Anwendung Noch mehr auf den Hardware-Teil konzentriert.
Seit den siebziger Jahren ist der Status Quo der Künstlichen Intelligenz (KI) und speziell des Deep Learning (DL), die Beziehung zwischen Hardware und Software, enger denn je verbunden, und das ist mir kürzlich gelungen Artikel der künstlichen Intelligenz (Management AI) ‚mit über~~POS=TRUNC und Vorurteilen, zwei große Risiken im System der Maschine existieren Lernen (ML). in dieser Spalte wird eine Reihe von Managern, insbesondere Hardware-Business Line Manager verarbeitet werden können, untersuchen Akronyme, Diese Abkürzungen werden ständig in maschinellen Lernsystemen erwähnt: Graphics Processing Units (GPUs) und Field Programmable Gate Arrays (FPGAs).
Dies hilft, den Wert der GPU zu verstehen, da die GPU die für Deep-Learning-Anwendungen erforderliche Tensor-Verarbeitung beschleunigt.Der Schwerpunkt von FPGAs liegt darin, Wege zu finden, neue AI-Algorithmen zu erforschen, diese Systeme zu trainieren und mit der Bereitstellung zu beginnen Viele Low-Volume-Custom-Systeme in industriellen KI-Anwendungen untersucht.Obwohl dies eine Diskussion der Fähigkeiten von FPGAs für das Training ist, glaube ich, frühe Verwendung war auf die Verwendung von F, das Feld.
Zum Beispiel kann das Training einer Inferenzmaschine (der Kern einer maschinellen Lernmaschine) Gigabytes oder sogar Terabytes an Daten erfordern.Wenn Inferenzen im Rechenzentrum ausgeführt werden, muss der Computer eine potentiell steigende Anzahl gleichzeitiger Benutzeranforderungen verwalten. In den Randanwendungen, ob es sich um Drohnen handelt, die zur Inspektion von Pipelines oder in Smartphones verwendet werden, muss die Ausrüstung klein und dennoch effektiv und dennoch anpassungsfähig sein, vereinfacht gesagt, eine CPU und eine GPU. Es gibt zwei Geräte, und ein FPGA kann verschiedene Blöcke haben, um verschiedene Dinge zu tun, und es ist möglich, ein robustes Chipsystem bereitzustellen. Angesichts all dieser unterschiedlichen Anforderungen ist es am besten, den aktuellen Zustand der Systemarchitektur zu verstehen, die verschiedene Anforderungen unterstützen kann.
Es gibt zwei Haupttypen von Chip-Designs, die aktuelle ML-Systeme, GPUs und FPGAs antreiben können.In der Mitte der Zukunft (mindestens ein paar Jahre) ist es auch möglich, ein Hinweis auf neue Technologie für Spielkonverter zu werden.
Grafikprozessor (GPU)
Der größte Chip in der maschinellen Lernwelt ist die Grafikprozessoreinheit GPU, die hauptsächlich für Computerspiele verwendet wird, also wie wird etwas, das auf einem Computerbildschirm besser aussieht, für das maschinelle Lernen wichtig? Muss zurück zur Softwareebene gehen.
Maschinelles Lernen ist der aktuelle Champion Deep Learning (DL) System. DL-System auf der Grundlage verschiedener Algorithmen, einschließlich der Tiefe des neuronalen Netzes (DNN), Faltungs neuronales Netzwerk (CNN), wiederkehrende neuronale Netz (RNN) und viele andere Varianten. Sie Das Schlüsselwort in diesen drei Begriffen ist "Netzwerk". Der Algorithmus ist eine Variation des Themas. Das Thema ist mehrere Ebenen von Knoten. Es gibt verschiedene Arten der Kommunikation zwischen Knoten und Ebenen.
Sie haben es mit mehreren Arrays oder Matrizen zu tun.Ein weiterer genauerer Begriff für Matrizen ist der Tensor, so dass er in der gesamten maschinellen Lernindustrie wie TensorFlow verwendet wird.
Jetzt gehen Sie zurück zu Ihrem Computerbildschirm.Sie können es als eine Matrix von Pixeln oder Punkten nach Zeilen und Spalten.Dies ist eine zweidimensionale Matrix oder Tensor.Wenn Sie Farben hinzufügen, fügen Sie die Bitgröße zu jedem Pixel, denken auf das gleiche Bild einer sich schnell verändernden, wenn schnell Berechnung kompliziert werden kann und nimmt Schritt CPU-Zyklen für Schritt aus. der GPU seinen eigenen Speicher hat, wird das gesamte Bild als eine grafische Matrix gespeichert dann unter Verwendung eines mathematischen Tensor berechnet werden kann Änderungen im Bild ändern dann nur die betroffenen Pixel auf dem Bildschirm.Dieser Vorgang ist viel schneller, als den gesamten Bildschirm jedes Mal neu zu zeichnen, wenn das Bild geändert wird.
Im Jahr 1983 wollte NVIDIA einen Chip entwickeln, mit dem Matrixprobleme gelöst werden können, die von Universalcomputern wie CPUs nicht gelöst werden können.
Matrix-Operationen interessiert nicht, was das Endprodukt, sondern nur Elemente verarbeitet werden. Dies ist eine leichte Vereinfachung, weil verschiedene Operationen auf Sparse Matrix abhängig (wenn es viele Null) unterscheiden sich von den dichten Matrizen haben unterschiedliche Arbeitsweisen, Aber die Tatsache, dass Inhalte den Betrieb nicht ändern, existiert immer noch. Als Deep-Learning-Theoretiker die Entwicklung von GPUs sahen, nahmen sie sie bald an, um Tensor-Operationen zu beschleunigen.
GPU ist für die Entwicklung des maschinellen Lernens, Rechenzentrum unerlässlich, um die Ausbildung und logische Denken zu fördern. Zum Beispiel NVIDIA Volta V100 Tensor-Core in seiner Grundarchitektur und die Fähigkeit zu beschleunigen weiterhin in Bezug auf der Argumentation bei einer geringeren Genauigkeit ausgeführt werden (dies ist ein anderes Thema es weniger Bits bedeutet, die eine schnellere Verarbeitung) bedeutet. Allerdings, wenn es um Dinge geht, gibt es noch andere Aspekte zu berücksichtigen.
Feldprogrammierbares Gate-Array (FPGA)
Im Bereich (Feld), alle Arten von Anwendungen haben unterschiedliche Bedürfnisse. Es gibt viele verschiedene Anwendungsbereiche, Fahrzeuge, Pipelines, Roboter, usw. in verschiedenen Branchen für verschiedene Anwendungen können für jede Art von Chip gestaltet werden, aber dies kann wäre sehr teuer und würde das Unternehmen die Rentabilität untergraben. kann auch die Markteinführungszeit verschieben, wichtige Geschäftsmöglichkeiten für die höchst individuellen Bedürfnisse der Vermissten, die nicht ausreichend Skalen des Marktes zur Verfügung stellen kann, ist besonders der Fall.
FPGA Unternehmen und Forscher, um das Problem des Chips zu lösen. FPGA eine integrierte Schaltung ist, die für eine Vielzahl von Zwecken programmiert werden kann. Es hat eine Programmierung und die Beziehungen zwischen den Blöcken und Blöcken aus einer Reihe von ‚programmierbarem Logikblock‘. Es ist Ein universelles Werkzeug, das für eine Vielzahl von Anwendungen angepasst werden kann. Hauptlieferanten sind Xilinx und National Instruments.
Bemerkenswerterweise hat Low-Cost-Chip-Design nicht macht das Problem des Low-Cost-FPGA ausgewählt werden. Sie sind in der Regel am besten geeignet für die Forschung oder industrielle Anwendungen. Komplexität programmierbare Schaltungen und Design ist es nicht geeignet für Low-Cost ist Verbraucheranwendungen.
Da das FPGA neu programmiert werden kann, machen die wertvoll es für den aufstrebenden Bereich des maschinellen Lernens Höhen Algorithmus nimmt zu, und auf verschiedene Algorithmen, die durch Umprogrammierung Block Feinabstimmung. Zusätzlich niedrige Genauigkeit, Low-Power FPGA für Fernbedienungssensor geschlossen Es ist eine gute Kombination: Obwohl der Erfinder "Feld" eher als "Kunde" bezeichnet, liegt der wahre Vorteil von FPGA bei der Realisierung von KI-Anwendungen in der realen Welt. Ob für die Fabrik , Straßen und Rohrleitungen und andere Infrastruktur, oder UAV Ferndetektion ermöglichen FPGA Systemdesigner die Flexibilität, ein Stück Hardware zu verwenden, um eine Vielzahl von Zwecken zu erreichen, leichter physikalisches Design ermöglicht, die vor-Ort-Anwendungen leichter durchführen können.
Neue Architektur kommt bald
GPU und FPGA helfen zur Zeit zu lösen, wie die Maschine Lerntechniken zu erweitern viele der Auswirkungen auf den Markt herauszufordern sie getan haben, ist mehr Menschen besorgt über die Entwicklung dieser Industrie zu lassen und versuchen, einen neuen Rahmen für die rechtzeitige Anwendung zu erstellen.
Auf der einen Seite versuchen viele Unternehmen, die Lehren aus Tensor-Operationen auf der GPU zu lernen. Hewlett-Packard, IBM und Intel ein spezielles Projekt für die nächste Generation von Computergeräten Tensor Tiefe des Lernens. Zur gleichen Zeit entwickelt haben, wie Cambricon, Graphcore und Wave-Computing Solche Startups sind auch bestrebt, das Gleiche zu tun.
Auf der anderen Seite, Arm, Intel und andere Unternehmen entwerfen Architektur Vorteil von GPU und CPU zu nehmen, und das Gerät auch an Lernmaschine Markt ausgerichtet, wobei die in der Lage sein, mehr zu tun als nur Tensor Berechnung für andere Prozesse um den Kern konzentriert AI Die Verarbeitung ist auch leistungsfähiger.
Obwohl sich einige dieser Organisationen auf Rechenzentren und andere Internet der Dinge konzentrieren, ist es noch zu früh, über diese zu sprechen.
Vom Start-ups zu globalen Unternehmen, ist ein Vorbehalt, dass, zusätzlich zu den ersten Informationen, keine andere Informationen angezeigt werden. Wenn wir die ersten Gerät Proben spätestens im Jahr 2020 zu sehen, dann wäre es eine Überraschung sein, so dass sie mindestens fünf Jahre Nicht aufgeführt.
(Ausgewählt aus: forbes Autor: David A. Teich Compilation: NEW YORK intelligente Teilnahme: nariiy)
3.Intel 10nm Prozessor Belichtung Kleine Charge Versand
Intel 10nm Prozessausbeute aufgrund der Nichteinhaltung hat die Massenproduktion bis 2019 verschoben worden, jetzt nur noch ein kleines Volumen Sendungen, eine nur 15W Thermal Design Power bekannt Produkt Low-Voltage-Version des Core-i3-8121U (Familie Codenamen Kanone See ), und nur Lenovo verwendet es.
Spezifikationen für i3-8121U vier Threads Dual-Core, bei 2.2-3.2GHz getaktet, drei Cache 4MB, unterstützt Speicher zweikanaligen DDR4 / LPDDR4-2400 32GB, Thermal Design Power von 15W.
Die Informationen des Nuklearteils wurden nicht veröffentlicht, da das Ertragsproblem nicht mehr möglich war, hat Lenovo eine AMD Grafikkarte hinzugefügt.
Deutsch Medien ComputeBase Hardware in der ersten i3-8121U offenbart ‚als ob‘ kann die Packungsanordnung im Einklang mit früherem Produkt zu sehen ist, ist immer noch ein Prozessorkern, ein Kernchipsatz-Paket zusammen, integrierten BGA-Gehäuse Gelötet auf dem Motherboard.
Wir fanden eine Low-Voltage-Version der Acht Generation Core Duo Intel offiziell ein Foto gegeben, können Sie einen Prozessor finden, Chipsatz Kerne sind kleiner, Paket Lötstellen und kapazitive Elemente auch viel verändert, sollte es nicht mehr kompatibel sein.
ComputeBase hat festgestellt, dass die Gesamtgröße des i3-8121U 45 x 24 mm (gemäß den offiziellen Spezifikationen) bei einer Prozessorfläche von ca. 71 mm2 und einer Chipsatzfläche von ca. 47 mm2 beträgt.
Obwohl nach Studie fand heraus, dass die Dichte der Transistoren Intel 10nm-Prozesses mehr als 100 Millionen pro Quadratmillimeter, das entspricht oder sogar höher als das Niveau von Samsung, TSMC, Global 7 nm, aber ihre eigenen 14nm Produkte Kontrast, die Veränderung nicht groß zu sein scheint.
Sie wissen, Intel der ersten Generation 14nm Prozessorteil der Fläche Broadwell-U, sondern auch die 82 mm2, 10 nm nur 13% davon schrumpfen, und wir sind alle Dual-Core vier Threads, 4MB Cache, aber Kern wurde ausgeführt Einheiten wurden von 24 auf 40 erhöht und unterstützen den AVX512-Befehlssatz.
Das 45 x 24 mm Gesamtpaket ist zudem etwas größer als die aktuelle 14-nm-Niedervolt-Version von 42 x 24 mm.