1. Samsung 7 nm fab Freitag wegweisende investiert $ 5,6 Milliarden;
Stellen Sie Mikro-Netzwerk Nachrichten, Südkoreas Samsung Electronics befindet sich in Hwaseong (Hwaseong) neue Waferfabrik an diesem Freitag (23. Februar) wird der offizielle Spatenstich sein, geplante Massenproduktion des Chipherstellungsprozess in der zweiten Hälfte des nächsten Jahres 7 nm, wird die Zukunft in der Smart erwartet Geräte, maßgeschneiderte Chips Roboter gute Fortschritte.
Pulse von Maeil Business News Korea berichtete am 20. Januar, dass Samsung plant, 6 Billionen Won (entspricht 5,6 Milliarden US-Dollar) in die Modernisierung seiner Wafer-Kapazität zu investieren: Die neue Waferfabrik in Hwaseong City wird mehr als 10 Extrem-Ultraviolett (EUV) -Lithografie enthalten Ausrüstung, wie jeder EUV-Ausrüstung so viel wie 150 Milliarden gewann Preisvorstellung, so die Kosten für den Kauf der Maschine allein, wird es 3-4 Billionen Won erreichen Samsung Samsung 6nm fab Baupläne, wird in naher Zukunft bekannt gegeben.
Im Gegensatz dazu TSMC hat die Testproduktion von 7-nm-Chip in diesem Jahr begonnen, ist für das zweite Quartal für die Einführung von MediaTek-Chip-Prototyp geplant, und Anfang nächsten Jahres volle Produktion.
TSMC 5nm fortgeschrittenen Prozess der 12-Zoll-Wafer-Fab 26. Januar dieses Jahres, offiziell gestartet die erste Phase der Anlage wird voraussichtlich im ersten Quartal des nächsten Jahres installierte Kapazität abgeschlossen sein, Massenproduktion in Anfang 2020. TSMC angekündigt, bis 2022 der erste, Die zweite und dritte Phase der Anlage sind alle in Massenproduktion, die jährliche Produktionskapazität wird auf mehr als eine Million Zwölf-Zoll-Wafer geschätzt.
TSMC 2016 mit überlegenen Front-End-Silizium-Wafer-Herstellung und die neueste Verpackungstechnologie, der Anwendungsprozessor Apples gesamte Schale von Bestellungen weggenommen, Samsung entschlossen, sich zu schämen, kam im Jahr 2018 heraus, um einen neuen Verpackungsprozess zu entwickeln, Apple Bestellungen zurückkaufen.
Die südkoreanischen Medien ETNews meldeten am 28. Dezember 2017, dass die Branche bestätigt hat, dass die Samsung Semiconductor Group in das vorgeschlagene neue Fan-Out Wafer Level Packaging (FOWLP) investiert hat. Oh Kyung-seok, Direktor des Halbleiter-Forschungsinstituts, das Ende letzten Jahres Intel einstellte, ist in voller Produktion und Samsung glaubt fest, dass Apple-Bestellungen nach Abschluss des Verpackungsprozesses erfolgreich zurückerobert werden können. Das Unternehmen wird daher bis Ende 2019 Produktionsanlagen bauen Fertig.
TSMC ist der weltweit erste Gießereibetreiber, der die FOWLP-Technologie für Anwendungsprozessoren kommerzialisiert hat und Aufträge für den 16-nm-A10-Prozessor für das iPhone 7 und den 10-nm-A11-Prozessor für das iPhone 8 erhalten hat. Samsung, TSMC Front-End-Silizium-Prozess-Technologie vergleichbar, aber Apples TSMC-Verpackung Technologie-Bewertung ist sehr hoch, aber auch beschlossen, zu TSMC bestellen.
Insider wies darauf hin, dass Samsung bisher auf den Front-End-Prozess konzentriert, nicht viel Investition in das Backend, den Verlust von Apple-Bestellungen, Samsung schließlich die Bedeutung von Back-End-Verpackungen zu spüren.
2. Die neueste Bildsensortechnologie in ISSCC wetteifernd;
Neue Entwicklungen in der Bildsensortechnologie von ISSCC im Jahr 2018 Neben dem bisherigen Fokus auf die Bilderfassung "beauty pageant" wurden weitere kontextbezogene Informationen hinzugefügt ...
Auf der International Solid-State Circuits Conference (ISSCC) im Jahr 2018 gibt es mehrere neue Entwicklungen in der Bildsensortechnologie, die über die Bilderfassung hinausgehen, die sich zuvor auf "Schönheitswettbewerb" konzentriert hat, um weitere kontextbezogene Informationen hinzuzufügen Ein ereignisgesteuerter Sensor, eine neue Global-Shutter-Methode, die das Problem der Bildverzerrung in Bewegung löst, und ein Time-of-Flight (ToF) -Bildsensor.
CMOS-Bildsensor mit Bewegungserkennung
Der ereignisorientierte, energiesparende CMOS-Sensor von Sony bei ISSCC stellt ein gutes Beispiel für das Hinzufügen von situationsbezogenen Informationen zu aufgenommenen Bildern dar. Das Team von Designingenieuren des Unternehmens setzte die Bewegungserkennung direkt im Bildsensor ein ) Funktion.
In einer Studie beschreibt Sony einen 3,9-Megapixel-energiesparenden, ereignisorientierten CMOS-Bildsensor mit hinterleuchtetem Stapel, der eine Pixel-Leseschaltung enthält (Pixelausleseschaltung), erfassen kann Objekte in jedem Pixel zu bewegen. gemäß der Beschreibung Sony Entwicklungsteam, die Entwicklung dieses ereignisorientierte Bildsensors hinter der Motivation ist die Low-Power gerecht zu werden, und nie das Gerät herunterfahren mit hohem ausgestattet Bildqualität erfordert.
Mit dem Aufstieg des Hauses wie Überwachungskameras, virtuelle persönliche Assistenten und anderen drahtlosen Netzwerkgeräten, Internet der Dinge (IoT) System-Design-Ingenieure auch für kleine Lösungen suchen, die Batterielebensdauer zu verlängern, ereignisorientierte Technologie ist für die Anwendung Sicherheitssystem geeignet, diese Art von Bildsensor Integrierte Intelligenz, Echtzeit-Erkennung bewegter Objekte.
Sony Führungsereignissensor umfasst eine Pixelmatrix, die Spaltentreiber (Zeilentreiber), Spaltendecoder (Zeilendecoder), eine einzigen Rampengenerator (Single-Slope-Generation), um den Betrieb / Lichterfassungsfunktionsblock, Bildsignalprozessor, Rahmenspeicher SRAM, MIPI-Ports und CPUs, die mit dem Sensorsteuerblock verbunden sind
(Quelle: Sony)
Wenn der ereignisorientierte Sensor von Sony ein sich bewegendes Objekt erkennt, generiert die CPU ein externes Interruptsignal, das eine Verzögerung von 0 Sekunden verwendet, um die Aufnahme von hochqualitativem Video mit der automatischen Belichtung auf dem Chip auszulösen Der Sensor verwendet die Pixelsummierung der floatenden Diffusion, die von jedem Pixelblock gemeinsam genutzt wird, um eine Erfassung bewegter Objekte von 10 Bildern pro Sekunde zu erreichen.
Abhinav Mathur, Senior Embedded Software Engineer bei Sony's Bildsensor Design Center in Silicon Valley, sagte, dass der Bildsensor bei 1,1 mW arbeitet und gleichzeitig 95 mW bei der gleichen vollen Auflösung bei 60 Bildern pro Sekunde CMOS-Bildsensor verbraucht; In Anwendungen zur Ereignisprotokollierung reduziert dieser Sensor den Stromverbrauch und die Datenbandbreite im leistungsarmen Erfassungsmodus des Kamerasystems erheblich.
Sony ereignisorientierter Sensor-Funktionsblock
(Quelle: Sony)
ToF Sensor Technologie Fortschritt
Der Fokus der Technologie liegt auf höherer Auflösung, geringerem Stromverbrauch und geringerer Größe. Microsoft (ISSCC) präsentierte auf der ISSCC einen kurzen Überblick über ToF-Sensoren zur Verwendung mit dem Bewegungssensor Kinect 2, Ist eine verbesserte Continuous-Wave (CW) ToF-Technologie, die den neuesten ToF-Sensor auf Megapixel schieben soll.
Der neueste ToF-Sensor von Microsoft
(Quelle: Microsoft)
Das Team von Microsoft ist der Ansicht, dass das CW ToF-Bildgebungssystem eine ausgezeichnete mechanische Festigkeit, keine grundlegenden Anforderungen und eine hohe Bildauflösung, geringe Rechenkosten und IR-Umgebungslichtstärke in einer Vielzahl von auf dem Markt erhältlichen 3D-Bildaufnahmetechnologien bietet Das Team hat es sich zur Aufgabe gemacht, die räumliche Auflösung, Genauigkeit und den Arbeitsbereich von CW ToF-Kameras zu verbessern und gleichzeitig ihren Arbeitsfokus (dh die Fähigkeit, die invariante IR-Umgebungslichtstärke zu synchronisieren) - die aktive Helligkeit - zu reduzieren. Verbrauch
Darüber hinaus verbessert Microsoft die Unsicherheit und den Stromverbrauch von CW-ToF-Bildsensoren durch Erhöhung von Modulationskontrast, Quanteneffizienz und Modulationsfrequenz. Dadurch werden Leserauschen und Analog-Digital-Wandlung eliminiert und gleichzeitig mit kleineren Pixeln reduziert Die Höhe des optischen Stapels.
Microsofts ToF-Sensor-Spezifikation
(Quelle: Microsoft)
Der kleine Formfaktor (3,5 x 3,5μm) ist für die nächste Generation von ToF-Sensoren entscheidend, um in Smartphone-Anwendungen zu konkurrieren, die laut Microsoft wettbewerbsfähig gegenüber kommerziellen Global-Shutter-RGB-Sensoren und kleinen optischen Stapeln für Handheld-Geräte sind; Der im ISSCC-Dokument beschriebene 1024x1024 Pixel ToF-Global-Shutter-Bildsensor erreicht einen Modulationskontrast von 87% bei 200 MHz mit 65-nm-1P8M-Back-End-CMOS-Technologie von TSMC.
Pixel innerhalb der Rauschunterdrückung
Panasonic auf der ISSCC präsentiert neue Fortschritte in der organischen photoleitfähigen Schicht (OPF) CMOS-Bildsensortechnologie - Trennung der photoelektrischen Umwandlungsfunktion von Schaltungen in OPF-CMOS-Bildsensoren Mit dieser einzigartigen Architektur ist das Team des Unternehmens ausgestattet Die neu entwickelte High-Speed-Noise-Cancellation-Technologie und hohe Sättigungstechnologie in die Schaltung, während die einzigartige Sensitivitätssteuerung des Sensors verwendet, um die an den OPF angelegte Spannung zu ändern und somit die globale Shutter-Funktion zu erreichen.
OPF-CMOS-Bildsensor im Vergleich zur traditionellen Global-Shutter-Sensor-Architektur, Panasonic behauptet, dass der neueste Sensor der Branche als erster 8K-Auflösung, Bildrate von 60 Bildern pro Sekunde, 450.000 elektronische Sättigung und globale Verschlussfunktion bietet
(Quelle: Panasonic)
In der Vergangenheit hatten hochauflösende High-Fidelity-Kameras für Broadcast-, Fernseh- und Sicherheitsanwendungen, wie das 8K-Ultra-High-Definition-Fernsehsystem und die 8K-Kamera mit einem Stack-Sensor-Schema, den allgemeinen Nachteil eines Rolling-Shutters anstelle eines globalen Verschluss: Im Global-Modus erfasst die Verschlussoperation gleichzeitig Bilder aller Pixel, während der CMOS-Bildsensor mit Rolling-Shutter-Modus reihenweise aussetzt und arbeitet.
Panasonic sagte, dass der Rolling Shutter Verzerrungsprobleme verursachen werde, insbesondere bei Hochgeschwindigkeits-Bildgebungs- und Multi-View-Bildsynthese-Anwendungen
(Quelle: Panasonic)
Panasonics neu entwickelter Sensor, von dem behauptet wird, dass er unverzerrte Bilder bewegter Körper in Echtzeit erfasst, ist besonders für Multi-View- und Hochgeschwindigkeits-Kameras mit hoher Auflösung, wie Machine Vision und intelligente Verkehrsüberwachungssysteme, und wegen der photoelektrischen Umwandlung und Die Schaltung kann separat unter Verwendung der In-Pixel-Verstärkungsumschalttechnik zum Erzielen hoher Sättigungscharakteristiken und spannungsgesteuerter Empfindlichkeitsmodulationstechniken zum Einstellen der Empfindlichkeit durch Ändern der an die OPF angelegten Spannung entworfen werden.
Der neu entwickelte CMOS-Bildsensor von Panasonic kann Bilder mit einer Auflösung von bis zu 8K und sogar in kontrastreichen Szenen mit Global-Shutter-Funktion und Bildern mit voller Pixelaufnahme aufnehmen
(Quelle: EE Times)
Unterstützt bis zu 200 Meter Abbildungslicht
Das Toshiba-Team von Ingenieuren bei ISSCC hat die neueste Technologie in LiDAR-Systemen mit hoher Reichweite und hoher Auflösung veröffentlicht, die ToF-Informationen von reflektierten Photonen nutzen, und weil das Ziel die Entfernungsmessung ist Entfernungsmessung, DM), unterstützt das Team die ideale Entfernung von 200 Metern, das Auto auf der Autobahn unterwegs, die Annäherung an andere Fahrzeuge oder Objekte.
Und Toshibas Team wies auch darauf hin, dass das Licht des Systems, um sichere und zuverlässige autonome Fahrzeuge in städtischen Gebieten zu erhalten, eine große Bandbreite an Perspektiven und eine hohe Auflösung haben muss, um die Wahrnehmung der umgebenden Situation zu vervollständigen, um dieses Ziel zu erreichen Oft steht das System starker Hintergrundbeleuchtung wie Sonnenlicht gegenüber, das auch die Hauptquelle für das Lichtsystem ist.
Fahrzeugerkennung des Lichtsystems bis hin zu den Anforderungen und Toshibas Lösungsvorgaben
(Quelle: Toshiba)
Toshiba stellt einen Kawasaki SoC vor, der einen Time-to-Digital Converter (TDC) mit einem Analog-Digital-Wandler (ADC) kombiniert und eine Smart Accumulation Technique (SAT) bietet ), Behauptet, dem Lichtsystem zu erlauben, 200 Meter Sichtlinie und hochauflösende Bilder für autonome Fahrzeuge zu erreichen.
Laut Toshiba kann der SAT die Intensität und Hintergrundinformation des ADC nutzen, um Daten zu identifizieren und zu akkumulieren, die nur vom Ziel reflektiert werden, wodurch die vierfache Auflösung einer traditionellen Akkumulationstechnik erreicht wird Durch die Architektur wird die Notwendigkeit von ADC-Abtastraten zur Unterstützung der Nahbereichs-DM-Genauigkeit verringert, außerdem unterstützt der Proof of Concept ein 200-Meter-Entfernungs-Lichtsystem mit DM-Abständen bis zum Doppelten des herkömmlichen Designs für 240x96 Pixel Auflösung mit 0,125% DM Genauigkeit
Leistungsvergleich von Toshiba Light Solutions mit traditionellem Design
(Quelle: Toshiba)
Pixel-Parallel-Bonding-Technologie
Nicht nur Panasonic, Sony bemerkte auch das Problem der Bildverzerrung von bewegten Objekten, die von Rolling-Shutter-Bildsensoren erfasst wurden, und wies darauf hin, dass In-Pixel-Analogspeicher und Pixel-Parallel-ADC mögliche Lösungen sind Die Megapixel-Auflösung kann nicht unterstützt werden, da keiner von ihnen die Zeitbeschränkungen beim Lesen und Schreiben von ADC-Digitalsignalen in einem Pixel berücksichtigt.
Sonys Vorschlag in dem ISSCC-Papier besteht darin, einen Stapelbildsensor mit einem einzelnen ADC pro Pixel zu verwenden, um einen globalen Verschluss in einem CMOS-Sensor zu implementieren
(Quelle: Sony)
Sony gestapelt rückseitig belichteten CMOS-Bildsensor mit 1.460.000 Pixel der ADC 14, Bondtechnik unter Verwendung der Pixelebene (Pixel-Ebene Klebtechnik). Das Unternehmen der Komparator eine Schwellenzeit Mitkopplungsschaltung enthält (subthreshold Komparator) es hilft, den Betriebsstrom des Komparators und dem Schaltungsbereich zu reduzieren, minimiert wird, kann der Stromverbrauch reduziert werden.
Zusammenstellung: Judith Cheng
(Siehe das Original: Rivals Image Sensor Scope erweitern, von Junko Yoshida) eettaiwan
3,5 Große Anzeichen von Speicherchips „Superzyklus“ endet;
Finanz Blogs „Seeking Alpha“ Kolumnist wies darauf hin, schnitt Apple-iPhoneX Produktion, sowie Festland Halbleiter-Unternehmen im Jahr 2019 erwartet wird, wird Speicher Werkseinstellung abgeschlossen hat, das Angebot und Nachfrage von Speichern Änderungen im Fall von Produktionskapazität wird voraussichtlich angehoben werden, der durchschnittliche globale DRAMs Der Preis wird niedriger sein.
Robert Castellano, Kolumnist auf der Suche nach Alpha, sagte, es gebe fünf Anzeichen dafür, dass der "Hyperzyklus" der Erinnerung zu Ende geht.
1. Der durchschnittliche Speicherverkaufspreis ist gesunken
Basierend auf den von Korea Investment & Securities bereitgestellten Daten stimmen die Autoren die durchschnittlichen ASPs von NAND und DRAM zwischen 2016 und 2018 ab. Die Daten zeigen, dass der durchschnittliche Verkaufspreis von NAND und DRAM von Samsung Electronics SK hynix in den letzten Quartalen gesunken ist .
Samsung NAND und DRAM durchschnittliche Verkaufspreisänderungen
SK Hynix NAND und DRAM durchschnittliche Verkaufspreisänderungen
2. Die Kommission für die Entwicklung des Südens und Samsung unterzeichnen ein Memorandum
China National Development and Reform Commission und Samsung Electronics eine Vereinbarung über die Zusammenarbeit im Chip unterzeichnet, wäre eine mögliche Zusammenarbeit bei der Chipherstellung, der künstlichen Intelligenz und anderen Bereichen der Halbleiterfertigung, Industrieanalysten wird die Zusammenarbeit wahrscheinlich mit globalen DRAM-Preise erhöhen.
3. Samsungs NAND-Flash-Speicher-Produktion zu erweitern Energie zu reduzieren
Samsung entschieden, die Speicherkapazität bis zum Jahr 2018 ein Upgrade zu begrenzen Wettbewerber Gewinne wachsen, und für potenzielle Wettbewerber in China (Zutrittsschranken) zu Eintrittsbarrieren zu erhöhen. Samsung ursprünglich erwartet in Pyeongchang Ze Fabrikhalle die Einrichtung eines neuen NAND zu eröffnen Flash-Speicher-Produktionslinie, aber nach dem Preisverfall, plant Samsung, zu ändern DRAM-Produktionslinie in der zweiten Etage ein Teil der Fläche zu bauen.
DRAMexchange geht davon aus, dass die DRAM-Versorgung im Jahr 2018 um 22,5% wachsen wird, von rund 19,5% im Jahr 2017. DRAM-Umsätze sollen 2018 um 30% wachsen und damit deutlich unter dem Umsatzwachstum von 76% im Jahr 2017 liegen.
4. Hersteller auf dem Festland, um die Werkseinstellungen des Speichers zu vervollständigen
Speicherhalbleiterhersteller in Festland Fabriken, kann der schnellste sein Operationen Ende 2019 zu beginnen, in Fujian Jinhuagong integrierte Schaltung Unternehmen befindet sich sagte, um den Fortschritt des Projekts zu beschleunigen, erwartet im Oktober dieses Jahres abgeschlossen werden, um den Bau der Hauptstruktur der Anlage, während in Wuhan mit Hauptsitz Yangtze Storage Technologies Milliarden $ 2.4 investieren drei Großanlagen 3D-NAND-Flash-Speicher-Herstellung zu bauen, wird eine Anlage voraussichtlich offiziell im Jahr 2018 begann die Produktion sein, können etwa 300.000 Wafer herzustellen, ist es befindet sich schließlich in Hefei Rui Kraft Integration Circuit Company, kaufte eine Reihe von DRAM-Produktionsanlagen.
Darüber hinaus nähert sich Apple (AAPL-US) der Speichertechnologie-Unternehmen in Yangtze River, wird wahrscheinlich Speicherchips von ihnen kaufen, die aktuellen Anbieter von NAND-Flash-Speicher von Apple für Toshiba, Witten, Samsung und SK Hynix.
Apple iPhone X Produktion unter der halben Reparatur
Sean Yang, ein Analyst beim Shanghaier Research-Unternehmen CINNO, sagte, dass Apple, der größte Verbraucher dieser Chips, im Jahr 2017 rund 1,6% der weltweiten Gesamtnachfrage mit rund 160 Millionen Gigabyte ausmacht Die Reduzierung von Verbrauchern mit Speicherchips wird NAND und DRAM verlangsamen und den durchschnittlichen Verkaufspreis erhöhen.
Ju Heng Netzwerk
4. Server-DRAM-Umsatzwachstum im vierten Quartal 2017 von etwa 13,9%;
Stellen Sie Mikro-Netzwerk Nachrichten, nach DRAMeXchange Beratung Semiconductor Research Center (DRAMeXchange) Umfrage, im vierten Quartal 2017 die Nachfrage in Nordamerika überprüfen, wenn das Rechenzentrum weiterhin stark sein, auch wenn das Original-Produkt durch die Linie Anpassungen, aber immer noch nicht effektiv Markt lindern angespannte Versorgungslage. Server DRAM profitieren die durchschnittliche Verkaufspreis (durchschnittlicher Verkaufspreis) steigen, die drei ursprünglichen Server DRAM DRAM Quartal ein Umsatzwachstum von rund 13,9%.
DRAMeXchange Senior Analyst Liu Jia Hao wies darauf hin, in das erste Quartal 2018, Server-Sendungen im Fall der kinetischen Energie verringert, die Gesamtmangel Server DRAM Marktbedingungen sind noch im Gang, und Server-DRAM-Module bieten auf einem hohen Punkt gehalten werden.
Samsung (Samsung)
Begünstigt durch den Aufbau des Rechenzentrums und die Nachfrage nach Modulen mit hoher Kapazität, ist das vierte Quartal 2017 Samsung Server DRAM Umsatzentwicklung besonders blendend, nicht nur die Bit-Sendungen im dritten Quartal um 8% erhöht, der durchschnittliche Verkaufspreis auch Gegenüber dem Vorquartal stieg der Umsatz gegenüber dem dritten Quartal um 14,5% auf 2,92 Mrd. USD, was einem Marktanteil von 46,2% entspricht.Samsung wird die Liefertreue für verschiedene OEMs und ODMs in dieser Phase weiter anpassen, um wichtige Kunden zu treffen Die Nachfrage erhöht dann die Rentabilität.
SK Hynix
Aufgrund der Nachfrage aus nordamerikanischen Rechenzentren ist SK hynix aktiver bei der Konfiguration von Server-DRAM-Produkten, die im vierten Quartal mehr als 30% der gesamten Server-DRAM-Leistung ausmachen. Zweitens ist die Nachfrage nach Modulen mit hoher Kapazität durch neue Plattformkonvertierungen gestiegen , Aber auch für SK Hynix Q4 Umsatzwachstum von 10,9% mehr als im dritten Quartal auf 1.988.000.000 US-Dollar, verbesserte sich die Betriebsgewinnmarge gegenüber dem dritten Quartal 2018 aufgrund der Speichernachfrage der Server wird hoch bleiben, SK Hynix wird Wird den Anteil der Server-DRAM-Ausgabe von Quartal zu Quartal erhöhen und sich auf den neuen Prozess der 18-nm-Produkte in der Durchdringung und Durchdringung konzentrieren.
Micron
Darüber hinaus fortgesetzt werden Preise steigen und der Skalierungsprozess bewirkte Kostenwirksamkeit, zusätzlich zu dem vierten Quartal Server DRAM Bit Sendung Wachstum gegenüber dem Vorquartal, der durchschnittliche Verkaufspreis sprang ebenfalls, seine Server DRAM-Produktumsatzwachstum von 17,2% deutlich in der Produktperspektive auf 22,4% des Niveaus auf $ 1414000000, kam Marktanteil, Micron Anteil Server DRAM auf fast drei Wasserstand blieb weiterhin in der gegenwärtigen Phase profitiert vollständig angehoben durchschnittlicher Verkaufspreis hängt von Speicher zu wachsen.
5. Windows 10 auf ARM kann keine bestimmte OpenGL-Version des Spiels ausführen;
Set Micro-Messenger-Nachrichten, Microsoft im vergangenen Jahr veröffentlicht die ARM-Architektur-Prozessor Windows 10 Netzwerkgeräte, mehr Details kürzlich veröffentlicht, nicht nur nicht unterstützt x86-Programme, noch kann die Umsetzung einer bestimmten OpenGL-Version des Spiels
Microsoft hat Ende 2016 bekannt gegeben, dass es mit Qualcomm zusammenarbeiten wird, um Windows-basierte Geräte mit ARM-Prozessoren zu bauen, und Ende letzten Jahres die ersten Windows 10-Laptops mit ARM-Prozessoren herausgebracht hat, die neben hoher Leistung, niedrigem Stromverbrauch Verbundener PC, es ist auch kompatibel mit x86 Win32 und Universal Windows Programmen, obwohl Windows 10 auf ARM immer noch ein paar Einschränkungen im Vergleich zu Windows auf x86 hat.
Microsoft hat letzte Woche unbeabsichtigt die Windows 10 auf ARM-Programm- und -Erfahrungseinschränkungen veröffentlicht, obwohl Microsoft die Datei bald löschen wird, aber Internet Archive gespeichert hat.
Von einer eingeschränkten Liste unterstützt Windows 10 auf ARM nur ARM64-Treiber, x64-Programme, Spiele oder Programme, die eine bestimmte OpenGL-Version verwenden, einige Anpassungen, die nicht gut funktionieren, und einige Programme, die auf einem mobilen Windows funktionieren Es gibt Layoutprobleme, und Hyper-V wird nicht unterstützt.
Die obige Einschränkung bedeutet, dass Hersteller von Peripheriegeräten x86-Treiber in ARM64-Versionen neu kompilieren müssen und Windows 10 auf ARM nur Programme unterstützt, die DirectX 9, DirectX 10, DirectX 11 und DirectX 12 verwenden und OpenGL Version 1.1 oder höher nicht unterstützen Hardware-beschleunigte OpenGL-Spiele oder -Programme.
Sieht aus wie Windows 10 auf ARM ist immer noch für die meisten Szenarien und Programme geeignet, Microsoft bietet auch Lösungen für bestimmte Einschränkungen, die Außenwelt ist, dass bis nach der tatsächlichen Maschine auf den Markt, um die Fähigkeit der zugehörigen Ausrüstung zu bestätigen, die ersten in diesem Frühjahr aufgeführt werden Beide Windows 10 auf ARM-Notebooks werden ASUS NovaGo und HPs Envy x2can sein, die alle bis zu 20 Stunden Akkulaufzeit bieten.
6.MIT entwickelt neue AI-Chips, um neuronale Netzwerke zu mobilen Geräten zu bringen
Forscher am Massachusetts Institute of Technology (MIT) haben einen neuen Typ von künstlicher Intelligenz (AI) -Chip entwickelt, der neuronale Netzwerkvorgänge drei- bis siebenmal schneller beschleunigt und gleichzeitig den Stromverbrauch um bis zu 95% reduziert.
Laut TechCrunch und Tech Xplore berichtet, dass der Chip von MIT Doktorand Avishek Biswas entwickelt führte seine größte Vorteil Team auf Smartphones, Haushaltsgeräte und andere tragbare Geräte, anstatt die leistungshungrige Server das neuronale Netzwerk läuft Straße.
Dies bedeutet, dass die künftige Nutzung des Wafers ein neuronales Netzwerk für die Sprach- und Gesichtserkennung und die nativen Tiefen Lernen telefonieren kann, anstatt die mehr rau, regelbasierte Algorithmen oder Informationen in den Cloud zu den Analyseergebnissen zurückzukehren vergehen senden.
Biswas sagte, dass AI-Chip-Designs im Allgemeinen einen Speicher und einen Prozessor haben, der Daten zwischen dem Speicher und dem Prozessor hin- und herbewegt. Maschinenlernalgorithmen erfordern eine große Anzahl von Operationen und somit werden Daten am meisten hin und her übertragen Die Operation dieser Algorithmen kann zu einer spezifischen Operation vereinfacht werden, die als Punktprodukt bezeichnet wird, wodurch die Notwendigkeit entfällt, Daten vor und zurück zu übertragen, wenn die Skalarproduktoperation direkt in dem Speicher ausgeführt werden kann.
Neuronale Netzwerke sind üblicherweise in viele Schichten unterteilt.Ein einzelner Verarbeitungsknoten in einer Netzwerkschicht empfängt normalerweise Datenvon mehreren Knoten in der unteren Schicht und leitet die Daten an mehrere Knotenin der oberen Schicht weiter Hat sein Gewicht. Und der Prozess des Trainings neuronales Netz ist hauptsächlich, diese Gewichte zu justieren.
Wenn ein Knoten die Daten von mehreren Knoten in der unteren Schicht erhält, multipliziert er jedes der Daten mit seinem Gewicht und addiert diese Ergebnisse.Dieser Prozess wird als Skalarprodukt bezeichnet. Wenn das Skalarprodukt einen bestimmten Schwellenwert überschreitet, wird das Ergebnis sein Wird an den oberen Knoten gesendet.
In der Tat werden nur die in den Speicher des Computers in das richtige Gewicht gespeicherten Knoten im Allgemeinen Skalarprodukt berechnet beinhaltet Lesen aus dem Speicher die Gewichte, Zugriff auf die relevanten Daten, die zwei multipliziert, und das Ergebnis wird irgendwo gespeichert, und der Knoten Dies wird für alle Eingabedaten wiederholt, und angesichts der Tatsache, dass es in einem neuronalen Netzwerk Tausende oder sogar Millionen von Knoten gibt, müssen große Datenmengen in dem Prozess bewegt werden.
Aber diese Reihe von Operationen ist, die Ereignisse im Gehirn zu digitalisieren, wo Signale entlang mehrerer Neuronen reisen und sich an der Synapse treffen. Und die Feuerrate von Neuronen und die Spannung über Synapsen Das elektrochemische Signal entspricht den Datenwerten und Gewichten im neuronalen Netzwerk. Die neuen Wafer der MIT-Forscher erhöhen die neurale Netzwerkeffizienz durch eine genauere Replikation der Gehirnaktivität.
In diesem Chip wird der Eingangswert des Knotens in Spannung umgewandelt, mit dem entsprechenden Gewicht multipliziert, und nur die kombinierte Spannung wird in die Daten zurückgewandelt und zur weiteren Verarbeitung im Speicher gespeichert.Daher kann der Prototyp-Chip gleichzeitig 16 berechnen Punktprodukt der Knoten, ohne dass die Daten bei jeder Ausführung der Operation zwischen dem Prozessor und dem Speicher verschoben werden müssen.
Dario Gil, Vice President von IBM AI, sagte, dass die Ergebnisse der Studie die Tür zu komplexeren konvolutionellen neuronalen Netzen für die Bild- und Videoklassifizierung im Internet der Dinge (IoT) öffnen werden