«Trend» Inventaire de la technologie de stockage de prochaine génération: quatre technologies ont le plus grand potentiel

1. La prochaine génération de l'inventaire des technologies de stockage: quatre technologies avec le plus grand potentiel; 2. les nouvelles exigences de l'éclatement de l'énergie cinétique de la mémoire forte, 3.Immervision et Socionext collaborera pour fournir un kit de développement panomorphEYE; 4. Que l'AI personnalisé et faible consommation d'énergie de recherche IBM et le développement de nouveaux Puce de réseau neuronal

1. Inventaire de la technologie de stockage de la prochaine génération: Les quatre technologies ont le plus grand potentiel;

Avec la montée des appareils mobiles, des applications de mise en réseau, pour le stockage de données économes en énergie et de la technologie de mémoire actuellement une demande croissante de la mémoire DRAM et de la technologie de mémoire flash NAND au courant dominant, mais pas rapidement lire et écrire des vitesses de DRAM pour stocker des données pendant une longue période ;. Flash NAND Peut enregistrer des données, mais la vitesse de lecture et d'écriture n'est pas bonne.

Bien que les deux calcul, la capacité de stockage de la mémoire de la prochaine génération, comme une mémoire magnétorésistive (e MRAM), la RAM résistive (RRAM), de la technologie et de la mémoire magnétique spin électronique haut potentiel 3D XPoint (STT-MRAM), etc., pour devenir le prochain La nouvelle chérie de la technologie de la mémoire pour les générations.

La technologie MRAM à une vitesse d'accès universitaire surpassera DRAM atteindre près de SRAM, et les données ne sont pas perdues après une panne de courant, au début développé par la société EverSpin, est considérée comme la technologie de mémoire de prochaine génération importants concurrents. 2017 épidémie de la technologie MRAM est une années, la technologie de la technologie LSI LSI a ensuite tenu au Japon au Japon a organisé un séminaire et des applications de système international, GlobalFoundries a publié conjointement avec la technologie de démagnétisation thermique emran EverSpin qui permet aux données avec Celsius les données stockées à 150 degrés, peut être jusqu'à plus d'une décennie du processus de la technique des procédés de 22 nm, il est prévu à la fin de 2017, 2018 et mis en production.

TSMC, qui une fois investi dans la mémoire R & D, mais perdu au coût élevé et s'est retiré du marché de la mémoire, a révélé en 2017 forum technologique TSMC qu'il a 22nm processus de mémoire magnétorésistif embarqué (eMRAM) la technologie de production. Tester la production.

RRAM a l'avantage de consommer moins d'énergie que NAND, et ses informations d'écriture sont 10 000 fois plus rapides que les mémoires flash NAND Les principaux acteurs de la recherche sont Micron, Sony et Samsung.

TSMC a également annoncé avoir une production de technologie eRRAM 22nm.Les principaux fabricants de technologie 3D XPoint sont Intel et Micron.Ils adoptent une structure tridimensionnelle composée de circuits multicouches et utilisent des résistances de fil de grille pour représenter 0 et 1. Le principe est similaire à RRAM.

C'est un bon remplacement pour les périphériques de stockage et il est presque 1000 fois plus rapide que la mémoire flash NAND. Il peut également être utilisé pour des applications de calcul nécessitant peu de cycles d'instructions.

STT-MRAM est une application de la technologie du moment angulaire quantique du spinelle, a de hautes performances et une faible consommation d'énergie des DRAM et SRAM, et est compatible avec les technologies et les processus de fabrication CMOS existants.

Actuellement, les principaux fournisseurs d'intrants sont IBM et Samsung, SK Hynix et Toshiba, parmi lesquels IBM et Samsung ont publié des travaux de recherche dans l'IEEE, indiquant qu'ils ont atteint avec succès 10 nanosecondes de vitesse de transmission et une architecture super économiseuse d'énergie.

Même si la prochaine génération de mémoires devrait remplacer les mémoires flash DRAM et NAND à l'avenir, elle remplacera même l'ancienne technologie, mais je crois qu'avec l'intelligence artificielle, les appareils IoT et plus de collecte de données et de détection, la prochaine génération de mémoire sera la première En se concentrant sur les besoins de nouvelles applications, telles que la mémoire embarquée verrouillée par TSMC, et en tirant pleinement parti des avantages de l'informatique et du stockage, en réduisant encore la taille pour atteindre une plus grande pénétration des composants sur le marché.

Cependant, à en juger par la dynamique des fournisseurs, la technologie eMRAM 22nm arrivera progressivement à maturité après 2018 et commencera à avoir un grand nombre d'applications commerciales.

(L'auteur est un chercheur de l'Institut national de la science expérimentale et du Centre de politique et d'information de technologie)

2. Nouveaux foyers de demande Dynamique de la mémoire forte;

produits électroniques modernes, la mémoire joue un rôle indispensable. 2017 valeur des semi-conducteurs de la production industrielle de plus de 400 milliards $ estimés pour la première fois, l'une des raisons est la quantité de mémoire requise augmentation, les fabricants peuvent augmenter les prix, la croissance des revenus d'environ 2017 cinq pour cent, sud-coréen Samsung est le plus important fournisseur de mémoire, profitera le plus. ce boom de la mémoire d'onde devrait continuer à stimuler la demande pour l'Internet émergent des choses, des appareils portables, le stockage en nuage et l'informatique massive de données deviendront si entraînée par le marché de la mémoire énergie cinétique.

Selon les caractéristiques de stockage, la mémoire actuelle peut être divisée en mémoire volatile et non volatile après la mise hors tension.La mémoire volatile ne peut pas être conservée après la mise hors tension.Le coût est élevé mais la vitesse est rapide.Utilisé généralement pour le stockage temporaire de données; La vitesse d'accès à la mémoire est lente, mais elle peut enregistrer des données pendant une longue période.

mémoire statique à accès aléatoire (SRAM) et mémoire dynamique à accès aléatoire (DRAM) est souvent utilisé dans un grand nombre de systèmes informatiques et de produits électroniques, comme l'utilisation temporaire de mémoire de données volatile. DRAM applications actuellement PC / NB et mobiles Seigneur, mais à l'appui de la virtualisation, des graphiques et d'autres applications complexes en temps réel travaillera également à augmenter d'année en année. DRAM de 80 ans il y a plus de 20 société de production mondiale, actuellement que Samsung (Samsung), SK Hynix (SK Hynix) et micron (micron) et trois oligopole, le type d'application en expansion de grand PC et la catégorie de produits électroniques grand public (comme l'iPod), les téléphones mobiles, les ordinateurs tablettes, appareils portables, véhicules intelligents, les véhicules sans pilote DRAM exigent plus en plus haut.

La mémoire morte (ROM) ou la mémoire réinscriptible, comme le disque dur mécanique traditionnel (HDD), le disque dur SSD, la mémoire flash, etc., bien qu'elles aient des caractéristiques de lecture et d'écriture différentes, sont toujours coupées. Il peut enregistrer des données pendant une longue période.La vitesse de fonctionnement du flash est plus rapide que celle du disque dur général, de sorte qu'il devient progressivement grand public.

Flash et l'architecture de mémoire ROM peuvent être divisés en parallèle (NOR) en tandem (NAND), une mémoire flash parallèle (NOR-Flash) est commun dans le BIOS de la carte mère, la mémoire flash de type tandem (NAND-Flash) est commun dans les généraux produits électroniques grand public, tels que les téléphones mobiles, les lecteurs flash, SSD, etc., la technologie flash NAND continue d'évoluer avec le processus, les coûts de capacité unité continuent de diminuer, a été dans le téléphone intelligent, les systèmes embarqués et les applications industrielles beaucoup de popularité au cours des dernières années, utilisées dans les grandes et de plus en plus le stockage de données augmenter le nombre de demande de bloc-notes disques SSD, SSD fait par le NAND-flash a progressivement remplacé le disque dur d'une tendance générale pour les grands fabricants Samsung, Toshiba et SK Hynix.

DRAM et Flash NAND ayant des caractéristiques complémentaires et coût, une grande largeur de bande ancienne par seconde, et l'unité de coût plus élevé d'une plus grande consommation d'énergie, cette dernière vitesse de transmission, une faible consommation électrique et le coût par unité est faible, et donc à la fois de sur la segmentation du marché et des propriétés fonctionnelles, mais constituent également des produits de mémoire actuellement deux camps, en réponse à des choses, l'avènement des grandes données et des données de nuages ​​cette croissance explosive pour les générations, que ce soit autonome ou de la mémoire intégrée, sera un élément clé de l'architecture du système .

À l'horizon 2020, le marché mondial de la mémoire s'élèvera à 79,51 milliards de dollars, dont 38,9% pour la mémoire DRAM, 55,1% pour la mémoire Flash NAND et 2,0% pour la prochaine génération.

Cependant, en raison du goulot d'étranglement et de l'impact de la mémoire principale DRAM et NAND sur le processus de miniaturisation, trouver des solutions alternatives ou changer les circuits pour répondre aux futurs besoins de stockage de données sera le problème le plus important dans l'industrie de la mémoire.

Les trois principaux paramètres de développement de la prochaine génération de mémoire incluent le coût, la performance des composants, l'évolutivité et la densité, etc., où les coûts comprennent les particules de mémoire, les modules et les circuits de contrôle, etc. Etc.

La prochaine génération de mémoire, est maintenant généralement en vue de changer la manière passée la charge stockée pour accéder aux données stockées en changeant le mécanisme pour résoudre les restrictions de l'État sur le processus, en outre, une faible consommation d'énergie pour l'objectif commun de composants de mémoire de nouvelle génération et même Taiwan a été le plus au monde processus avancés et composants circuit et un excellent personnel de R & D, debout position très favorable dans le développement de la mémoire devrait saisir l'avantage, améliorer la chaîne écologique de l'industrie électronique, le monopole des fabricants étrangers pour éviter le sujet du marché de la mémoire, une position ferme dans le monde, de garder la compétitivité de l'industrie de Taiwan. (l'auteur est un chercheur de politique au Centre national de la recherche et de l'information des laboratoires de recherche)

Introduction STPI

Le Centre national de recherche expérimentale pour la politique scientifique et technologique (STPI) a été créé en 1974. Il a longtemps été responsable de la collecte, la construction, l'analyse, le traitement et les services de données nécessaires au développement de la science et de la technologie en Chine. Nous aiderons le gouvernement à cartographier la vision et la stratégie du développement de la science et de la technologie en Chine et à progresser vers la recherche professionnelle des groupes de réflexion sur la politique scientifique et technologique.

3. Immervision et Socionext collaboreront pour fournir le kit de développement panomorphEYE;

MONTRÉAL - (BUSINESS WIRE) - Immervision et Socionext ont annoncé aujourd'hui la création d'un partenariat stratégique pour l'intelligence artificielle (IA) et des robots pour robots, automobiles, drones et autres appareils intelligents. Les applications d'apprentissage (ML) développent le premier système de capteurs de vision intelligents et complets Le kit de développement PanomorphEYE devrait être lancé et lancé en juillet 2018.

Grâce à la coopération entre nos deux sociétés, tout le monde a le potentiel d'utiliser des systèmes de vision intelligents développés pour les appareils et les machines intelligents.La combinaison unique de vision intelligente et de conception SoC avancée avec des capteurs embarqués permet à chacun d'imaginer Des produits intelligents.

Ceci

panomorphEYE perspective de fusion 3D, 360 degrés autour de l'image, la TOF (TOF), gyroscope, boussole et autres capteurs, le prototypage rapide, plus court temps sur le marché et ont la capacité d'améliorer le produit précieux.

ImmerVision le facteur humain dans l'introduction de dispositifs globaux à travers une image grand angle panoramique unique capture, données-In-Picture et les capacités de traitement d'image pour réaliser la vision intelligente, d'améliorer la capacité de la perception humaine environnement.

Socionext offre système expertise inégalée système sur puce (SoC), fournit l'imagerie, la mise en réseau et la puissance de calcul pour le premier équipement d'aujourd'hui. Ensemble, les sociétés se sont engagées à fournir une capacité de vision supérieure, l'autonomie et de l'intelligence pour aider les appareils d'aujourd'hui pour voir pour plus, voir plus intelligent.

Alessandro Gasparini, vice-président exécutif et directeur commercial d'ImmerVision, a expliqué: «Grâce à la coopération entre nos deux sociétés, tout le monde peut utiliser des systèmes de vision intelligents développés pour les appareils et les machines intelligents. La combinaison unique de capteurs permet à quiconque d'imaginer des produits plus intelligents.

Mitsugu Naito, vice-président senior société Socionext a déclaré: « la coopération réussie entre le Immervision et Socionext été diverses applications de traitement d'image et de caméra pour fournir des solutions de pointe pour aujourd'hui, je suis très heureux d'annoncer leur partenariat stratégique est entré dans une nouvelle. étape. nous allons améliorer encore la capacité de la vision humaine et la machine pour aider les gens à vivre une vie plus efficace et plus sûr. « Business Wire

4. Personnalisez l'IA et consommez moins d'énergie IBM développe de nouvelles puces de réseau neuronal

Smart Netease Nouvelles 16 Juin nouvelles «réseau de neurones en cours d'exécution sur le GPU a été fait dans le domaine de l'intelligence artificielle de certains progrès étonnants, mais aussi la coopération entre les deux est pas parfait. Les chercheurs d'IBM espèrent concevoir un Spécialement utilisé pour gérer de nouveaux réseaux de réseaux neuronaux afin de fournir des alternatives plus rapides et plus efficaces.

Ce n'est qu'au début de ce siècle que les chercheurs ont réalisé que les GPU (Graphics Processing Units) conçus pour les jeux vidéo pouvaient être utilisés comme accélérateurs matériels pour faire fonctionner des réseaux neuronaux plus importants qu'auparavant.

Cela est dû au fait que ces puces peuvent effectuer un grand nombre de calculs en parallèle, plutôt que de les traiter séquentiellement comme une CPU traditionnelle, ce qui est particulièrement utile pour calculer simultanément les poids de centaines de neurones constituant un réseau neuronal d'apprentissage profond.

L'introduction des GPU a permis à ce domaine de se développer, mais ces puces doivent encore séparer le traitement et le stockage, ce qui signifie que beaucoup de temps et d'efforts sont consacrés au transfert de données entre les deux. Des technologies de stockage qui peuvent stocker et traiter les données de poids au même endroit, augmentant ainsi la vitesse et l'efficacité énergétique.

Les nouveaux dispositifs de mémoire stockent des données sous forme analogique en ajustant leurs niveaux de résistance, c'est-à-dire que les données sont stockées dans une plage continue, plutôt que dans la mémoire binaire 1 et 0. Les informations sont stockées dans la mémoire. Dans la conductance de la cellule, il est donc possible de simplement transférer la tension entre les cellules de mémoire et laisser le système effectuer le calcul par des moyens physiques.

Cependant, les défauts physiques inhérents de ces dispositifs signifient que leur comportement est incohérent, ce qui conduit à la précision de classification actuelle de leur utilisation pour former des réseaux neuronaux est nettement inférieure à l'utilisation de GPU.

«Nous pouvons nous entraîner sur un système plus rapide que le GPU, mais si la formation n'est pas aussi précise, ce serait inutile», a déclaré Stefano Ambrogio, chercheur postdoctoral chez IBM Research, qui a dirigé le projet dans une interview avec Singularity Hub. Jusqu'à présent, il n'y a aucune preuve que l'utilisation de ces nouveaux périphériques peut être aussi précis que l'utilisation d'un GPU.

Mais la recherche a fait de nouveaux progrès: dans un article publié la semaine dernière dans la revue Nature, Ambrogio et ses collègues ont décrit comment ils utilisaient de nouvelles mémoires analogiques et des composants électroniques plus traditionnels pour créer Une puce qui peut correspondre à la précision du GPU tout en fonctionnant plus vite et avec moins de consommation d'énergie.

La raison pour laquelle ces nouvelles technologies de stockage sont difficiles à former des réseaux neuronaux profonds est que ce processus nécessite la stimulation de milliers de neurones jusqu'à ce que le réseau soit complètement aligné.La modification de la résistance de ces dispositifs nécessite la reconfiguration de leurs structures atomiques. Et chaque fois que le processus opératoire est différent, dit Ambrogio, ces stimuli ne sont pas toujours les mêmes, ce qui conduit à un ajustement inexact du poids des neurones.

Les chercheurs ont résolus par la création de « moyens » synaptiques cette problème, les « unités synaptiques » correspondant chacune à un seul réseau de neurones, tout en ayant une longueur et la mémoire à court terme. Chaque cellule est constituée d'une mémoire à changement de phase ( PCM) unités et une combinaison de trois transistors et une configuration de condensateur, les données MIC mémorisées dans la résistance de pondération, les données de poids de condensateur sont stockées en tant que charges électriques.

PCM est une « mémoire non volatile « ce qui signifie que, même sans une alimentation électrique externe, il peut conserver les informations stockées, et le condensateur est » volatil », on ne peut maintenir sa charge à l'intérieur de quelques millisecondes. Cependant, aucune variabilité condensateur de matériel de PCM, il est possible de programmer rapidement et avec précision.

Lorsque l'image du réseau de neurones est formé pour effectuer la tâche de classification, seuls les poids de condensateur droit sont mis à jour. Après avoir parcouru plusieurs milliers d'images, des données de poids seront transférées à l'unité PCM pour le stockage à long terme. Variabilité PCM signifie que le poids Le transfert de données peut encore contenir des erreurs, mais puisque l'unité n'est mise à jour qu'occasionnellement, la conductance peut être vérifiée à nouveau sans augmenter la complexité du système.Ambrogio a déclaré que si une formation directement sur l'unité PCM, ce n'est pas possible.

Afin de tester leur équipement, les chercheurs ont effectué une série de tests de référence de reconnaissance d'images sur leurs réseaux, dont les résultats ont atteint une précision comparable avec le logiciel leader de réseau de neurones de Google, TensorFlow, mais ils ont prédit qu'ils finiraient par se développer. La puce sera 280 fois plus efficace que le GPU, et la puissance de calcul par millimètre carré sera 100 fois supérieure à celle de la CPU Il est à noter que les chercheurs n'ont pas encore complètement construit la puce.

Bien que de vraies unités PCM aient été utilisées dans les tests, d'autres composants ont été simulés sur l'ordinateur, Ambrogio a déclaré qu'ils espéraient vérifier si cette méthode est réalisable avant d'investir du temps et de l'énergie dans la construction d'une puce complète. Décidé d'utiliser de vrais équipements PCM, car la simulation de ces équipements n'est pas encore fiable, mais la technologie analogique des autres composants est déjà mature, ils sont confiants de construire une puce complète basée sur cette conception.

Il ne peut rivaliser avec les GPU que sur des réseaux neuronaux entièrement connectés.Dans ce réseau neuronal, chaque neurone est connecté aux neurones de la couche supérieure, a indiqué M. Ambrogio, mais en réalité, de nombreux réseaux neuronaux ne sont pas entièrement connectés. Ou seulement certaines couches sont complètement connectées ensemble.

Cependant, Ambrogio a déclaré que la puce finale sera conçue pour fonctionner avec les GPU, de sorte qu'elle puisse également gérer les calculs de la couche de connexion complète pour d'autres connexions, et pense que cette méthode plus efficace pour gérer les couches entièrement connectées peut être Plus largement utilisé.

Quel genre de choses sont possibles avec une telle puce dédiée?

Ambrogio a dit qu'il y a deux applications principales: d'une part, appliquer l'intelligence artificielle aux dispositifs personnels, et d'autre part, rendre les centres de données plus efficaces, ce qui est une préoccupation majeure pour les grandes entreprises technologiques car leurs serveurs consomment beaucoup d'électricité.

Si l'intelligence artificielle est appliquée directement aux appareils personnels, les utilisateurs peuvent sauvegarder leur vie privée en n'ayant pas à partager leurs données dans le cloud, mais Ambrogio a déclaré que la perspective la plus excitante est la personnalisation de l'intelligence artificielle.

Il a déclaré: «En appliquant ce réseau de neurones à votre voiture ou votre smartphone, ils peuvent continuer à apprendre de votre expérience.

"Votre téléphone mobile sera personnalisé pour votre voix, votre voiture sera également basée sur vos habitudes pour former un style de conduite unique."

2016 GoodChinaBrand | ICP: 12011751 | China Exports