«Trend» Inventaire de la technologie de stockage de prochaine génération: quatre technologies ont le plus grand potentiel

1. Inventaire de la technologie de stockage de nouvelle génération: Les quatre technologies ont le plus grand potentiel 2. La nouvelle demande déborde de dynamique mémoire vive 3. Immervision et Socionext collaboreront pour fournir le kit de développement panomorphEYE 4. Personnaliser l'IA et consommer moins d'énergie. Puce de réseau neuronal

1. Inventaire de la technologie de stockage de la prochaine génération: Les quatre technologies ont le plus grand potentiel;

Avec la montée des appareils mobiles, des applications de mise en réseau, pour le stockage de données économes en énergie et de la technologie de mémoire actuellement une demande croissante de la mémoire DRAM et de la technologie de mémoire flash NAND au courant dominant, mais pas rapidement lire et écrire des vitesses de DRAM pour stocker des données pendant une longue période ;. Flash NAND Peut enregistrer des données, mais la vitesse de lecture et d'écriture n'est pas bonne.

Bien que les deux calcul, la capacité de stockage de la mémoire de la prochaine génération, comme une mémoire magnétorésistive (e MRAM), la RAM résistive (RRAM), de la technologie et de la mémoire magnétique spin électronique haut potentiel 3D XPoint (STT-MRAM), etc., pour devenir le prochain La nouvelle chérie de la technologie de la mémoire pour les générations.

La technologie MRAM à une vitesse d'accès universitaire surpassera DRAM atteindre près de SRAM, et les données ne sont pas perdues après une panne de courant, au début développé par la société EverSpin, est considérée comme la technologie de mémoire de prochaine génération importants concurrents. 2017 épidémie de la technologie MRAM est une années, la technologie de la technologie LSI LSI a ensuite tenu au Japon au Japon a organisé un séminaire et des applications de système international, GlobalFoundries a publié conjointement avec la technologie de démagnétisation thermique emran EverSpin qui permet aux données avec Celsius les données stockées à 150 degrés, peut être jusqu'à plus d'une décennie du processus de la technique des procédés de 22 nm, il est prévu à la fin de 2017, 2018 et mis en production.

La mémoire a été mis en R & D, mais il a perdu de se retirer du Forum marché de la mémoire coûteuse TSMC, TSMC 2017 technologie, ce qui expose déjà ont procédé 22-nanomètre technologie intégrée de production de mémoire magnétorésistif (Emram), prévue 2018 Tester la production.

RRAM L'avantage est plus faible consommation d'énergie par rapport à NAND, et écrire des informations plus rapide que la mémoire flash NAND 10.000 fois, les grands fabricants ont mis dans la recherche Micron, Sony, Samsung.

TSMC a annoncé la technologie eRRAM avec la production de 22 nm. Principaux fournisseurs d'art 3D XPoint comme Intel et Micron, en utilisant la structure en trois dimensions d'une configuration de câblage multicouche, la résistance du fil et l'utilisation d'un réseau pour représenter 0 et 1, similaire en principe RRAM.

C'est un bon remplacement pour les périphériques de stockage et il est presque 1000 fois plus rapide que la mémoire flash NAND. Il peut également être utilisé pour des applications de calcul nécessitant peu de cycles d'instructions.

STT-MRAM est une application de la technologie du moment angulaire quantique du spinelle, a de hautes performances et une faible consommation d'énergie des DRAM et SRAM, et est compatible avec les technologies et les processus de fabrication CMOS existants.

Actuellement, les principaux fournisseurs d'intrants sont IBM et Samsung, SK Hynix et Toshiba, parmi lesquels IBM et Samsung ont publié des documents de recherche dans l'IEEE, indiquant qu'ils ont atteint avec succès 10 nanosecondes de vitesse de transmission et une architecture super économiseuse d'énergie.

Bien que l'avenir de la mémoire de prochaine génération devrait remplacer une partie du marché de la mémoire flash DRAM et NAND, ou même de remplacer la technologie ancienne. Mais je crois que l'intelligence artificielle, des dispositifs de mise en réseau et plus la collecte de données et de la demande de détection, la technologie de mémoire de nouvelle génération première nous allons nous concentrer sur la demande principale de nouvelles applications, telles que des mémoires intégrées TSMC verrouillées, et faire jouer pleinement les avantages de l'informatique et de stockage combo, et plus la taille miniature, pour atteindre ensemble supérieur de pénétration du marché.

Toutefois, si le vendeur point de vue dynamique, la technologie 22 nanomètre à la mi 2018 après Emram matures et commencent à avoir un grand nombre d'applications du marché.

(L'auteur est un chercheur en politique au Centre national de recherche pour les laboratoires de recherche et d'information) Economic Daily

2. La nouvelle demande d'énergie cinétique mémoire forte épidémie;

produits électroniques modernes, la mémoire joue un rôle indispensable. 2017 valeur des semi-conducteurs de la production industrielle de plus de 400 milliards $ estimés pour la première fois, l'une des raisons est la quantité de mémoire requise augmentation, les fabricants peuvent augmenter les prix, la croissance des revenus d'environ 2017 cinq pour cent, sud-coréen Samsung est le plus important fournisseur de mémoire, profitera le plus. ce boom de la mémoire d'onde devrait continuer à stimuler la demande pour l'Internet émergent des choses, des appareils portables, le stockage en nuage et l'informatique massive de données deviendront si entraînée par le marché de la mémoire énergie cinétique.

Selon les caractéristiques de stockage, la mémoire actuelle peut être divisée en mémoire volatile et non volatile après la mise hors tension.La mémoire volatile ne peut pas être conservée après la mise hors tension.Le coût est élevé mais la vitesse est rapide.Utilisé généralement pour le stockage temporaire de données; La vitesse d'accès à la mémoire est lente, mais elle peut enregistrer des données pendant une longue période.

La mémoire vive statique (SRAM) et la mémoire vive dynamique (DRAM) sont largement utilisées dans les systèmes informatiques et les produits électroniques comme mémoire volatile pour le stockage temporaire de données La DRAM est actuellement utilisée dans les applications PC / NB et mobiles. Seigneur, mais à l'appui de la virtualisation, des graphiques et d'autres applications complexes en temps réel travaillera également à augmenter d'année en année. DRAM de 80 ans il y a plus de 20 société de production mondiale, actuellement que Samsung (Samsung), SK Hynix (SK Hynix) et Micron et trois autres marchés oligopolistiques, les catégories d'applications de la classe PC principale et de l'électronique grand public (tels que iPod), téléphones mobiles, tablettes, appareils portables, voitures intelligentes, la demande de voitures sans conducteur DRAM est également en croissance.

Une mémoire à lecture seule (ROM) ou une mémoire réinscriptible tel qu'un disque dur mécanique traditionnel (un disque dur), lecteur à état solide (SSD), une mémoire flash (mémoire flash) et comme bien qu'il existe différentes de lecture et d'écriture caractéristiques, mais sont encore l'alimentation est coupée Il peut enregistrer des données pendant une longue période.La vitesse de fonctionnement du flash est plus rapide que celle du disque dur général, de sorte qu'il devient progressivement grand public.

Flash et l'architecture de mémoire ROM peuvent être divisés en parallèle (NOR) en tandem (NAND), une mémoire flash parallèle (NOR-Flash) est commun dans le BIOS de la carte mère, la mémoire flash de type tandem (NAND-Flash) est commun dans les généraux produits électroniques grand public, tels que les téléphones mobiles, les lecteurs flash, SSD, etc., la technologie flash NAND continue d'évoluer avec le processus, les coûts de capacité unité continuent de diminuer, a été dans le téléphone intelligent, les systèmes embarqués et les applications industrielles beaucoup de popularité au cours des dernières années, utilisées dans les grandes et de plus en plus le stockage de données augmenter le nombre de demande de bloc-notes disques SSD, SSD fait par le NAND-flash a progressivement remplacé le disque dur d'une tendance générale pour les grands fabricants Samsung, Toshiba et SK Hynix.

Les DRAM et NAND Flash présentent des caractéristiques et des coûts complémentaires: grande bande passante de transmission par seconde, coût unitaire élevé et grande consommation d'énergie, faible vitesse de transmission, faible coût par unité et faible consommation d'énergie. Le marché et la fonction sont séparés, et constituent également deux grands camps de produits de mémoire actuels: en réponse à la croissance explosive de l'Internet des Objets, aux données volumineuses et aux nuages, la mémoire est indépendante ou intégrée et constituera un élément clé de l'architecture système. .

À l'horizon 2020, le marché mondial de la mémoire s'élèvera à 79,51 milliards de dollars, dont 38,9% pour la mémoire DRAM, 55,1% pour la mémoire Flash NAND et 2,0% pour la prochaine génération.

Cependant, en raison du goulot d'étranglement et de l'impact de la mémoire principale DRAM et NAND sur le processus de miniaturisation, trouver des solutions alternatives ou changer les circuits pour répondre aux futurs besoins de stockage de données sera le problème le plus important dans l'industrie de la mémoire.

Les trois principaux paramètres de développement de la prochaine génération de mémoire incluent le coût, la performance des composants, l'évolutivité et la densité, etc., où les coûts comprennent les particules de mémoire, les modules et les circuits de contrôle, etc. Etc.

La mémoire de la prochaine génération est maintenant généralement orientée vers la modification de la façon dont les charges stockées ont été utilisées pour accéder aux données, et la révision du mécanisme d'état de stockage pour résoudre les limitations du processus. Le processus avancé et les excellents talents R & D sont dans une position très avantageuse dans la mémoire R & D. Nous devons saisir les avantages, améliorer la chaîne écologique de l'industrie électronique, éviter d'être soumis au monopole du marché étranger par le marché de la mémoire et maintenir sa position sur le marché mondial. La compétitivité des industries taïwanaises (L'auteur est chercheur à l'Institut national de science expérimentale et de technologie et le centre d'information)

Introduction STPI

Le Centre national de recherche expérimentale pour la politique scientifique et technologique (STPI) a été créé en 1974. Il a longtemps été responsable de la collecte, la construction, l'analyse, le traitement et les services de données nécessaires au développement de la science et de la technologie en Chine. base de ressources, et de renforcer l'analyse des tendances de recherche, d'explorer les questions clés, l'analyse du renseignement des brevets, l'innovation et l'esprit d'entreprise pour promouvoir l'énergie égale, et d'aider la carte du gouvernement sur la vision et la stratégie de développement scientifique et technologique, vers la recherche sur les politiques de réflexion spécialisé dans la technologie avant. quotidien économique

3. Immervision et Socionext collaboreront pour fournir le kit de développement panomorphEYE;

MONTRÉAL - (BUSINESS WIRE) - Immervision et Socionext ont annoncé aujourd'hui la création d'un partenariat stratégique pour l'intelligence artificielle (IA) et des robots pour robots, automobiles, drones et autres appareils intelligents. Applications d'apprentissage (ML) pour développer conjointement le premier système de capteurs de vision intelligents et complets Le kit de développement PanomorphEYE devrait être lancé et lancé en juillet 2018.

Grâce à la coopération entre nos deux sociétés, tout le monde a le potentiel d'utiliser des systèmes de vision intelligents développés pour les appareils et les machines intelligents.La combinaison unique de vision intelligente et de conception SoC avancée avec des capteurs embarqués permet à chacun d'imaginer Des produits intelligents.

Ceci

panomorphEYE perspective de fusion 3D, 360 degrés autour de l'image, la TOF (TOF), gyroscope, boussole et autres capteurs, le prototypage rapide, plus court temps sur le marché et ont la capacité d'améliorer le produit précieux.

ImmerVision le facteur humain dans l'introduction de dispositifs globaux à travers une image grand angle panoramique unique capture, données-In-Picture et les capacités de traitement d'image pour réaliser la vision intelligente, d'améliorer la capacité de la perception humaine environnement.

Socionext offre système expertise inégalée système sur puce (SoC), fournit l'imagerie, la mise en réseau et la puissance de calcul pour le premier équipement d'aujourd'hui. Ensemble, les sociétés se sont engagées à fournir une capacité de vision supérieure, l'autonomie et de l'intelligence pour aider les appareils d'aujourd'hui pour voir pour plus, voir plus intelligent.

ImmerVision vice-président exécutif et chef de la direction des affaires Alessandro Gasparini a expliqué: « grâce à la coopération entre nos deux entreprises, tout le monde pourrait passer système de vision intelligente pour les appareils intelligents et le développement de la vision de la machine intelligente et la conception de SoC de pointe et une planche. La combinaison unique de capteurs permet à quiconque d'imaginer des produits plus intelligents.

Mitsugu Naito, vice-président senior société Socionext a déclaré: « la coopération réussie entre le Immervision et Socionext été diverses applications de traitement d'image et de caméra pour fournir des solutions de pointe pour aujourd'hui, je suis très heureux d'annoncer leur partenariat stratégique est entré dans une nouvelle. étape. nous allons améliorer encore la capacité de la vision humaine et la machine pour aider les gens à vivre une vie plus efficace et plus sûr. « Business Wire

4. Personnalisez l'IA et consommez moins d'énergie IBM développe de nouvelles puces de réseau neuronal

Smart Netease Nouvelles 16 Juin nouvelles «réseau de neurones en cours d'exécution sur le GPU a été fait dans le domaine de l'intelligence artificielle de certains progrès étonnants, mais aussi la coopération entre les deux est pas parfait. Les chercheurs d'IBM espèrent concevoir un Spécialement utilisé pour gérer de nouveaux réseaux de réseaux neuronaux afin de fournir des alternatives plus rapides et plus efficaces.

Ce n'est qu'au début de ce siècle que les chercheurs ont réalisé que les GPU (Graphics Processing Units) conçus pour les jeux vidéo pouvaient être utilisés comme accélérateurs matériels pour faire fonctionner des réseaux neuronaux plus importants qu'auparavant.

Ceci est dû au fait que ces puces peuvent effectuer un grand nombre de calculs en parallèle, plutôt que de les traiter séquentiellement comme un CPU conventionnel, ce qui est particulièrement utile pour calculer simultanément les poids de centaines de neurones constituant un réseau neuronal d'apprentissage profond.

L'introduction des GPU a permis à ce domaine de se développer, mais ces puces doivent encore séparer le traitement et le stockage, ce qui signifie que beaucoup de temps et d'efforts sont consacrés au transfert de données entre les deux. Des technologies de stockage qui peuvent stocker et traiter les données de poids au même endroit, augmentant ainsi la vitesse et l'efficacité énergétique.

Les nouveaux dispositifs de mémoire stockent des données sous forme analogique en ajustant leurs niveaux de résistance, c'est-à-dire que les données sont stockées dans une plage continue, plutôt que dans la mémoire binaire 1 et 0. Les informations sont stockées dans la mémoire. Dans la conductance de la cellule, il est donc possible de simplement transférer la tension entre les cellules de mémoire et laisser le système effectuer le calcul par des moyens physiques.

Cependant, les défauts physiques inhérents de ces dispositifs signifient que leur comportement est incohérent, ce qui conduit à la précision de classification actuelle de leur utilisation pour former des réseaux neuronaux est nettement inférieure à l'utilisation de GPU.

« Nous pouvons être effectué sur un GPU plus rapide que le système ferroviaire, mais si l'opération de formation ne sont pas si précis, il est inutile, » qui dirige le projet au chercheur post-doctoral de recherche IBM Stefano Ambrogio a déclaré dans une interview Singularity Hub, « à jusqu'à présent, il n'y a aucune preuve que l'utilisation de ces nouveaux appareils peuvent être aussi précis que l'utilisation de GPU.

Mais la recherche a fait de nouveaux progrès. Dans la dernière semaine a publié un article dans le magazine « Nature », Ambrogio et ses collègues décrivent comment ils profitent de la mémoire et des composants électroniques émergents analogiques traditionnels combinés pour créer une sorte de puce qui peut être adapté à la précision de la GPU, courir plus vite, moins la consommation d'énergie.

La raison pour laquelle ces nouvelles technologies de stockage sont difficiles à former des réseaux neuronaux profonds est que ce processus nécessite la stimulation de milliers de neurones jusqu'à ce que le réseau soit complètement aligné.La modification de la résistance de ces dispositifs nécessite la reconfiguration de leurs structures atomiques. Et chaque fois que le processus opératoire est différent, dit Ambrogio, ces stimuli ne sont pas toujours les mêmes, ce qui conduit à un ajustement inexact du poids des neurones.

Les chercheurs ont résolu ce problème en créant des «unités synaptiques» dont chacune correspond à un seul neurone dans le réseau avec à la fois une mémoire à long terme et une mémoire à court terme. La combinaison d'une cellule PCM) et trois transistors et un condensateur, le PCM stocke des données de poids dans la résistance, et le condensateur stocke les données de poids comme une charge.

Le PCM est une sorte de «mémoire non volatile», ce qui signifie que même s'il n'y a pas de source d'alimentation externe, il peut conserver les informations stockées et que le condensateur est «volatile», il ne peut donc maintenir sa charge qu'en quelques millisecondes. Mais les condensateurs n'ont aucune variabilité des dispositifs PCM et peuvent donc être programmés rapidement et avec précision.

Lorsque l'image du réseau de neurones est formé pour effectuer la tâche de classification, seuls les poids de condensateur droit sont mis à jour. Après avoir parcouru plusieurs milliers d'images, des données de poids seront transférées à l'unité PCM pour le stockage à long terme. Variabilité PCM signifie que le poids Le transfert de données peut encore contenir des erreurs, mais puisque l'unité n'est mise à jour qu'occasionnellement, la conductance peut être vérifiée à nouveau sans augmenter la complexité du système.Ambrogio a déclaré que si une formation directement sur l'unité PCM, ce n'est pas possible.

Pour tester leur dispositif, les chercheurs sur leur réseau ont mené une série de résultats de référence de reconnaissance d'image populaires obtenus tensorflow de grande précision et Google les principaux logiciels de réseau de neurones. Mais il est important, ils prédisent, et, finalement, construire puce GPU de 280 fois plus d'énergie efficace, mais aussi mis en œuvre sur la force de l'opérateur par millimètre carré à 100 fois de la CPU. en particulier, les chercheurs ont pas entièrement construit la puce.

Bien que de vraies unités PCM aient été utilisées dans les tests, d'autres composants ont été simulés sur l'ordinateur, Ambrogio a déclaré qu'ils espéraient vérifier si cette méthode est réalisable avant d'investir du temps et de l'énergie dans la construction d'une puce complète. Décidé d'utiliser de vrais équipements PCM, car la simulation de ces équipements n'est pas encore fiable, mais la technologie analogique des autres composants est déjà mature, ils sont confiants de construire une puce complète basée sur cette conception.

Il ne peut rivaliser avec les GPU que sur des réseaux neuronaux entièrement connectés.Dans ce réseau neuronal, chaque neurone est connecté aux neurones de la couche supérieure, a indiqué M. Ambrogio, mais en réalité, de nombreux réseaux neuronaux ne sont pas entièrement connectés. Ou seulement certaines couches sont complètement connectées ensemble.

Mais Ambrogio ladite puce finale sera conçue pour former en coopération avec le GPU, de sorte que le processus de traitement de calcul peut être entièrement couches reliées tandis que d'autres connexions. Il croit aussi que ce processus méthode plus efficace peut être couche entièrement connecté Plus largement utilisé.

Quel genre de choses sont possibles avec une telle puce dédiée?

Ambrogio dit qu'il ya deux applications principales: l'une est l'intelligence artificielle appliquée à des appareils personnels, et, deuxièmement, pour rendre le centre de données de grandes entreprises technologiques plus efficaces qui est une préoccupation majeure parce que leurs serveurs consomment beaucoup d'électricité.

Si l'intelligence artificielle est appliquée directement aux appareils personnels, les utilisateurs peuvent sauvegarder leur vie privée en n'ayant pas à partager leurs données dans le cloud, mais Ambrogio a déclaré que la perspective la plus excitante est la personnalisation de l'intelligence artificielle.

Il a déclaré: «En appliquant ce réseau de neurones à votre voiture ou votre smartphone, ils peuvent continuer à apprendre de votre expérience.

"Votre téléphone mobile sera personnalisé pour votre voix, votre voiture sera également basée sur vos habitudes pour former un style de conduite unique."

2016 GoodChinaBrand | ICP: 12011751 | China Exports