'Trend' Inventario de tecnología de almacenamiento de última generación: cuatro tecnologías tienen el mayor potencial

1. Inventario de tecnología de almacenamiento de última generación: las cuatro tecnologías tienen el mayor potencial; 2. La nueva demanda está llena de una fuerte dinámica de memoria; 3. Immervision y Socionext colaborarán para proporcionar el kit de desarrollo panomorphEYE; 4. Personalizar la IA y consumir menos energía. Chip de red neuronal

1. Inventario de tecnología de almacenamiento de última generación: las cuatro tecnologías tienen el mayor potencial;

Con el aumento de aplicaciones de dispositivos móviles e Internet of Things, la demanda de almacenamiento de datos de ahorro de energía y tecnología de memoria está aumentando. Actualmente, las memorias DRAM y NAND son las principales tecnologías de memoria, pero DRAM no puede leer ni escribir datos durante mucho tiempo. Puede guardar datos, pero la velocidad de lectura y escritura no es buena.

Mientras tanto computing, capacidad de almacenamiento de memoria de próxima generación, tal como una memoria magneto (una MRAM), RAM resistiva (RRAM), la tecnología 3D XPoint y la memoria magnética de alta potencial de spin electrónico (STT-MRAM), etc., para convertirse en la próxima la nueva estrella de la tecnología de memoria generación.

La tecnología MRAM en una velocidad de acceso académica superará DRAM llegar cerca de SRAM, y los datos no se pierde después del apagón, temprano desarrollado por la compañía Everspin, es visto como la próxima generación de tecnología de memoria competidores importantes. 2017 estallido de la tecnología MRAM es una años, la tecnología de la tecnología LSI LSI continuación, celebrada en Japón en Japón organizó un seminario solicitudes internacionales y del sistema, GlobalFoundries ha emitido conjuntamente con la tecnología de desmagnetización térmica emran Everspin que permite que los datos con centígrados Se espera que los datos de ahorro a 150 grados, pueden ser tan largos como unos pocos años de tecnología de proceso de 22 nanómetros, hasta el final de 2017, producción de 2018.

La memoria se ha puesto en I + D, pero perdió a retirar del mercado la memoria costosa TSMC, TSMC Technology Forum 2017, la exposición de la memoria magneto-resistivo ya han proceso de 22 nanómetros incorporado (Emram) la tecnología de producción, prevista 2018 Producción de prueba.

RRAM La ventaja es menor consumo de energía en comparación con NAND, y escribir información más rápido que la memoria flash NAND de 10.000 veces, los principales fabricantes han puesto en la investigación Micron, Sony, Samsung.

TSMC ha anunciado tecnología eRRAM con la producción de 22 nm. 3D arte XPoint principales proveedores como Intel y Micron, utilizando la estructura tridimensional de una configuración de cableado de múltiples capas, la resistencia del cable y el uso de una rejilla para representar 0 y 1, similar en principio un RRAM.

Es una buena alternativa a los dispositivos de almacenamiento que tiene casi 1.000 veces más rápido que la memoria flash NAND, también se puede utilizar para el ciclo de instrucción requiere aplicaciones informáticas bajas.

STT-MRAM es una aplicación de tecnología de momento angular de espinela cuántica, tiene alto rendimiento y bajo consumo de DRAM y SRAM, y es compatible con las tecnologías y procesos de fabricación CMOS existentes.

En la actualidad, los principales proveedores de insumos son IBM y Samsung, SK Hynix y Toshiba, entre los que IBM y Samsung han publicado trabajos de investigación en el IEEE, indicando que han logrado con éxito 10 nanosegundos de velocidad de transmisión y una arquitectura de ahorro de energía.

Aunque se espera que la próxima generación de memoria reemplace algunos mercados de memorias flash DRAM y NAND en el futuro, incluso reemplazará la tecnología anterior. Sin embargo, creo que con la inteligencia artificial, dispositivos IoT y más requisitos de recolección y detección de datos, la próxima generación de tecnología de memoria será la primera Centrándose en las necesidades de las nuevas aplicaciones, como la memoria integrada bloqueada por TSMC, y aprovechando al máximo las ventajas de la informática y el almacenamiento, reduciendo aún más el tamaño para lograr una mayor penetración en el mercado de los componentes.

Sin embargo, si el punto de vista dinámico proveedor de la tecnología de 22 nanómetros a mediados de 2018 después de Emram madurar y comenzar a tener un gran número de aplicaciones en el mercado.

(El autor es un investigador de la política en el Centro Nacional de Investigación e Información Research Laboratories) Diario Económico

2. La nueva memoria brote de la demanda de energía cinética fuerte;

productos electrónicos modernos, la memoria juega un papel indispensable. 2017 semiconductores valor de producción de la industria de más de $ 400 mil millones estimados por primera vez, una de las razones es el aumento de los requisitos de memoria, los fabricantes pueden subir los precios, crecimiento de los ingresos de alrededor de 2.017 cinco por ciento, Samsung de Corea del Sur es el mayor proveedor de memoria, beneficiará a la mayoría. se espera que este auge de la memoria de ondas para continuar impulsando la demanda para el nuevo entorno de Internet, dispositivos portátiles, almacenamiento en la nube y la computación masiva de datos llegará a ser tan impulsada por el mercado de la memoria Energía cinética

En la actualidad, las características de almacenamiento de memoria de acuerdo a los datos después de la energía ha desaparecido se puede dividir en la memoria volátil y no volátil, una memoria volátil puede retener datos después de fallo de energía, alto coste pero de alta velocidad, que se utiliza normalmente para el almacenamiento temporal de datos; no volátiles La velocidad de acceso a la memoria es lenta, pero puede guardar datos durante mucho tiempo.

memoria estática de acceso aleatorio (SRAM) y la memoria de acceso aleatorio dinámico (DRAM) se utiliza a menudo en un gran número de sistemas informáticos y productos electrónicos, como el uso temporal de los datos de la memoria volátil. Actualmente DRAM PC / NB y aplicaciones móviles Señor, pero en apoyo de la virtualización, gráficos y otros complejos, aplicaciones en tiempo real también trabajará para aumentar año tras año. DRAM desde hace 80 años, más de 20 compañía global de fabricación, en la actualidad sólo Samsung (Samsung), Hynix (Hynix) y micrones (micras) y tres mercado de oligopolio, el tipo de aplicación de la expansión importante PC y categoría de electrónica de consumo (como el iPod), teléfonos móviles, computadoras tablet, dispositivos portátiles, los vehículos inteligentes, vehículos no tripulados DRAM exigen más y más alto.

La memoria de solo lectura (ROM) o la memoria regrabable como el disco duro mecánico tradicional (HDD), el disco duro de estado sólido (SSD), la memoria flash (memoria flash), etc. tienen diferentes características de lectura / escritura, pero aún así se cortan. Puede guardar datos durante mucho tiempo. La velocidad de operación del flash es más rápida que la del disco duro general, por lo que se convierte gradualmente en la corriente principal.

Flash y arquitectura de memoria ROM se pueden dividir en paralelo (NOR) con tándem (NAND), una memoria flash paralelo (NOR-Flash) es común en el BIOS de la placa, la memoria flash de tipo tándem (NAND-Flash) es común en los productos generales de electrónica de consumo, tales como teléfonos móviles, unidades flash SSD, etc., la tecnología flash NAND continúa evolucionando con el proceso, la unidad de costos de capacidad siguen disminuyendo, ha estado en el teléfono inteligente, dispositivos integrados y aplicaciones industriales mucha popularidad en los últimos años, utilizados en el almacenamiento de datos grande y creciente aumentar el número de unidades SSD portátil demanda, SSD hecha por el NAND-flash ha reemplazado gradualmente el disco duro de una tendencia general de los principales fabricantes Samsung, Toshiba y Hynix.

DRAM y NAND Flash son características y costos complementarios, el primero tiene un gran ancho de banda de transmisión por segundo, un alto costo unitario y un alto consumo de energía, este último tiene una velocidad de transmisión lenta, bajo costo por unidad y bajo consumo de energía, por lo que ambos son El mercado y la función están separados, y también constituyen dos campos principales de productos de memoria actuales. En respuesta al crecimiento explosivo del Internet de las cosas, datos de Big Data y nube, la memoria es independiente o integrada y será un componente clave de la arquitectura del sistema. .

Mirando hacia el 2020, el mercado mundial de la memoria será de US $ 79.51 billones, de los cuales DRAM representa el 38.9%, NAND Flash representará el 55.1%, y la memoria para la próxima generación saltará al 2.0%.

Sin embargo, debido al cuello de botella y al impacto de la memoria convencional DRAM y NAND en el proceso de miniaturización, encontrar soluciones alternativas o cambiar los circuitos para satisfacer las futuras necesidades de almacenamiento de datos será el problema más importante en la industria actual de la memoria.

Las tres principales métricas para desarrollar la próxima generación de memoria incluyen costo, rendimiento de componentes, escalabilidad y densidad, etc., donde los costos incluyen partículas de memoria, módulos y circuitos de control, etc., el rendimiento de los componentes incluye latencia, confiabilidad y durabilidad de retención de datos. Etc.

La próxima generación de la memoria, es ahora generalmente hacia el cambio de la manera más allá de la carga almacenada para acceder a los datos almacenados cambiando el mecanismo para resolver las restricciones del estado en el proceso, además, bajo consumo de energía para el objetivo común de componentes de memoria de próxima generación e incluso Taiwán tiene el mundo de la mayoría procesos y componentes de circuitos avanzados y excelentes personal de I + D, situándose posición muy favorable en el desarrollo de la memoria deben aprovechar la ventaja, mejorar la cadena ecológica de la industria de la electrónica, el monopolio de los fabricantes extranjeros para evitar el tema del mercado de memoria, una posición firme en el mundo, para mantener la competitividad de la industria de Taiwán. (el escritor es un investigador de política en el Centro nacional de investigación e información Research Laboratories)

Perfil STPI

Instituto Nacional de Ciencias Experimentales y de Investigación de Políticas Centro de Tecnología e Información (STPI) fue fundada en 1974, desde hace tiempo se ha dedicado a la investigación y el desarrollo de la ciencia y la tecnología para recopilar los datos necesarios, construir, analizar los problemas del proceso y de servicios. En los últimos años, tanto en la información base de recursos, y fortalecer el análisis de tendencias de investigación, para explorar cuestiones clave, análisis de inteligencia de patentes, la innovación y el espíritu empresarial para promover la igualdad de energía, y para ayudar al gobierno a trazar la visión y la estrategia de desarrollo científico y tecnológico, hacia la investigación de políticas de reflexión especializada en la tecnología hacia adelante. Daily económica

3.Immervision y Socionext colaborarán para proporcionar Development Kit panomorphEYE;

MONTREAL - (BUSINESS WIRE) - Immervision y Socionext anunciaron hoy el establecimiento de una asociación estratégica para la inteligencia artificial (IA) y robots para robots, automóviles, drones y otros dispositivos inteligentes. Las aplicaciones de aprendizaje (ML) desarrollan el primer sistema integral de sensor de visión inteligente. El kit de desarrollo PanomorphEYE está programado para lanzarse y lanzarse en julio de 2018.

A través de la cooperación entre nuestras dos compañías, todos tienen el potencial de usar sistemas de visión inteligente desarrollados para dispositivos inteligentes y máquinas. La combinación única de visión inteligente y diseño de SoC avanzado con sensores integrados le permite a cualquiera imaginarse Productos inteligentes. '

Esto

panomorphEYE perspectiva fusión 3D, 360 grados alrededor de la imagen, el TOF (TOF), giroscopio, brújula y otros sensores, prototipado rápido, menor tiempo de comercialización y tienen la capacidad para mejorar el producto de valor incalculable.

ImmerVision los aspectos humanos en los dispositivos globales a través de un gran angular de captura de imagen panorámica única, Data-in-Picture y capacidades de procesamiento de imágenes para lograr la visión inteligente, mejorar la capacidad del entorno que rodea la percepción humana.

Socionext ofrece sistema-en-chip (SoC) Sistema de una experiencia sin igual, proporciona imágenes, creación de redes y corriente para los equipos más importantes hoy en día la informática. En conjunto, las empresas se comprometen a proporcionar capacidad de visión superior, la autonomía y la inteligencia para ayudar a los dispositivos actuales para ver Más, mira más inteligencia.

ImmerVision vicepresidente ejecutivo y responsable de negocios Alessandro Gasparini explicó: 'a través de la cooperación entre las dos compañías, cada uno podría pasar sistema de visión inteligente para dispositivos inteligentes y el desarrollo de la visión artificial inteligente y diseño SoC avanzada y comida. La combinación única de sensores permite a cualquier persona imaginar productos más inteligentes.

Mitsugu Naito, vicepresidente senior de la compañía Socionext dijo: 'éxito de la cooperación entre la ImmerVision y Socionext habido varias aplicaciones de cámara y de procesamiento de imágenes para proporcionar soluciones de vanguardia para hoy estoy muy contento de anunciar su asociación estratégica ha entrado en una nueva. etapa. vamos a mejorar aún más la capacidad de la visión humana y la máquina para ayudar a la gente a vivir una vida más eficiente y más seguro. 'Business Wire

4. Personalice la IA y consuma menos energía IBM desarrolla nuevos chips de red neuronal

'Noticias inteligentes de NetEase noticias del 16 de junio' sobre la GPU que se ejecuta en la red neuronal ha hecho un progreso sorprendente en el campo de la inteligencia artificial, pero la cooperación entre los dos no es perfecta. Los investigadores de IBM esperan diseñar un tipo Especialmente utilizado para ejecutar nuevas redes de redes neuronales para proporcionar alternativas más rápidas y eficientes.

No fue sino hasta el comienzo de este siglo que los investigadores se dieron cuenta de que las GPU (unidades de procesamiento de gráficos) diseñadas para videojuegos podrían usarse como aceleradores de hardware para ejecutar redes neuronales más grandes que antes.

Esto se debe al hecho de que estos chips pueden realizar una gran cantidad de cálculos en paralelo, en lugar de procesarlos secuencialmente como una CPU tradicional. Esto es especialmente útil para calcular simultáneamente los pesos de cientos de neuronas que conforman una red neuronal de aprendizaje profundo.

La introducción de GPU ha permitido que esta área se desarrolle, pero estos chips aún necesitan separar el procesamiento y el almacenamiento, lo que significa que se gasta mucho tiempo y esfuerzo en la transferencia de datos entre los dos. Esto impulsa a las personas a comenzar a buscar otras nuevas. Tecnologías de almacenamiento que pueden almacenar y procesar datos de peso en la misma ubicación, lo que aumenta la velocidad y la eficiencia energética.

Los nuevos dispositivos de memoria almacenan datos en forma analógica ajustando sus niveles de resistencia; es decir, los datos se almacenan en un rango continuo, en lugar de la memoria binaria de 1 y 0 binarios, porque la información se almacena en la memoria. En la conductancia de la célula, por lo tanto, es posible simplemente transferir el voltaje entre las celdas de memoria y permitir que el sistema realice el cálculo por medios físicos.

Sin embargo, los defectos físicos inherentes de estos dispositivos significan que su comportamiento es inconsistente, lo que lleva a que la precisión de clasificación actual de su uso para entrenar redes neuronales sea significativamente menor que el uso de la GPU.

"Podemos entrenar en un sistema más rápido que la GPU, pero si la capacitación no es tan precisa, sería inútil", dijo Stefano Ambrogio, investigador postdoctoral en IBM Research que dirigió el proyecto, en una entrevista con Singularity Hub. Hasta el momento, no hay evidencia de que el uso de estos nuevos dispositivos pueda ser tan preciso como usar una GPU.

Pero la investigación ha logrado nuevos avances. En un artículo publicado la semana pasada en la revista Nature, Ambrogio y sus colegas describieron cómo usaron nuevas memorias analógicas y componentes electrónicos más tradicionales para crear Un chip que puede igualar la precisión de la GPU mientras se ejecuta más rápido y con menos consumo de energía.

La razón por la cual estas nuevas tecnologías de almacenamiento son difíciles de entrenar redes neuronales profundas es que este proceso requiere la estimulación de cada neurona hacia arriba y hacia abajo miles de veces hasta que la red esté completamente alineada. Cambiar la resistencia de estos dispositivos requiere reconfigurar sus estructuras atómicas. Y cada vez que el proceso de operación es diferente, dijo Ambrogio, estos estímulos no son siempre los mismos, lo que conduce a un ajuste inexacto del peso de las neuronas.

Los investigadores que resuelve mediante la creación de 'medios sinápticas' este problema, las 'unidades sinápticas' que corresponden cada una a una única red neural, mientras que tiene una memoria a largo y corto plazo. Cada célula consta de una memoria de cambio de fase ( PCM) unidades y una combinación de tres transistores y una configuración de condensador, los datos PCM almacenados en la resistencia de ponderación, los datos de peso condensador se almacena como cargas eléctricas.

PCM es una 'memoria no volátil ' lo que significa que, incluso sin una fuente de alimentación externa, se puede retener la información almacenada, y el condensador es' volátil", sólo puede mantener su carga dentro de unos pocos milisegundos. sin embargo, ninguna variabilidad condensador equipo PCM, es posible programar de forma rápida y precisa.

Cuando la imagen red neuronal está capacitado para llevar a cabo la tarea de clasificación, sólo los pesos de condensadores adecuados se actualizan. Después de navegar a varios miles de imágenes, datos de peso serán transferidos a la unidad de PCM para el almacenamiento a largo plazo. Variabilidad PCM significa que el peso la transferencia de datos sigue siendo probable que contenga errores, pero debido a que la unidad sólo de vez en cuando actualizará, por lo que se puede comprobar de nuevo la conductividad sin aumentar la complejidad del sistema. Ambrosio dijo que si la formación directamente en la unidad PCM, que no es factible.

Para probar su equipo, los investigadores llevaron a cabo una serie de pruebas comparativas de reconocimiento de imágenes en sus redes. Los resultados lograron una precisión comparable con el software de red neuronal líder de Google, TensorFlow. Pero, lo que es más importante, predijeron que finalmente se construirían. El chip será 280 veces más eficiente que la GPU, y la potencia computacional por milímetro cuadrado será 100 veces mayor que la de la CPU. Vale la pena señalar que los investigadores aún no han desarrollado completamente el chip.

Aunque las células PCM reales en la prueba, pero los otros componentes son simuladas en el equipo. Ambrosio dijo que esperaban antes de invertir el tiempo y esfuerzo para crear un chip completa, en primer lugar comprobar si esto es factible. Dijo que PCM decidió utilizar equipos reales, debido a que la simulación de estos dispositivos no son muy fiables, pero los otros componentes de la tecnología de simulación ha sido muy madura, tienen la confianza para construir un chip completo basado en este diseño.

También es la única GPU para competir en la red neuronal totalmente conectado, en esta red neuronal, cada neurona está conectada a una capa de neuronas, dijo Ambrogio. Pero, de hecho, muchos de ellos no son totalmente conectado red neuronal, O solo algunas capas están conectadas por completo.

Sin embargo, Ambrogio dijo que el chip final se diseñará para funcionar con GPU, por lo que también puede manejar cálculos de capa de conexión completa cuando se trata de otras conexiones. También cree que este método más eficiente de tratar con capas completamente conectadas puede ser Más ampliamente utilizado.

¿Qué tipo de cosas son posibles con un chip tan dedicado?

Ambrogio dijo que hay dos aplicaciones principales: primero, aplicar inteligencia artificial a los dispositivos personales y, en segundo lugar, hacer que los centros de datos sean más eficientes. Esta última es una gran preocupación para las grandes compañías tecnológicas porque sus servidores consumen mucha electricidad.

Si la inteligencia artificial se aplica directamente a los dispositivos personales, los usuarios pueden salvar su privacidad al no tener que compartir sus datos en la nube, pero Ambrogio dijo que la perspectiva más emocionante es la personalización de la inteligencia artificial.

Él dijo: 'Al aplicar esta red neuronal a su automóvil o teléfono inteligente, pueden seguir aprendiendo de su experiencia'.

"Su teléfono móvil se personalizará para su voz, su automóvil también se basará en sus hábitos para formar un estilo de conducción único".

2016 GoodChinaBrand | ICP: 12011751 | China Exports