'Trend' Inventario de tecnología de almacenamiento de última generación: cuatro tecnologías tienen el mayor potencial

1. La próxima generación de inventario de la tecnología de almacenamiento: cuatro tecnologías con mayor potencial; 2. las nuevas exigencias del estallido de la energía cinética de la memoria fuerte; 3.Immervision y Socionext colaborará para proporcionar kit de desarrollo de panomorphEYE; 4. Deje que la AI personalizado y menor consumo de energía de investigación y desarrollo de nuevos IBM Chip de red neuronal

1. La próxima generación de tecnología de almacenamiento de inventario: cuatro tecnologías con mayor potencial;

Con el auge de los dispositivos móviles, aplicaciones de red, para el almacenamiento de datos de alta eficiencia energética y tecnología de memoria aumentando actualmente la demanda de memoria DRAM y tecnología de memoria flash NAND a la corriente principal, pero no de lectura rápida y velocidades de escritura de memoria DRAM para almacenar datos durante mucho tiempo ;. flash NAND los datos pueden ser guardados, pero pobre velocidad de lectura y escritura.

Mientras tanto computing, capacidad de almacenamiento de memoria de próxima generación, tal como una memoria magneto (una MRAM), RAM resistiva (RRAM), la tecnología 3D XPoint y la memoria magnética de alta potencial de spin electrónico (STT-MRAM), etc., para convertirse en la próxima la nueva estrella de la tecnología de memoria generación.

La tecnología MRAM en una velocidad de acceso académica superará DRAM llegar cerca de SRAM, y los datos no se pierde después del apagón, temprano desarrollado por la compañía Everspin, es visto como la próxima generación de tecnología de memoria competidores importantes. 2017 estallido de la tecnología MRAM es una años, la tecnología de la tecnología LSI LSI continuación, celebrada en Japón en Japón organizó un seminario solicitudes internacionales y del sistema, GlobalFoundries ha emitido conjuntamente con la tecnología de desmagnetización térmica emran Everspin que permite que los datos con centígrados los datos almacenados en 150 grados, puede ser de hasta más de una década del proceso de tecnología de proceso de 22 nm, se espera a finales de 2017, 2018 y puesto en producción.

La memoria se ha puesto en I + D, pero perdió a retirar del mercado la memoria costosa TSMC, TSMC Technology Forum 2017, la exposición de la memoria magneto-resistivo ya han proceso de 22 nanómetros incorporado (Emram) la tecnología de producción, prevista 2018 Producción de prueba.

RRAM La ventaja es menor consumo de energía en comparación con NAND, y escribir información más rápido que la memoria flash NAND de 10.000 veces, los principales fabricantes han puesto en la investigación Micron, Sony, Samsung.

TSMC ha anunciado tecnología eRRAM con la producción de 22 nm. 3D arte XPoint principales proveedores como Intel y Micron, utilizando la estructura tridimensional de una configuración de cableado de múltiples capas, la resistencia del cable y el uso de una rejilla para representar 0 y 1, similar en principio un RRAM.

Es un buen reemplazo para los dispositivos de almacenamiento y es casi 1.000 veces más rápido que la memoria flash NAND y también se puede utilizar para aplicaciones computacionales con requisitos de ciclo de instrucciones bajos.

STT-MRAM es una aplicación de tecnología de momento angular de espinela cuántica, tiene alto rendimiento y bajo consumo de DRAM y SRAM, y es compatible con las tecnologías y procesos de fabricación CMOS existentes.

En la actualidad, las empresas de inversión son de IBM y Samsung, Hynix y Toshiba, IBM y Samsung, ya que los trabajos de investigación publicados en IEEE dijo que ha logrado con éxito velocidad de transmisión de 10 nanosegundos y una arquitectura super-poder.

Aunque se espera que el futuro de la memoria de próxima generación para reemplazar parte del mercado de memoria flash DRAM y NAND, o incluso para sustituir la vieja tecnología. Pero yo creo que con la inteligencia artificial, dispositivos de red y más de recogida de datos y la demanda de detección, la tecnología de memoria de próxima generación primera nos centraremos en la principal demanda de nuevas aplicaciones, tales como memorias TSMC incrustados cerradas, y poner en pleno juego las ventajas de la computación y almacenamiento combinado, y aún más el tamaño miniatura, para lograr el montaje penetración de mercado más alto.

Sin embargo, a juzgar por la dinámica de los proveedores, la tecnología eMRAM de 22nm madurará gradualmente después de 2018 y comenzará a tener una gran cantidad de aplicaciones en el mercado.

(El autor es investigador del Instituto Nacional de Políticas y Centro de Información y Tecnología Experimental)

2. Nuevos brotes de demanda Fuerte dinámica de la memoria;

productos electrónicos modernos, la memoria juega un papel indispensable. 2017 semiconductores valor de producción de la industria de más de $ 400 mil millones estimados por primera vez, una de las razones es el aumento de los requisitos de memoria, los fabricantes pueden subir los precios, crecimiento de los ingresos de alrededor de 2.017 cinco por ciento, Samsung de Corea del Sur es el mayor proveedor de memoria, beneficiará a la mayoría. se espera que este auge de la memoria de ondas para continuar impulsando la demanda para el nuevo entorno de Internet, dispositivos portátiles, almacenamiento en la nube y la computación masiva de datos llegará a ser tan impulsada por el mercado de la memoria Energía cinética

En la actualidad, las características de almacenamiento de memoria de acuerdo a los datos después de la energía ha desaparecido se puede dividir en la memoria volátil y no volátil, una memoria volátil puede retener datos después de fallo de energía, alto coste pero de alta velocidad, que se utiliza normalmente para el almacenamiento temporal de datos; no volátiles volátil velocidad de acceso a memoria es lenta, pero la preservación a largo plazo de los datos.

La memoria de acceso aleatorio estática (SRAM) y la memoria dinámica de acceso aleatorio (DRAM) se utilizan ampliamente en sistemas informáticos y productos electrónicos como memoria volátil para almacenamiento temporal de datos. DRAM se utiliza actualmente en PC / NB y aplicaciones móviles. Señor, pero en apoyo de la virtualización, gráficos y otros complejos, aplicaciones en tiempo real también trabajará para aumentar año tras año. DRAM desde hace 80 años, más de 20 compañía global de fabricación, en la actualidad sólo Samsung (Samsung), Hynix (Hynix) y Micron y otros tres mercados de oligopolio, las categorías de aplicaciones de la clase principal de PC y productos electrónicos de consumo (como iPod), teléfonos móviles, tabletas, dispositivos portátiles, autos inteligentes y autos sin conductor demandan DRAM también están creciendo.

La memoria de solo lectura (ROM) o la memoria regrabable como el disco duro mecánico tradicional (HDD), el disco duro de estado sólido (SSD), la memoria flash (memoria flash), etc. tienen diferentes características de lectura / escritura, pero aún así se cortan. Puede guardar datos durante mucho tiempo. La velocidad de operación del flash es más rápida que la del disco duro general, por lo que se convierte gradualmente en la corriente principal.

Flash y arquitectura de memoria ROM se pueden dividir en paralelo (NOR) con tándem (NAND), una memoria flash paralelo (NOR-Flash) es común en el BIOS de la placa, la memoria flash de tipo tándem (NAND-Flash) es común en los productos generales de electrónica de consumo, tales como teléfonos móviles, unidades flash SSD, etc., la tecnología flash NAND continúa evolucionando con el proceso, la unidad de costos de capacidad siguen disminuyendo, ha estado en el teléfono inteligente, dispositivos integrados y aplicaciones industriales mucha popularidad en los últimos años, utilizados en el almacenamiento de datos grande y creciente aumentar el número de unidades SSD portátil demanda, SSD hecha por el NAND-flash ha reemplazado gradualmente el disco duro de una tendencia general de los principales fabricantes Samsung, Toshiba y Hynix.

DRAM y NAND Flash son características y costos complementarios, el primero tiene un gran ancho de banda de transmisión por segundo, un alto costo unitario y un alto consumo de energía, este último tiene una velocidad de transmisión lenta, bajo costo por unidad y bajo consumo de energía, por lo que ambos son El mercado y la función están separados, y también constituyen dos campos principales de productos de memoria actuales. En respuesta al crecimiento explosivo del Internet de las cosas, datos de Big Data y nube, la memoria es independiente o integrada y será un componente clave de la arquitectura del sistema. .

Mirando hacia el 2020, el mercado mundial de la memoria será de US $ 79.51 billones, de los cuales DRAM representa el 38.9%, NAND Flash representará el 55.1%, y la memoria para la próxima generación saltará al 2.0%.

Sin embargo, debido al cuello de botella y al impacto de la memoria convencional DRAM y NAND en el proceso de miniaturización, encontrar soluciones alternativas o cambiar los circuitos para satisfacer las futuras necesidades de almacenamiento de datos será el problema más importante en la industria actual de la memoria.

Las tres principales métricas para desarrollar la próxima generación de memoria incluyen costo, rendimiento de componentes, escalabilidad y densidad, etc., donde los costos incluyen partículas de memoria, módulos y circuitos de control, etc., el rendimiento de los componentes incluye latencia, confiabilidad y durabilidad de retención de datos. Etc.

La próxima generación de la memoria, es ahora generalmente hacia el cambio de la manera más allá de la carga almacenada para acceder a los datos almacenados cambiando el mecanismo para resolver las restricciones del estado en el proceso, además, bajo consumo de energía para el objetivo común de componentes de memoria de próxima generación e incluso Taiwán tiene el mundo de la mayoría procesos y componentes de circuitos avanzados y excelentes personal de I + D, situándose posición muy favorable en el desarrollo de la memoria deben aprovechar la ventaja, mejorar la cadena ecológica de la industria de la electrónica, el monopolio de los fabricantes extranjeros para evitar el tema del mercado de memoria, una posición firme en el mundo, para mantener la competitividad de la industria de Taiwán. (el escritor es un investigador de política en el Centro nacional de investigación e información Research Laboratories)

Perfil STPI

Instituto Nacional de Ciencias Experimentales y de Investigación de Políticas Centro de Tecnología e Información (STPI) fue fundada en 1974, desde hace tiempo se ha dedicado a la investigación y el desarrollo de la ciencia y la tecnología para recopilar los datos necesarios, construir, analizar los problemas del proceso y de servicios. En los últimos años, tanto en la información base de recursos, y fortalecer el análisis de tendencias de investigación, para explorar cuestiones clave, análisis de inteligencia de patentes, la innovación y el espíritu empresarial para promover la igualdad de energía, y para ayudar al gobierno a trazar la visión y la estrategia de desarrollo científico y tecnológico, hacia la investigación de políticas de reflexión especializada en la tecnología hacia adelante. Daily económica

3.Immervision y Socionext colaborarán para proporcionar Development Kit panomorphEYE;

MONTREAL - (BUSINESS WIRE) - Immervision y Socionext anunciaron hoy el establecimiento de una asociación estratégica para la inteligencia artificial (IA) y robots para robots, automóviles, drones y otros dispositivos inteligentes. Aplicaciones de aprendizaje (ML) para desarrollar conjuntamente el primer sistema integral de sensor de visión inteligente. El kit de desarrollo PanomorphEYE está programado para lanzarse y lanzarse en julio de 2018.

A través de la cooperación entre nuestras dos compañías, todos tienen el potencial de usar sistemas de visión inteligente desarrollados para dispositivos inteligentes y máquinas. La combinación única de visión inteligente y diseño de SoC avanzado con sensores integrados le permite a cualquiera imaginarse Productos inteligentes. '

Esto

panomorphEYE perspectiva fusión 3D, 360 grados alrededor de la imagen, el TOF (TOF), giroscopio, brújula y otros sensores, prototipado rápido, menor tiempo de comercialización y tienen la capacidad para mejorar el producto de valor incalculable.

ImmerVision los aspectos humanos en los dispositivos globales a través de un gran angular de captura de imagen panorámica única, Data-in-Picture y capacidades de procesamiento de imágenes para lograr la visión inteligente, mejorar la capacidad del entorno que rodea la percepción humana.

Socionext ofrece sistema-en-chip (SoC) Sistema de una experiencia sin igual, proporciona imágenes, creación de redes y corriente para los equipos más importantes hoy en día la informática. En conjunto, las empresas se comprometen a proporcionar capacidad de visión superior, la autonomía y la inteligencia para ayudar a los dispositivos actuales para ver para más información, véase más inteligente.

ImmerVision vicepresidente ejecutivo y responsable de negocios Alessandro Gasparini explicó: 'a través de la cooperación entre las dos compañías, cada uno podría pasar sistema de visión inteligente para dispositivos inteligentes y el desarrollo de la visión artificial inteligente y diseño SoC avanzada y comida. La combinación única de sensores permite a cualquier persona imaginar productos más inteligentes.

Mitsugu Naito, vicepresidente senior de la compañía Socionext dijo: 'éxito de la cooperación entre la ImmerVision y Socionext habido varias aplicaciones de cámara y de procesamiento de imágenes para proporcionar soluciones de vanguardia para hoy estoy muy contento de anunciar su asociación estratégica ha entrado en una nueva. etapa. vamos a mejorar aún más la capacidad de la visión humana y la máquina para ayudar a la gente a vivir una vida más eficiente y más seguro. 'Business Wire

4. Personalice la IA y consuma menos energía IBM desarrolla nuevos chips de red neuronal

'Noticias inteligentes de NetEase noticias del 16 de junio' sobre la GPU que se ejecuta en la red neuronal ha hecho un progreso sorprendente en el campo de la inteligencia artificial, pero la cooperación entre los dos no es perfecta. Los investigadores de IBM esperan diseñar un tipo Especialmente utilizado para ejecutar nuevas redes de redes neuronales para proporcionar alternativas más rápidas y eficientes.

No fue sino hasta el comienzo de este siglo que los investigadores se dieron cuenta de que las GPU (unidades de procesamiento de gráficos) diseñadas para videojuegos podrían usarse como aceleradores de hardware para ejecutar redes neuronales más grandes que antes.

Esto es debido a un gran número de estos chips se puede calcular en paralelo, en lugar de en el orden en que se procesan como una CPU convencional. Esto es particularmente útil, mientras que el cálculo de la profundidad correcta de aprendizaje redes neuronales compuestas de cientos de neuronas pesados.

La introducción de GPU ha permitido que esta área se desarrolle, pero estos chips aún necesitan separar el procesamiento y el almacenamiento, lo que significa que se gasta mucho tiempo y esfuerzo en la transferencia de datos entre los dos. Esto impulsa a la gente a comenzar a buscar otros nuevos. Tecnologías de almacenamiento que pueden almacenar y procesar datos de peso en la misma ubicación, lo que aumenta la velocidad y la eficiencia energética.

El nuevo dispositivo de almacenamiento mediante el ajuste del nivel de su resistencia para simular los datos almacenados - es decir, los datos se almacenan en un rango continuo, en lugar de una memoria digital como un binario 1 y 0. La información en el almacenamiento En la conductancia de la célula, por lo tanto, es posible simplemente transferir el voltaje entre las celdas de memoria y permitir que el sistema realice el cálculo por medios físicos.

Sin embargo, los defectos físicos inherentes de estos dispositivos significan que su comportamiento es inconsistente, lo que lleva a que la precisión de clasificación actual de su uso para entrenar redes neuronales sea significativamente menor que el uso de la GPU.

"Podemos entrenar en un sistema más rápido que la GPU, pero si la capacitación no es tan precisa, sería inútil", dijo Stefano Ambrogio, investigador postdoctoral en IBM Research que dirigió el proyecto, en una entrevista con Singularity Hub. Hasta el momento, no hay evidencia de que el uso de estos nuevos dispositivos pueda ser tan preciso como usar una GPU.

Pero la investigación ha logrado nuevos avances. En un artículo publicado la semana pasada en la revista Nature, Ambrogio y sus colegas describieron cómo usaron nuevas memorias analógicas y componentes electrónicos más tradicionales para crear Un chip que puede igualar la precisión de la GPU mientras se ejecuta más rápido y con menos consumo de energía.

La razón por la cual estas nuevas tecnologías de almacenamiento son difíciles de entrenar redes neuronales profundas es que este proceso requiere la estimulación de cada neurona hacia arriba y hacia abajo miles de veces hasta que la red esté completamente alineada. Cambiar la resistencia de estos dispositivos requiere reconfigurar sus estructuras atómicas. Y cada vez que el proceso de operación es diferente, dijo Ambrogio, estos estímulos no son siempre los mismos, lo que conduce a un ajuste inexacto del peso de las neuronas.

Los investigadores han resuelto este problema creando "unidades sinápticas" cada una de las cuales corresponde a una sola neurona en la red con memoria a largo y corto plazo. Cada celda consiste en un par de memorias de cambio de fase ( La combinación de una celda PCM y tres transistores y un condensador, el PCM almacena los datos de peso en la resistencia, y el condensador almacena los datos de peso como una carga.

PCM es una especie de "memoria no volátil", lo que significa que incluso si no hay una fuente de alimentación externa, puede retener la información almacenada, y el condensador es "volátil", por lo que solo puede mantener su carga en unos pocos milisegundos. Pero los condensadores no tienen variabilidad de los dispositivos PCM y, por lo tanto, se pueden programar de forma rápida y precisa.

Cuando la imagen red neuronal está capacitado para llevar a cabo la tarea de clasificación, sólo los pesos de condensadores adecuados se actualizan. Después de navegar a varios miles de imágenes, datos de peso serán transferidos a la unidad de PCM para el almacenamiento a largo plazo. Variabilidad PCM significa que el peso la transferencia de datos sigue siendo probable que contenga errores, pero debido a que la unidad sólo de vez en cuando actualizará, por lo que se puede comprobar de nuevo la conductividad sin aumentar la complejidad del sistema. Ambrosio dijo que si la formación directamente en la unidad PCM, que no es factible.

Para probar su equipo, los investigadores llevaron a cabo una serie de pruebas comparativas de reconocimiento de imágenes en sus redes. Los resultados lograron una precisión comparable con el software de red neuronal líder de Google, TensorFlow. Pero, lo que es más importante, predijeron que finalmente se construirían. El chip será 280 veces más eficiente que la GPU, y la potencia computacional por milímetro cuadrado será 100 veces mayor que la de la CPU. Vale la pena señalar que los investigadores aún no han desarrollado completamente el chip.

Aunque se usaron unidades de PCM reales en las pruebas, se simularon otros componentes en la computadora. Ambrogio afirmó que esperan verificar si este método es factible antes de invertir tiempo y esfuerzo en construir un chip completo. Decidió utilizar equipos PCM reales, ya que la simulación de estos equipos aún no es confiable, pero la tecnología analógica de otros componentes ya está madura, confían en construir un chip completo basado en este diseño.

Solo puede competir con GPU en redes neuronales completamente conectadas. En esta red neuronal, cada neurona está conectada a las neuronas en la capa superior, dijo Ambrogio. Pero en realidad, muchas redes neuronales no están conectadas por completo. O solo algunas capas están conectadas por completo.

Pero Ambrogio dicho chip final será diseñado para formar en cooperación con la GPU, por lo que el proceso de cálculo de procesamiento se puede conectar plenamente capas, mientras que otras conexiones. También cree que el método más eficiente este proceso puede ser la capa completamente conectado Más ampliamente utilizado.

¿Qué tipo de cosas son posibles con un chip tan dedicado?

Ambrosio dijo que hay dos aplicaciones principales: una es la inteligencia artificial aplicada a los dispositivos personales, y en segundo lugar, para que el centro de datos grandes compañías tecnológicas más eficientes que es una preocupación importante debido a que sus servidores consumen mucha electricidad.

Si la inteligencia artificial se aplica directamente a los dispositivos personales, los usuarios pueden salvar su privacidad al no tener que compartir sus datos en la nube, pero Ambrogio dijo que la perspectiva más emocionante es la personalización de la inteligencia artificial.

Él dijo: 'Al aplicar esta red neuronal a su automóvil o teléfono inteligente, pueden seguir aprendiendo de su experiencia'.

"Su teléfono móvil se personalizará para su voz, su automóvil también se basará en sus hábitos para formar un estilo de conducción único".

2016 GoodChinaBrand | ICP: 12011751 | China Exports