inventario tecnologia di storage di prossima generazione 'Trend': quattro tecnologie con il maggiore potenziale

1. La prossima generazione di inventario tecnologia di storage: quattro tecnologie con il maggiore potenziale, 2. le nuove esigenze della scoppio della energia cinetica della memoria forte; 3.Immervision e Socionext collaborerà per fornire kit di sviluppo panomorphEYE; 4. Lasciare l'IA personalizzato e un basso consumo energetico ricerca e sviluppo di nuovi IBM chip di rete neurale

1. La prossima generazione di inventario tecnologia di memorizzazione: quattro tecnologie con maggiori potenzialità;

Con l'aumento dei dispositivi mobili, applicazioni di rete, per la memorizzazione dei dati ad alta efficienza energetica e la tecnologia di memoria attualmente crescente domanda di memoria DRAM e la tecnologia di memoria flash NAND al mainstream, ma non veloce lettura e scrittura velocità di DRAM per memorizzare i dati per un lungo periodo di tempo Flash NAND ;. i dati possono essere salvati, ma scarsa velocità di lettura e scrittura.

Allo stesso tempo, la memoria di nuova generazione che ha capacità computazionali e di memorizzazione, come la memoria magnetoresistiva (MRAM), la RAM resistiva (RRAM), la tecnologia 3D XPoint e la memoria magnetica spin-elettrone ad alto potenziale (STT-MRAM), diventa Il nuovo tesoro della tecnologia della memoria per generazioni.

La tecnologia MRAM in una velocità di accesso accademico supererà DRAM raggiunge vicino alla SRAM, e i dati non vengono persi dopo un'interruzione di corrente, presto sviluppato dalla società Everspin, è visto come la tecnologia di memoria importanti concorrenti di prossima generazione. 2017 scoppio della tecnologia MRAM è un anni, la tecnologia LSI tecnologia LSI poi tenutasi in Giappone in Giappone ha organizzato un seminario internazionale di applicazioni e di sistema, GLOBALFOUNDRIES ha emesso congiuntamente con la tecnologia Emran smagnetizzazione termica Everspin che permette di dati con Celsius dati memorizzati a 150 gradi, può essere fino a più di un decennio del processo tecnologia di processo 22 nm, è previsto per la fine del 2017, 2018 e messo in produzione.

La memoria è stato messo in R & S, ma ha perso di ritirare mercato delle memorie costose TSMC, TSMC 2017 Technology Forum, esponendo già hanno processo a 22 nanometri incorporato di memoria magneto (Emram) la tecnologia di produzione, in programma 2018 nella produzione di prova.

RRAM Il vantaggio è più basso consumo di energia rispetto ai NAND, e scrivere le informazioni più velocemente di memoria flash NAND 10.000 volte, i maggiori produttori hanno messo in ricerca Micron, Sony, Samsung.

TSMC ha annunciato tecnologia ERRAM con la produzione di 22 nm. 3D XPoint arte principali fornitori come Intel e Micron, utilizzando la struttura tridimensionale di una configurazione di cablaggio multistrato, la resistenza del filo e l'uso di un reticolo per rappresentare 0 e 1, simile in linea di principio una RRAM.

È una buona alternativa ai dispositivi di memorizzazione avere quasi 1.000 volte più veloce rispetto alla memoria flash NAND, può essere utilizzato anche per il ciclo di istruzione richiede applicazioni a bassa computing.

STT-MRAM è un'applicazione della tecnologia del momento angolare dello spinello quantico, ha elevate prestazioni e basso consumo energetico di DRAM e SRAM ed è compatibile con le tecnologie e i processi di produzione CMOS esistenti.

Attualmente, i principali fornitori di input sono IBM e Samsung, SK Hynix e Toshiba, tra i quali IBM e Samsung hanno pubblicato documenti di ricerca nell'IEEE, che indicano che hanno raggiunto con successo 10 nanosecondi di velocità di trasmissione e architettura a risparmio energetico.

Si prevede che la prossima generazione di memoria sostituirà alcuni mercati di memorie flash DRAM e NAND in futuro, ma sostituirà anche la vecchia tecnologia.Tuttavia, credo che con l'intelligenza artificiale, i dispositivi IoT e altri requisiti di raccolta e rilevamento dati, la prossima generazione di tecnologia di memoria sarà la prima Concentrandosi sulle esigenze di nuove applicazioni, come la memoria incorporata bloccata da TSMC, e sfruttando appieno i vantaggi del calcolo e dello storage, ridurre ulteriormente le dimensioni per ottenere una maggiore penetrazione nel mercato dei componenti.

Tuttavia, a giudicare dalle dinamiche del venditore, la tecnologia eMRAM a 22 nm maturerà gradualmente dopo il 2018 e inizierà ad avere un gran numero di applicazioni di mercato.

(L'autore è un ricercatore dell'Istituto nazionale di scienza sperimentale e tecnologia politica e centro di informazione)

2. Nuovi focolai della domanda Forte dinamica della memoria;

Nei moderni prodotti elettronici, la memoria svolge un ruolo indispensabile: nel 2017, il valore di uscita dell'industria dei semiconduttori ha superato per la prima volta i 400 miliardi di dollari USA, una delle ragioni è che la domanda di memoria è aumentata così tanto che i produttori possono aumentare il prezzo di vendita. 50 percento, la Samsung coreana è il più grande fornitore di memoria, il più grande profitto. Questa ondata di boom della memoria dovrebbe continuare a essere guidata da bisogni emergenti, Internet of things, dispositivi indossabili, cloud storage e enormi quantità di dati che guideranno il mercato della memoria Energia cinetica

Al caratteristiche di memoria di archiviazione presenti secondo i dati dopo che l'alimentazione è scomparso può essere diviso nella memoria volatile e non volatile, memoria volatile può conservare dati dopo un'interruzione di corrente, alto costo ma ad alta velocità, tipicamente utilizzato per la memorizzazione temporanea dei dati; non volatile volatili velocità di accesso alla memoria è lenta, ma la conservazione a lungo termine dei dati.

Static Random Access Memory (SRAM) e memoria ad accesso casuale dinamica (DRAM) è spesso usato in un gran numero di sistemi informatici e prodotti elettronici, come l'uso temporaneo di memoria dati volatile. DRAM attualmente PC / NB e applicazioni mobili Signore, ma a sostegno della virtualizzazione, grafica e altro complesso, applicazioni in tempo reale lavorerà anche ad aumentare di anno in anno. DRAM da 80 anni fa, più di 20 società globale di produzione, attualmente solo Samsung (Samsung), SK Hynix (SK Hynix) e micron (micron) e tre del mercato di oligopolio, il tipo di applicazione in espansione dalla maggiore PC e categoria elettronica di consumo (come iPod), telefoni cellulari, tablet PC, dispositivi indossabili, veicoli intelligenti, i veicoli senza pilota DRAM richiedono sempre più in alto.

La memoria di sola lettura (ROM) o la memoria riscrivibile come il disco rigido meccanico tradizionale (HDD), l'hard disk a stato solido (SSD), la memoria flash (memoria Flash) ecc. Hanno diverse caratteristiche di lettura / scrittura, ma sono ancora dopo l'interruzione di corrente. Può salvare i dati per un lungo periodo di tempo. La velocità di funzionamento del flash è più veloce di quella del disco rigido generale, quindi diventa gradualmente mainstream.

Flash e architettura di memoria ROM possono essere divisi in parallelo (NOR) con tandem (NAND), una memoria flash parallelo (NOR-Flash) è comune nel BIOS scheda madre, tandem Tipo memoria flash (NAND Flash) è comune nei prodotti generali di elettronica di consumo, come ad esempio telefoni cellulari, flash drive, SSD, ecc, la tecnologia NAND Flash continua ad evolversi con il processo, l'unità dei costi di capacità continuano a diminuire, è stato nella smart phone, dispositivi embedded e applicazioni industriali un sacco di popolarità negli ultimi anni, utilizzati nella memorizzazione dei dati di grandi dimensioni e in crescita aumentare il numero di notebook domanda SSD, SSD fatta dal NAND-Flash ha gradualmente sostituito il disco rigido di una tendenza generale per i principali produttori di Samsung, Toshiba e SK Hynix.

DRAM e NAND Flash sono complementari in termini di caratteristiche e costi: il primo ha una larghezza di banda di trasmissione elevata al secondo, costi unitari elevati e un elevato consumo energetico, quest'ultimo ha una bassa velocità di trasmissione, basso costo per unità e basso consumo energetico, quindi entrambi sono Il mercato e le funzioni sono separati e costituiscono anche due campi principali dei prodotti di memoria attuali: in risposta alla crescita esplosiva dell'Internet of Things, ai big data e ai dati cloud, la memoria è indipendente o incorporata e sarà un componente chiave dell'architettura di sistema. .

Guardando al 2020, il mercato globale della memoria sarà di 79,51 miliardi di dollari, di cui il DRAM rappresenta il 38,9%, il flash NAND rappresenterà il 55,1% e la memoria per la prossima generazione salirà al 2,0%.

Tuttavia, a causa del collo di bottiglia e dell'impatto della memoria mainstream DRAM e NAND sul processo di miniaturizzazione, trovare le soluzioni alternative o cambiare i circuiti per soddisfare le future esigenze di archiviazione dei dati sarà il problema più importante nell'attuale settore della memoria.

Le tre principali metriche per lo sviluppo della prossima generazione di memoria includono costi, prestazioni dei componenti, scalabilità e densità, ecc., Dove i costi includono particelle di memoria, moduli e circuiti di controllo, ecc .; le prestazioni dei componenti includono latenza, affidabilità e durata della conservazione dei dati. e così via.

La prossima generazione della memoria, è ora generalmente verso cambiando il modo in passato la carica immagazzinata per accedere ai dati memorizzati modificando il meccanismo per risolvere le restrizioni dello Stato sul processo, inoltre, un basso consumo energetico per l'obiettivo comune di componenti di memoria di nuova generazione e anche Taiwan ha il mondo di più Il processo avanzato e gli eccellenti talenti di R & S di componenti e circuiti sono in una posizione molto vantaggiosa nella ricerca e sviluppo della memoria: dovremmo cogliere i vantaggi, migliorare la catena ecologica del settore elettronico, evitare di essere soggetti al monopolio del mercato estero e mantenere la sua posizione nel mercato globale. la competitività dell'industria di Taiwan. (lo scrittore è un ricercatore della politica presso il Centro nazionale per laboratori di ricerca di ricerca e di informazione)

STPI Introduzione

Istituto Nazionale per la Scienza Sperimentale e Technology Research Policy and Information Center (STPI) è stata fondata nel 1974, è stato a lungo dedicato alla ricerca e allo sviluppo della scienza e della tecnologia per raccogliere i dati necessari, costruire, analizzare, problemi di processo e di servizio. Nel corso degli ultimi anni, sia nelle informazioni risorse di base, e rafforzare l'analisi delle tendenze di ricerca, di esplorare le questioni chiave, analisi di intelligence di brevetti, l'innovazione e l'imprenditorialità per promuovere la parità di energia, e per assistere il governo tracciare la visione e la strategia di sviluppo scientifico e tecnologico, verso la ricerca politica think tank specializzato nella tecnologia in avanti. Economic Daily

3.Immervision e Socionext collaboreranno per fornire panomorphEYE Development Kit;

MONTREAL - (BUSINESS WIRE) - Immervision e Socionext hanno annunciato oggi la costituzione di una partnership strategica per intelligenza artificiale (AI) e robot per robot, automobili, droni e altri dispositivi intelligenti. Applicazioni di apprendimento (ML) per sviluppare congiuntamente il primo sistema di sensori di visione intelligente completo Il rilascio del kit di sviluppo PanomorphEYE è previsto per luglio 2018.

Attraverso la cooperazione tra le nostre due società, ognuno ha il potenziale per utilizzare sistemi di visione intelligenti sviluppati per dispositivi e macchine intelligenti.La combinazione unica di visione intelligente e design SoC avanzato con sensori integrati consente a chiunque di immaginare Prodotti intelligenti. '

Tweet questo

panomorphEYE prospettiva 3D fusione, 360 gradi intorno all'immagine, il ToF (TOF), giroscopio, bussola e altri sensori, prototipazione rapida, time to market e hanno la capacità di migliorare il prodotto prezioso.

ImmerVision gli aspetti umani in dispositivi a livello mondiale attraverso una cattura delle immagini grandangolari panoramica unica, funzionalità di Data-in-picture e di elaborazione delle immagini per realizzare la visione intelligente, migliorare la capacità dell'ambiente circostante percezione umana.

Socionext fornisce system-on-chip (SoC) Sistema di ineguagliabile esperienza, fornisce immagini, networking e potenza degli apparecchi leader di oggi di calcolo. Insieme, le società sono impegnati a fornire capacità di visione superiore, l'autonomia e l'intelligenza per aiutare i dispositivi di oggi per vedere per di più, vedere di più intelligente.

Alessandro Gasparini, Executive Vice President e Chief Commercial Officer di ImmerVision, ha spiegato: "Attraverso la cooperazione tra le nostre due società, tutti sono in grado di utilizzare sistemi di visione intelligenti sviluppati per dispositivi e macchine intelligenti. La combinazione unica di sensori consente a chiunque di immaginare prodotti più intelligenti.

Mitsugu Naito, vicepresidente senior di Socionext, ha dichiarato: "La collaborazione di successo tra Immervision e Socionext ha sempre fornito soluzioni all'avanguardia per una varietà di applicazioni per l'elaborazione di immagini e telecamere Oggi sono lieto di annunciare che la cooperazione strategica tra le due parti è entrata in una nuova Fase: miglioreremo ulteriormente le capacità umane e di visione artificiale e aiuteremo le persone a vivere una vita più efficiente e sicura. "Business Wire

4. Personalizzare l'intelligenza artificiale e consumare meno energia IBM sviluppa nuovi chip di rete neurali

'Le notizie smart di NetEase del 16 giugno' sulla GPU in esecuzione sulla rete neurale hanno fatto alcuni incredibili progressi nel campo dell'intelligenza artificiale, ma la cooperazione tra i due non è perfetta I ricercatori IBM sperano di progettare un tipo Appositamente utilizzato per eseguire nuove reti di reti neurali per fornire alternative più veloci e più efficienti.

Non è stato fino all'inizio di questo secolo che i ricercatori hanno capito che le GPU (Graphics Processing Unit) progettate per i videogiochi potevano essere utilizzate come acceleratori hardware per gestire reti neurali più grandi di prima.

Ciò è dovuto al fatto che questi chip possono eseguire un gran numero di calcoli in parallelo, piuttosto che elaborarli in sequenza come una CPU tradizionale.Questo è particolarmente utile per calcolare contemporaneamente i pesi di centinaia di neuroni che costituiscono una rete neurale di apprendimento profondo.

L'introduzione delle GPU ha permesso lo sviluppo di quest'area, ma questi chip hanno ancora bisogno di separare l'elaborazione e l'archiviazione, il che significa che molto tempo e sforzi vengono spesi per il trasferimento dei dati tra i due, il che spinge le persone a iniziare a cercarne di nuove. Tecnologie di archiviazione in grado di memorizzare ed elaborare i dati di peso nella stessa posizione, aumentando così la velocità e l'efficienza energetica.

Il nuovo dispositivo di memorizzazione regolando il livello di resistenza per simulare i dati memorizzati - cioè, i dati sono memorizzati in un intervallo continuo, piuttosto che una memoria digitale come un binario 1 e 0. L'informazione nella memoria unità conduttanza, possono essere facilmente trasferiti tra la tensione di cella di memoria e il sistema viene calcolata con metodi fisici.

Ma questi difetti fisici insiti nel dispositivo significa che il loro comportamento non è coerente, che ha portato alla corrente li usa per addestrare la rete neurale precisione della classificazione era significativamente inferiore rispetto all'uso di GPU.

"Siamo in grado di addestrare su un sistema più veloce della GPU, ma se la formazione non è così accurata, sarebbe inutile", ha detto Stefano Ambrogio, ricercatore post-dottorato presso l'IBM Research che ha guidato il progetto, in un'intervista a Singularity Hub. Finora, non ci sono prove che l'uso di questi nuovi dispositivi possa essere accurato come usare una GPU.

Ma la ricerca ha fatto nuovi progressi: in un articolo pubblicato la scorsa settimana sulla rivista Nature, Ambrogio ei suoi colleghi hanno descritto come hanno usato nuove memorie analogiche e componenti elettronici più tradizionali per creare Un chip in grado di eguagliare l'accuratezza della GPU durante l'esecuzione più veloce e con un minore consumo energetico.

La ragione per cui queste nuove tecnologie di archiviazione sono difficili da addestrare in reti neuronali profonde è che questo processo richiede la stimolazione di ogni neurone su e giù migliaia di volte finché la rete non è completamente allineata, cambiando la resistenza di questi dispositivi è necessario riconfigurare le loro strutture atomiche. E ogni volta che il processo operativo è diverso, ha detto Ambrogio: questi stimoli non sono sempre gli stessi, il che porta ad un'accurata regolazione del peso dei neuroni.

I ricercatori hanno risolto questo problema creando "unità sinaptiche" ciascuna delle quali corrisponde a un singolo neurone nella rete con memoria a lungo termine ea breve termine, ciascuna delle quali consiste in una coppia di memorie a cambiamento di fase ( La combinazione di una cella PCM) e tre transistor e un condensatore, il PCM memorizza i dati di peso nel resistore e il condensatore memorizza i dati di peso come una carica.

PCM è un 'memoria non volatile ' che significa che anche in assenza di alimentazione esterna, si può mantenere informazioni memorizzate, e il condensatore è' volatile", può mantenere solo la sua carica in pochi millisecondi. Ma i condensatori non hanno variabilità dei dispositivi PCM e possono quindi essere programmati rapidamente e con precisione.

Quando la rete neurale addestra l'immagine per completare l'operazione di classificazione, verrà aggiornato solo il peso del condensatore.Dopo aver visto alcune migliaia di immagini, i dati di peso verranno trasferiti all'unità PCM per la memorizzazione a lungo termine.La variabilità del PCM significa che il peso Il trasferimento di dati può ancora contenere errori, ma poiché l'unità viene aggiornata solo occasionalmente, la conduttanza può essere ricontrollata senza aumentare la complessità del sistema.Ambrogio ha affermato che se l'allenamento viene eseguito direttamente sull'unità PCM, ciò non è fattibile.

Per testare le loro apparecchiature, i ricercatori hanno condotto una serie di test di benchmark di riconoscimento delle immagini sulle loro reti, ottenendo risultati comparabili con il software di rete neurale leader di Google, TensorFlow, ma, cosa importante, hanno previsto che alla fine si sarebbero accumulati. Il chip sarà 280 volte più efficiente della GPU e la potenza di calcolo per millimetro quadrato sarà 100 volte quella della CPU. Vale la pena notare che i ricercatori non hanno ancora completamente costruito il chip.

Sebbene nei test siano state utilizzate unità PCM reali, altri componenti sono stati simulati sul computer e Ambrogio ha dichiarato che spera di verificare se questo metodo è fattibile prima di investire tempo e sforzi nella creazione di un chip completo. Deciso di utilizzare apparecchiature PCM reali, perché la simulazione di queste apparecchiature non è ancora affidabile, ma la tecnologia analogica di altri componenti è già matura, sono fiduciosi di costruire un chip completo basato su questo progetto.

Può competere con le GPU solo su reti neurali completamente connesse: in questa rete neurale ogni neurone è collegato ai neuroni dello strato superiore, ha affermato Ambrogio, ma in realtà molte reti neurali non sono completamente collegate. O solo alcuni livelli sono completamente collegati tra loro.

Ma Ambrogio ha detto che il chip finale sarà progettato per funzionare con la GPU, in modo che quando si ha a che fare con altre connessioni possa gestire anche calcoli a livello di connessione completa, inoltre ritiene che questo modo più efficiente di trattare i livelli completamente connessi possa essere Più ampiamente usato.

Che tipo di cose sono possibili con un chip così dedicato?

Ambrogio ha detto che ci sono due applicazioni principali: in primo luogo, applicare l'intelligenza artificiale ai dispositivi personali e, in secondo luogo, rendere i data center più efficienti, il secondo è una preoccupazione importante per le grandi aziende tecnologiche perché i loro server consumano molta elettricità.

Se l'applicazione dell'intelligenza artificiale direttamente sul singolo dispositivo, gli utenti non devono condividere i propri dati nel cloud, aumentando così la privacy, ma ha detto Ambrogio, prospettiva più emozionante personalizzato intelligenza artificiale.

Egli ha detto: 'L'applicazione delle reti neurali in auto o smart phone, si può continuare a imparare dalle vostre esperienze.'

'Il telefono appositamente personalizzato per la tua voce, la vostra auto sarà formare uno stile di guida unica in base alle proprie abitudini.'

2016 GoodChinaBrand | ICP: 12011751 | China Exports