Il primo prodotto commerciale IP terminale processore intelligente --Cambricon-1A, questo prodotto di prima generazione come processori intelligenti cambriane prodotti terminali IP sono stati utilizzati, tra cui Huawei Mate10, P20, dieci milioni gloria terminale intelligente 10 o simili oltre a 1A, Cambriano ha lanciato il terminale intelligente del processore IP così come 1H, ma nella conferenza di oggi, il fondatore Cambriano tecnologia e CEO Chen Tianshi primo rilasciato i prodotti terminali IP di terza generazione Cambricon 1M.
Secondo i rapporti, 1M utilizzando processo produttivo TSMC 7nm, fino a otto calcolo rapporto prestazioni 5Tops / watt (5 trilioni calcoli per watt), fornendo tre dimensioni core (2Tops / 4TOPS / 8Tops) per soddisfare le diverse scene a diversi La necessità di elaborazione intelligente quantitativa e può ulteriormente migliorare l'efficienza di elaborazione attraverso l'interconnessione multi-core.
Inoltre, 1M IP non solo continuazione delle precedenti generazioni di prodotti completezza 1H / 1A, il nucleo singolo processore per supportare CNN, RNN, profondità SOM e altri modelli di apprendimento, 1M supporta SVM, k-NN, k-Means, Albero decisionale e altri algoritmi classici di apprendimento automatico.
Vale la pena ricordare che, al di là di 1M prestazioni dieci volte 1A è stato ampiamente utilizzato per migliorare le prestazioni delle apparecchiature terminali per sostenere la formazione locale, in grado di fornire la piattaforma di calcolo efficiente per la visione, la parola, l'elaborazione del linguaggio naturale e di altri compiti, l'applicazione . in telefoni intelligenti, altoparlante intelligente, macchina fotografica, autopilota e altri campi Chen Tianshi espresso: '1M è il primo a sostenere l'apprendimento automatico locale e la formazione di processori intelligenti, che significa usare la 1M dispositivo mondo può l'applicazione essere personalizzato sulla base di comportamento degli utenti Personalizzazione
Per quanto riguarda l'atterraggio specifico del prodotto, Chen Tianshi ha dichiarato che il terminale equipaggiato con un prodotto 1H verrà rilasciato quest'anno e attualmente non sono disponibili ulteriori informazioni.
Tuttavia, il primo investitore della newsletter del partito Cambriano ha presentato i rimanenti progetti di cooperazione profondi cambriani durante la conferenza stampa. Secondo i rapporti, l'elaborazione dei dati vocali di un'ora su un processore tradizionale per applicazioni intelligenti richiede 10.000 ore per essere completata, quindi HKUST ha monitorato i progressi dei chip dedicati all'intelligenza artificiale.
Nel 2014, HKUST ha iniziato a comunicare con il primo gruppo di ricerca cambriano sull'implementazione degli algoritmi vocali sul processore e, nel 2016, gli angeli Cambriani hanno iniziato a utilizzare il chip Cambrian nel 2017 prova.
Conferenza iFLYTEK divulgazione dei risultati dei test hanno dimostrato che il Cambriano programma di elaboratore nuvola GPU avanti rispetto alla concorrenza cinque volte di più l'efficienza energetica nella lavorazione vocale intelligente, la precisione del riconoscimento vocale rispetto al processore tradizioni locali anche aumento del 9,8% .
Primo chip smart cloud Cambrian MLU100
Viene rilasciato il primo cloud smart chip MLU 100.
Messa a fuoco rispetto alla introduzione di 1M, Chen Tianshi suo mentore Chen Guoliang ha emesso congiuntamente da prima nuvola smart chip del Cambriano Cambricon MLU100 è questa conferenza. Chen Tian Shi ha detto che tre anni fa abbiamo iniziato una ricerca a due chip e lo sviluppo, abbiamo sempre Preparare il prodotto Cambriano nel cloud.
Lei rete di comprendere, MLU100 utilizzando più recente architettura Cambriano MLUv01 e processo 16nm TSMC, che può funzionare in modo bilanciato (frequenza 1 GHz) e una modalità ad alta prestazione (1,3 GHz di frequenza), la modalità bilanciata per equivalente velocità massime ipotetiche fino a 128000000000000 vista aritmetica a virgola fissa, la modalità a prestazioni elevate equivalenti velocità massima teorica di 166,4 teraflops-aritmetica fissa, ma è tipicamente 80 watt scheda di potenza, non supera 110 watt di potenza di picco.
Chen Tianshi ha anche affermato che, come i processori terminali della serie Cambrian, il cloud chip MLU100 estende anche la versatilità dei prodotti Cambrian, supporta vari tipi di algoritmi di deep learning e classici machine learning, soddisfa visione, parlato, elaborazione del linguaggio naturale, classici. Nel campo del data mining e di altri scenari complessi (come grandi volumi di dati, multi-tasking, multi-modalità, bassa latenza, throughput elevato), le esigenze di elaborazione intelligente del cloud.
In occasione della conferenza stampa di oggi, è stato presentato anche il board con MLU100, che utilizza un'interfaccia PCIe, ispirato agli antichi trilobiti marini nell'era geologica Cambriana, i cui colori principali sono il nero e il blu. Scheda di elaborazione intelligente, Lenovo ha introdotto ThinkSystem SR650, il server cloud intelligente supporterà i clienti Lenovo nel machine learning / VDI / virtualizzazione / cloud / database / analisi / SAP e altre direzioni, China Branch dawn ha anche lanciato simultaneamente l'upgrade 'PHANERON ', Le prestazioni del server sono più robuste, supportano la scheda di elaborazione MLU Cambrian 2-10, in grado di rispondere in modo flessibile a diversi carichi di applicazioni intelligenti.
Per quanto riguarda le prestazioni del primo smart chip basato su cloud, Chen Tianshi ha rivelato il ritardo di calcolo di MLU100 e Tesla V100 e Tesla P4 con l'algoritmo R-CNN nel sito della conferenza.I dati mostrano che il ritardo di calcolo del MLU100 è 125 ms. Il ritardo è di 174 ms e Tesla P4 ha un ritardo di 1069 ms. Il risultato è ovvio.
Tuttavia, Lei Feng rete che l'intelligenza artificiale è un solo hardware, software e hardware di lavoro insieme è fondamentale. Posso vedere che dal 2016 Cambriano Cambriano NEUWARE catena di tool software introdotto gradualmente, la piattaforma terminali e prodotti cloud supporto può essere realizzato su tensorflow, caffe e mxnet di compatibilità API, fornendo biblioteca specializzata alta Cambriano, è possibile sviluppare facilmente applicazioni intelligente, migrazione e sintonizzazione. può facilmente applicazioni di intelligenza lo sviluppo della migrazione e messa a punto, e l'ordine di decine di milioni di utenti attraverso la prova commerciale su larga scala.
Tuttavia, attualmente le GPU di NVIDIA hanno un vantaggio nei server cloud: da un lato, Nvidia è un tradizionale GPU con vantaggi hardware, inoltre gli sviluppatori possono usare il linguaggio C per scrivere programmi per l'architettura CUDA, hardware potente e software di sviluppo facile da usare. È più attraente per gli sviluppatori: in confronto, Nvidia spende più tempo e denaro per CUDA, ed è anche più completo e maturo.Il Cambriano pensa che nel cloud, il chip dell'intelligenza artificiale sia accoppiato con Ying Wei Da. realistico?
Direttore del Northern Light Venture Capital direttore generale della rete Yang Lei Lei Feng ha detto, 'non ho visto un chip start-up, inoltre, pubblicato due lanci di prodotto, solo il vostro massa corporea a Nvidia questo livello, può essere un paio GTC Allo stesso tempo rilascio del prodotto. un chip start-up rilasciato anche diversi prodotti, penso che sia un paio di cose più impegnative '.
"Le società in cui investiamo sono in genere molto profonde in un'area verticale e si concentrano su come fare le cose per diventare un sostituto di Nvidia." Aurora Investment Manager, ex capo del business di Intel per l'intelligenza artificiale in Cina, Zhao Gu, ha aggiunto: "Intel ha conquistato Movidius come mercato di consumo, ha preso Mobileye come un veicolo e ha ricevuto Nervana come prodotto di cloud computing e edge computing, infatti, le grandi dimensioni di Intel non possono supportare contemporaneamente diversi mercati. Profondo, penso che il futuro non sia competitivo.
"La nostra strategia è quella di renderlo più profondo nei diversi mercati verticali e di rendere veramente disponibile l'intero pacchetto di informazioni agli utenti, per renderlo davvero applicabile." La più grande sfida per aziende come Movidius nel mercato cinese non è quella di fornire un completo La soluzione, quindi non c'è modo di scalare ", ha detto anche Zhao Gu.
Cambrian raggiunge la copertura cloud-to-end I piani futuri per il rilascio del linguaggio di programmazione
Qui, non discuteremo ulteriormente se i prodotti dell'era Cambriana possano attualmente essere usati contro lo standard Ying Weida, ma è chiaro che il lancio del Cambrian Cloud Smart Chip ha permesso l'implementazione della copertura end-to-cloud. Chen Tianshi ha detto che la maggior parte del passato I fornitori di chip sono o l'attaccante principale o il cloud, e l'equilibrio tra i due è molto piccolo, perché l'ecologia delle missioni end-of-the-cloud è diversa, pensiamo che questa situazione si romperà nell'era smart I task AI del terminale e del cloud sono integrati. Anche l'ecologia dell'uso è coerente.
In quanto produttore di chip per l'apprendimento automatico di uso generale, Cambrian combina lo sviluppo del cloud per promuovere l'ecologia.Il Cambriano prevede anche di rilasciare il proprio linguaggio di programmazione in futuro.Si augura che i partner possano rilasciare prodotti basati su questo sistema software.