1. Inventário de tecnologia de armazenamento da próxima geração: as quatro tecnologias têm o maior potencial;
Com a ascensão de dispositivos móveis, aplicações de rede, para o armazenamento de dados eficiente de energia e tecnologia de memória atualmente crescente demanda por memória DRAM e tecnologia de memória flash NAND para o mainstream, mas não rápido ler e escrever velocidades de DRAM para armazenar dados por um longo tempo ;. flash NAND Pode salvar dados, mas a velocidade de leitura e gravação não é boa.
Embora ambos computação, capacidade de armazenamento de memória da próxima geração, tais como uma memória magnetoresistivo (uma MRAM), RAM resistiva (RRAM), tecnologia 3D XPoint e memória magnética de elevado potencial de spin electrónico (STT-MRAM), etc, para se tornar a próxima a nova queridinha da tecnologia de memória geração.
tecnologia MRAM em uma velocidade de acesso acadêmico irá superar DRAM chegar perto de SRAM, e os dados não são perdidos após a falha de energia, no início desenvolvido pela empresa Everspin, é visto como a próxima geração de tecnologia de memória concorrentes importantes. 2017 surto de tecnologia MRAM é um anos, a tecnologia da tecnologia LSI LSI, em seguida, realizada no Japão no Japão organizou um seminário aplicativos e do sistema internacional, GlobalFoundries emitiu em conjunto com a tecnologia emran desmagnetização térmica Everspin que permite que dados com Celsius dados armazenados em 150 graus, pode ser até mais de uma década do processo de tecnologia de processo de 22 nm, que é esperado no final de 2,017, 2,018 e colocado em produção.
A memória tem sido posta em R & D, mas perdeu a retirar mercado de memória caro TSMC, TSMC 2017 Technology Forum, expondo memória magnetoresistive já processo de 22 nanômetros incorporado (Emram) tecnologia de produção, programada 2018 Teste de produção.
RRAM A vantagem é menor consumo de energia em comparação com NAND, e escrever informação mais rapidamente do que a memória flash NAND 10.000 vezes, os grandes fabricantes têm colocado em pesquisa Micron, Sony, Samsung.
TSMC anunciou tecnologia eRRAM com a produção de 22 nm. 3D arte XPoint principais fornecedores como a Intel e Micron, utilizando a estrutura tridimensional de uma configuração de ligação de camadas múltiplas, a resistência do fio e o uso de uma grelha para representar 0 e 1, semelhante, em princípio, um RRAM.
É uma boa alternativa para os dispositivos de armazenamento que tem cerca de 1.000 vezes mais rápido do que a memória flash NAND, também pode ser utilizado para ciclo de instrução requer aplicações de computação baixos.
STT-MRAM é uma aplicação da tecnologia de momento angular espinélio quântico, possui alto desempenho e baixo consumo de energia de DRAM e SRAM e é compatível com tecnologias e processos de fabricação de CMOS existentes.
Atualmente, os principais fornecedores de insumos são IBM e Samsung, SK Hynix e Toshiba, entre os quais a IBM e a Samsung publicaram trabalhos de pesquisa no IEEE, indicando que conseguiram 10 nanossegundos de velocidade de transmissão e super economia de energia.
Embora a próxima geração de memória deva substituir alguns mercados de memórias flash DRAM e NAND no futuro, ela substituirá a antiga tecnologia.Entretanto, acredito que com a inteligência artificial, dispositivos de IoT e mais requisitos de coleta e detecção de dados, a próxima geração de tecnologia de memória será a primeira. Focando nas necessidades de novos aplicativos, como memória embutida bloqueada pela TSMC, e aproveitando ao máximo as vantagens da computação e do armazenamento, reduzindo ainda mais o tamanho para obter uma maior penetração no mercado de componentes.
No entanto, a julgar pela dinâmica do fornecedor, a tecnologia eMRAM de 22nm amadurecerá gradualmente após 2018 e começará a ter um grande número de aplicativos de mercado.
(O autor é pesquisador do Instituto Nacional de Políticas Experimentais de Ciência e Tecnologia e Centro de Informação)
2. Novos surtos de demanda Forte dinâmica de memória;
Em produtos eletrônicos modernos, a memória desempenha um papel indispensável.Em 2017, o valor de saída da indústria de semicondutores ultrapassou US $ 400 bilhões pela primeira vez.Um dos motivos é que a demanda de memória aumentou tanto que os fabricantes podem aumentar o preço de venda. 50 por cento, a sul-coreana Samsung é o maior fornecedor de memória, o maior lucro.Essa onda de expansão da memória deve continuar a ser impulsionada por necessidades emergentes, Internet das coisas, dispositivos portáteis, armazenamento em nuvem e grandes quantidades de computação de dados Energia cinética.
De acordo com as características de armazenamento, a memória atual pode ser dividida em memória volátil e não volátil após a energia ser desligada.A memória volátil não pode ser retida após a energia ser cortada.O custo é maior, mas a velocidade é mais rápida.Geralmente usada para armazenamento temporário de dados; A velocidade de acesso à memória é lenta, mas pode economizar dados por um longo tempo.
A memória de acesso aleatório estático (SRAM) e a memória de acesso aleatório dinâmico (DRAM) são amplamente utilizadas em sistemas de computador e produtos eletrônicos como memória volátil para armazenamento temporário de dados, sendo atualmente usada em PC / NB e aplicativos móveis. Principalmente, mas também aumentará ano a ano em suporte a virtualização, desenho e outros aplicativos de trabalho complexos e em tempo real.A DRAM foi fabricada por mais de 20 empresas em todo o mundo desde a década de 80. Atualmente, existem apenas Samsung, SK Hynix e A Micron e outros três mercados de oligopólio, as categorias de aplicativos da classe principal de PCs e eletrônicos de consumo (como o iPod), telefones celulares, computadores tablet, dispositivos portáteis, carros inteligentes, demanda de carros sem motorista por DRAM também estão crescendo.
A memória apenas para leitura (ROM) ou uma memória regravável, como um disco rígido mecânico tradicional (um HDD), unidade de estado sólido (SSD), uma memória flash (memória flash) e similares, embora existam diferentes de leitura e gravação características, mas ainda estão no fornecimento de energia é cortada Ele pode salvar dados por um longo tempo.A velocidade de operação do flash é mais rápida do que a do disco rígido geral, então gradualmente se torna mainstream.
Flash e arquitetura de memória ROM pode ser dividido em paralelo (NOR) com tandem (NAND), uma memória flash paralelo (NOR-Flash) é comum na BIOS da placa mãe, memória flash do tipo tandem (NAND-Flash) é comum, em geral, os produtos eletrônicos de consumo, tais como telefones celulares, pen drives, SSD, etc., a tecnologia NAND flash continua a evoluir com o processo, a unidade custos de capacidade continuam a diminuir, tem sido no telefone inteligente, dispositivos embarcados e aplicações industriais muita popularidade nos últimos anos, usados em armazenamento de dados grande e crescente aumentar o número de notebook demanda SSDs, SSD feita pelo NAND-flash tem gradualmente substituído o disco rígido de uma tendência geral para os principais fabricantes Samsung, Toshiba e Hynix.
DRAM e o flash NAND tendo características complementares e custo de largura de banda grande, ex por segundo, e maior custo unitário de maior consumo de energia, a velocidade de transmissão último, menor consumo de energia e de custos por unidade é baixo, e, por conseguinte, ambos sobre as propriedades de segmentação de mercado e funcionais, mas também constituem produtos de memória atualmente dois campos, em resposta a coisas, o advento de grandes dados e os dados na nuvem, crescimento explosivo para as gerações, seja autônomo ou incorporado memória, será um componente-chave da arquitetura do sistema .
Olhando para 2020, o mercado de memória global será de US $ 79,51 bilhões, dos quais DRAM é responsável por 38,9%, o NAND Flash será responsável por 55,1% e a memória da próxima geração saltará para 2,0%.
No entanto, devido ao gargalo e ao impacto da memória principal DRAM e NAND no processo de miniaturização, encontrar soluções alternativas ou mudar circuitos para atender às necessidades futuras de armazenamento de dados será a questão mais importante na atual indústria de memória.
As três principais métricas para desenvolver a próxima geração de memória incluem custo, desempenho do componente, escalabilidade e densidade, etc., onde os custos incluem partículas de memória, módulos e circuitos de controle, etc .; o desempenho do componente inclui latência, confiabilidade e durabilidade de retenção de dados. Etc.
A próxima geração de memória, é agora geralmente para mudar a maneira após a carga armazenada para acessar dados armazenados alterando o mecanismo para resolver restrições do Estado sobre o processo, além disso, baixo consumo de energia para o objetivo comum de componentes de memória de próxima geração e até mesmo Taiwan tem o mundo mais avançados processos e circuitos componentes e excelentes pessoal de I & D, de pé posição muito favorável no desenvolvimento da memória deve aproveitar a vantagem, melhorar a cadeia ecológica da indústria eletrônica, o monopólio dos fabricantes estrangeiros para evitar o assunto do mercado de memória, uma posição firme no mundo, para manter A competitividade das indústrias de Taiwan (o autor é pesquisador do Instituto Nacional de Política de Pesquisa e Informação Experimental)
Introdução ao STPI
O Instituto Nacional de Pesquisa Experimental Center for Science and Technology Policy (STPI) foi criado em 1974. Ele tem sido responsável pela coleta, construção, análise, processamento e serviços de dados necessários para o desenvolvimento da ciência e tecnologia na China. Com base nos recursos, fortaleceremos a análise de tendências, questões-chave, análise de inteligência de patente, inovação e promoção do empreendedorismo e ajudaremos o governo a mapear a visão e a estratégia do desenvolvimento científico e tecnológico da China e avançar para a pesquisa profissional de think tanks de políticas de ciência e tecnologia.
3. A Immervision e a Socionext irão colaborar para fornecer o kit de desenvolvimento panomorphEYE;
MONTREAL - (BUSINESS WIRE) - A Immervision e a Socionext anunciaram hoje o estabelecimento de uma parceria estratégica para inteligência artificial (IA) e robôs para robôs, automóveis, drones e outros dispositivos inteligentes. Aplicações de aprendizado (ML) para desenvolver em conjunto o primeiro sistema abrangente de sensor de visão inteligente O kit de desenvolvimento PanomorphEYE está programado para ser lançado e lançado em julho de 2018.
Através da cooperação entre nossas duas empresas, todos têm o potencial de usar sistemas de visão inteligente desenvolvidos para dispositivos e máquinas inteligentes.A combinação única de visão inteligente e design avançado de SoC com sensores integrados permite que qualquer um imagine Produtos inteligentes.
Isso
panomorphEYE perspectiva fusão 3D, 360 graus em torno da imagem, o TOF (TOF), giroscópio, bússola e outros sensores, de prototipagem rápida, tempos mais curtos para o mercado e tem a capacidade de melhorar o produto de valor inestimável.
ImmerVision os aspectos humanos em dispositivos globais através de uma captura panorâmica única imagem grande angular, Data-in-picture e de processamento de imagem capacidades para alcançar a visão inteligente, aumentar a capacidade de ambiente envolvente percepção humana.
Socionext fornece system-on-chip (SoC) sistema inigualável experiência, fornece imagens, rede e potência para equipamentos líder de hoje de computação. Juntas, as empresas estão empenhados em fornecer capacidade de visão superior, autonomia e inteligência para ajudar dispositivos de hoje para ver Mais, veja mais inteligência.
ImmerVision vice-presidente executivo e diretor de negócios Alessandro Gasparini explicou: 'através da cooperação entre as duas empresas, todos poderiam passar sistema de visão inteligente para dispositivos inteligentes e o desenvolvimento de visão de máquina inteligente e design avançado SoC e tábua. A combinação única de sensores permite que qualquer pessoa imagine produtos mais inteligentes.
Mitsugu Naito, vice-presidente sênior da empresa Socionext disse: 'cooperação bem sucedida entre a ImmerVision e Socionext sido várias aplicações de câmera e de processamento de imagem para fornecer soluções de ponta para hoje estou muito satisfeito de anunciar sua parceria estratégica entrou um novo. palco. vamos melhorar ainda mais a capacidade da visão humana e máquina para ajudar as pessoas a viver uma vida mais eficiente e mais seguro. 'a Business Wire
4. Personalize a AI e consuma menos energia A IBM desenvolve novos chips de rede neural
'Smart Netease Notícias 16 de junho notícias' rede neural em execução no GPU tem sido feito no campo da inteligência artificial algum progresso incrível, mas também a cooperação entre os dois não é perfeito. Pesquisadores da IBM a esperança de criar um Especialmente usado para executar novas redes de redes neurais para fornecer alternativas mais rápidas e eficientes.
Não foi até o início deste século que os pesquisadores perceberam que as GPUs (Unidades de Processamento Gráfico) projetadas para videogames poderiam ser usadas como aceleradores de hardware para executar redes neurais maiores do que antes.
Isso se deve ao fato de que esses chips podem realizar um grande número de cálculos em paralelo, em vez de processá-los seqüencialmente como um processador convencional, o que é especialmente útil para calcular simultaneamente os pesos de centenas de neurônios que formam uma rede neural de aprendizagem profunda.
A introdução de GPUs permitiu que essa área se desenvolvesse, mas esses chips ainda exigem processamento e armazenamento separados, o que significa que muito tempo e esforço são gastos na transferência de dados entre os dois, o que leva as pessoas a começar a pesquisar novas. Tecnologias de armazenamento que podem armazenar e processar dados de peso no mesmo local, aumentando assim a velocidade e a eficiência energética.
Os novos dispositivos de memória armazenam dados em formato analógico ajustando seus níveis de resistência - ou seja, os dados são armazenados em um intervalo contínuo, em vez da memória binária do binário 1 e 0. porque as informações são armazenadas na memória. Na condutância da célula, é portanto possível simplesmente transferir a voltagem entre as células de memória e deixar o sistema realizar o cálculo por meios físicos.
No entanto, os defeitos físicos inerentes desses dispositivos significa que seu comportamento é inconsistente, o que leva à atual precisão de classificação de usá-los para treinar redes neurais é significativamente menor do que o uso de GPU.
'Podemos ser realizada em uma GPU mais rápida do que o sistema de trem, mas se a operação de treinamento não é tão preciso, é de nenhum uso,' levando o projeto na IBM Research pós-pesquisador Stefano Ambrogio disse em uma entrevista Singularity Hub, 'para Até o momento, não há evidências de que o uso desses novos dispositivos possa ser tão preciso quanto o uso de uma GPU.
Mas a pesquisa fez novos progressos.Em um artigo publicado na semana passada na revista Nature, Ambrogio e seus colegas descreveram como eles usaram novas memórias analógicas e componentes eletrônicos mais tradicionais para criar Um chip que pode igualar a precisão da GPU durante a execução mais rápida e com menor consumo de energia.
A razão pela qual essas novas tecnologias de armazenamento são difíceis de treinar redes neurais profundas é que esse processo requer milhares de vezes até que a rede esteja completamente alinhada, alterando a resistência desses dispositivos requer a reconfiguração de suas estruturas atômicas. E cada vez que o processo de operação é diferente, disse Ambrogio, esses estímulos nem sempre são os mesmos, o que leva a um ajuste impreciso do peso dos neurônios.
Pesquisadores resolveram esse problema criando "unidades sinápticas", cada uma correspondendo a um único neurônio na rede com memória de longo prazo e de curto prazo. Cada célula consiste de um par de memórias de mudança de fase ( A combinação de uma célula PCM e três transistores e um capacitor, o PCM armazena dados de peso no resistor e o capacitor armazena os dados de peso como uma carga.
O PCM é um tipo de 'memória não volátil', o que significa que mesmo que não haja fonte de energia externa, ele pode reter as informações armazenadas e o capacitor é 'volátil', portanto, só pode manter sua carga em poucos milissegundos. Mas os capacitores não têm variabilidade de dispositivos PCM e, portanto, podem ser programados com rapidez e precisão.
Quando a imagem da rede neural é treinada para executar a tarefa de classificação, apenas os pesos de capacitores certas são atualizados. Depois de navegar a vários milhares de imagens, dados de peso será transferido para a unidade de PCM para o armazenamento de longo prazo. Variabilidade PCM significa que o peso transferência de dados é ainda susceptível de conter erros, mas porque a unidade apenas ocasionalmente atualizada, para que possa verificar-se novamente a condutividade sem aumentar a complexidade do sistema. Ambrogio disse que se o treinamento diretamente na unidade PCM, o que não é viável.
Para testar seus equipamentos, os pesquisadores conduziram uma série de testes populares de benchmark de reconhecimento de imagem em suas redes, e os resultados alcançaram uma precisão comparável com o software de rede neural líder do Google, o TensorFlow, mas previram que acabariam se desenvolvendo. O chip será 280 vezes mais eficiente do que a GPU, e a potência computacional por milímetro quadrado será 100 vezes maior que a da CPU.É importante notar que os pesquisadores ainda não construíram completamente o chip.
Embora unidades PCM reais tenham sido usadas nos testes, outros componentes foram simulados no computador, e Ambrogio afirmou que eles esperam verificar se esse método é viável antes de investir tempo e esforço na construção de um chip completo. Decidido a usar equipamentos PCM reais, porque a simulação desses equipamentos ainda não é confiável, mas a tecnologia analógica de outros componentes já está madura, eles estão confiantes para construir um chip completo com base neste projeto.
Ele só pode competir com GPUs em redes neurais totalmente conectadas.Nesta rede neural, cada neurônio está conectado aos neurônios na camada superior, disse Ambrogio.Mas, na realidade, muitas redes neurais não estão totalmente conectadas. Ou apenas algumas camadas estão completamente conectadas.
No entanto, Ambrogio disse que o chip final será projetado para trabalhar com GPUs, de modo que também possa lidar com cálculos de camada de conexão total ao lidar com outras conexões, além de acreditar que esse método mais eficiente de lidar com camadas totalmente conectadas pode ser Mais amplamente utilizado.
Que tipo de coisas são possíveis com um chip tão dedicado?
Segundo Ambrogio, há duas aplicações principais: primeiro, aplicar inteligência artificial a dispositivos pessoais e, segundo, tornar os data centers mais eficientes, o que é uma grande preocupação para as grandes empresas de tecnologia, porque seus servidores consomem muita eletricidade.
Se a aplicação da inteligência artificial diretamente no dispositivo individual, os usuários não têm de partilhar os seus dados na nuvem, aumentando assim a privacidade, mas disse Ambrogio, perspectiva mais emocionante personalizado inteligência artificial.
Ele disse: 'A aplicação de redes neurais em seu carro ou telefone inteligente, eles podem continuar a aprender com suas experiências.'
'O seu telefone irá especificamente personalizado para a sua voz, o seu carro vai formar um estilo de condução única de acordo com seus hábitos.'