Nandan Nayampally que o referido processador é agora não apenas os dispositivos móveis têm a capacidade, mesmo muito pequena microcontrolador (MCU), são fornecidos com as capacidades de processamento de desempenho AI básicos, tais como o braço Cortex-M0, Braço Cortex-M3 série, agora você pode executar modelos de aprendizagem de máquina voz de vídeo ou em termos do acima.
À medida que cada vez mais processadores móveis que apresentam recursos ou recursos de IA são introduzidos, ele observa que há cada vez mais processadores de aplicativos de AP que combinam funções de CPU e GPU e são usados para lidar com operações de AI de diferentes tipos de aplicativos. Por exemplo, detecção de objetos, reconhecimento de fala ou reconhecimento de faces.Não somente esses processadores de aplicativos usam arquitetura ARM, muitos dispositivos inteligentes com recursos de AI no mercado também têm arquiteturas ARM, como dispositivos de fala inteligentes, câmeras inteligentes ou É uma TV inteligente e assim por diante, mesmo na nuvem, ele disse, e agora sua arquitetura também tem sido usada na China, os supercomputadores do Japão para fazer diferentes aplicações.
Nandan Nayampally enfatizou que depois, a inteligência artificial se tornará cada vez mais popular em dispositivos móveis. "Quase todos os dispositivos podem ser implementados." Quanto ao tipo de aplicações de IA que podem ser executadas, ele disse que dependerá do hardware do dispositivo. Outras explicações, Machine Learning (ML) e AI são softwares e rodam em hardware.Se for uma aplicação AI simples, não precisa passar por muitos cálculos, basta apenas CPU ou GPU, se operações altamente complexas são necessárias Neste momento, é necessário usar o Acelerador de Rede Neural para acelerar cálculos para aplicações de IA mais avançadas.
Nandan Nayampally disse que o futuro da empresa vai continuar a reforçar a CPU, GPU ou aprender poder de processamento AI da máquina, não só na arquitetura de design irá adicionar mais conjunto de instruções, ou ferramentas, para proporcionar a aprendizagem de máquina, aprendizagem profunda ainda mais poderoso suporte também será otimizado através de software de programação, a fim de desempenhar um maior eficiência, ele, por exemplo, lançou recentemente Cortex-A76 arquitetura de CPU, na implementação da tarefa aprendizado de máquina, você pode obter do que a geração anterior A75 aumento de desempenho de 4 vezes, enquanto o Mali-G76 GPU, também, G72 3 vezes maior do que a eficácia total do desempenho.
Não só o desenvolvimento de chips e de design em conjunto com AI, ARM este ano também começou a se concentrar acelerador de rede neural, que lançou o Projeto Trillium novo processador Aprendizagem arquitetura Machine (MLP) e processador de Detecção de Objeto (ODP) duas novas séries IP, que é publicado no início deste ARM ano a nova inteligência artificial (AI) família de chips.
operação 3Teraflops O primeiro é usado para acelerar a aprendizagem de máquina, cada um do desempenho de ponto flutuante processador até 4.6Teraflops, mas também mais potência, o consumo de energia pode ser alcançado desempenho de ponto flutuante por watt. Este último é acelerado para a visão de computador comparação com DSP tradicional ASIC sinal digital, aumento de desempenho até 80 vezes, e pode lidar com até 60 frames por segundo em vídeo de alta definição Full HD.
Não só isso, Nandan Nayampally está bastante otimista sobre a aplicação do Object Detection em aplicações de AR e VR, e até disse que a empresa comprou a Apical dois anos atrás como uma empresa de tecnologia focada em visão computadorizada embutida e aplicações de imagem. Para ajudar a acelerar sua entrada no mercado de dispositivos AR, VR, além dos produtos ARM existentes que já suportam a computação visual (Vision computing), ele disse que haverá soluções Vision de próxima geração.