Entre as cenas entre AI arquitectura românica e senso de tecnologia, leme Naveen Rao da Intel falando de hardware AI Inteligência Artificial Intel e combinação de software, mas o mais pesado do que as informações postadas aviso Nervana chip de rede neural, de acordo com o plano mais recente chip da Intel AI Nervana PNN L-1000, será oficialmente no mercado em 2019, que é primeiros produtos de processador de rede neural comerciais da Intel.
Há dois anos, Naveen Rao e profundidade de aprendizagem, CEO e co-fundador da startup Nervana Systems. Depois que a empresa foi adquirida pela Intel, Nervana se tornar o núcleo da Intel navios de inteligência artificial, Nervana série PNN surgiram, Naveen Rao é foi nomeado chefe da divisão de produtos de inteligência artificial.
Intel vice-presidente produtos de inteligência artificial divisão, Nervana membro da equipe Carey Kloss On the Road, em uma entrevista com o repórter Business Herald entrevistou o século 21: 'Nossos primeiros dias começou o desenvolvimento do Lago Crest (Nervana série PNN do chip de início de geração, de codinome) foi toda a nossa equipe de cerca de 45 homem, está construindo uma das maiores die (chip de silício), desenvolvemos o Neon (software de aprendizagem de profundidade), pilha de nuvem também construiu, estes são pequenos equipe realizou. mas isso é onde o desafio, haverá uma pequena equipe dores de crescimento passamos muitas horas para obter os primeiros produtos para fora, Nervana fundada em 2014, até os chips realmente sair no ano passado ".
No entanto, depois de se juntar Intel, Nervana pode usar os vários recursos da Intel ', é claro, chamar o recurso não é uma coisa fácil, mas a Intel tem vasta experiência em aspectos do produto de marketing. Ao mesmo tempo, a Intel tem até agora eu tenho visto a melhor cultura pós-silício (pós-silício trazer-up) e análise de arquitetura. 'Carey Kloss disse ao repórter Business Herald, no século 21,' chips produzidos, temos centenas de sistemas em execução ao mesmo tempo, os funcionários Nervana e 6 meses ex-membros também estão apenas se juntou ao dia e de noite para novos produtos. "na sua opinião, Nervana agora em um ritmo razoável, já tem todos os elementos para o sucesso no próximo ano.
Além Nervana, Intel adquiriu artificial empresa emblemática inteligência também inclui foco Movidius sobre o processamento visual, FPGA (field variedade Programmable Gate) gigante Altera, condução inteligente relacionada Mobileye, etc. Na verdade, a partir de 2011, a Intel começou a continuar a investir empresas relacionadas com a AI, incluindo o horizonte Cambrian chinesa, ao mesmo tempo, os concorrentes da Intel estão crescendo NVIDIA GPU triunfo no campo da inteligência artificial; .. Google lançou recentemente o chip AI terceira geração TPU, o chip para a arquitetura de aprendizagem otimização TensorFlow profunda do Google, eo Google para fornecer aos desenvolvedores com um TPU e outros serviços subjacentes; no ano passado, Baidu ARM conjunta, mostrar violeta afiada e Hanfeng fichas sabedoria publicação DuerOS eletrônico, o principal fornecedor de voz interativa resolver programa; Facebook e Alibaba também tem que digitar os chips, que Alibaba Dharma Instituto está desenvolvendo chips de rede neural chamado Ali-NPU, principalmente para cenários de imagem, reconhecimento de vídeo e computação em nuvem.
Neste chip de inteligência artificial 'encontro', a Intel como vai responder?
Três facções hegemonia No geral, o padrão global atual da inteligência artificial ainda não está claro, não pertencem aos seus respectivos tecnologia de guerra locais para explorar, ainda não entrou na guerra total lotado. A inteligência artificial é um conceito geral, diferenças consideráveis em cenários de aplicação específicos, as empresas o foco é diferente, se classificados de acordo com as escolas técnicas e de negócios, as empresas globais podem ser divididos em três facções. é as aplicações do sistema escolar, o representante mais típico de Google e Facebook. não só eles desenvolvem quadro de nível sistema de inteligência artificial tais como estrutura de inteligência artificial famoso Google Tensorflow, Pytorch do Facebook, mas também aplicações de investimento em grande escala. Por exemplo, o Google investiu pesadamente em pesquisa e piloto automático desenvolvimento, negócios tradução 2C lançamento, enquanto o Facebook também tecnologia de inteligência artificial é amplamente utilizado em redes sociais Processamento de imagem, processamento de linguagem natural e muitos outros campos.
A segunda categoria é a facção de chips, a chave é fornecer força de apoio do operador, o maior jogador é a Intel e NVIDIA. Oportunidade de NVIDIA GPU computing para aproveitar as principais necessidades de equipamentos, desempenho do computador em renderização de gráficos, o campo da inteligência artificial e da cadeia de bloco muito proeminente nestas empresas também colocar pressão sobre Intel, enquanto Nvidia e Intel parece 'Intel Inside' diferente, ele prefere tornar-se um operador de plataforma de força real, e o lançamento bem sucedido de sua plataforma CUDA.
Em 30 de maio, a NVIDIA lançou primeira integração do mundo da inteligência artificial e de alta performance plataforma de computação computação --HGX-2, que é atualmente a maior GPU - Computing Platform DGX-2 como um operador tradicional atrás do campo de força. Intel patrão natural para ser superado, negócio de 50 anos, em vez significa que as pessoas de idade nos últimos anos frequentemente empreendidas fusões de grande sucesso e aquisições no campo da inteligência artificial: 2.015 $ 16,7 bilhões aquisição de 'campo gigante programmable gate array' (portas de campo programáveis matriz, FPGA ) Altera, lançou as bases para a futura base de força de cálculo tendência de desenvolvimento, FPGA na computação em nuvem, redes e outros aspectos da computação borda tem um grande potencial; 2016, Intel adquiriu Nervana, a empresa planeja usar essa habilidade na aprendizagem profundidade para lutar GPU, no mesmo ano, também adquiridos startups de chips processamento visual Movidius; 2017 Nian Intel para aquisição de ajuda israelense $ 15,3 bilhões conduzir a empresa Mobileye, destinado a entrar no campo de piloto automático.
Além da aplicação do sistema para enviar e torta chips, a terceira categoria é a aplicação da tecnologia para enviar a maioria das empresas de descanso se enquadram nesta categoria. Embora diferentes empresas têm reclamado de ter um aprendizado profundo, inteligência artificial, mesmo única, profundo acumulação de tecnologia, mas na verdade aplicações de plataforma de tecnologia para enviar e torta chips baseados principalmente. basta enviar mais usuários C-terminal orientadas para a tecnologia, incluindo piloto automático, reconhecimento de imagem e outras aplicações empresariais. objetivamente falando, tecnologia A facção pertence a "o cavalheiro é bom nas coisas e as coisas também são".
Julgando pelo cenário competitivo atual, a System Application School tem gradualmente tirado vantagem geral e tem a maior parte da competitividade no campo da inteligência artificial.Na era dos computadores tradicionais e telefones celulares, os sistemas e chips são mais cooperativos, e os chips são ainda mais Por exemplo, no mercado de computadores, a Intel domina completamente o campo da computação e abrange PCs e máquinas MAC da Apple.No lado do sistema, o Windows e o iOS têm seus próprios méritos e não podem substituir um ao outro, mas sua Intel comum Mas não pode ser substituído.Na era dos telefones celulares, embora o protagonista da computação tenha mudado da Intel para a Qualcomm, o chip ainda está no centro, e sua importância e sistema operacional estão igualmente divididos.
Nos últimos 1-2 anos, a situação mudou rapidamente.A Apple lançou suas próprias táticas para desenvolver e produzir chips MAC.O preço das ações da Intel vem caindo há algum tempo.No campo da inteligência artificial, essa tendência é ainda mais pronunciada devido aos diferentes requisitos dos cenários de computação. Grande, o Google precisa desenvolver chips maduros de acordo com suas necessidades, e é tecnicamente mais viável.Se a Intel quiser customizar chips para diferentes cenários, isso significa que a Intel irá transferir totalmente para 2B, em comparação com o modelo anterior 2B2C, puro O negócio da 2B obviamente será mais parecido com o da Parte B, e a complexidade da linha de negócios aumentará dramaticamente Historicamente, a mudança da empresa de 2C para 2B é geralmente devido à perda de seu domínio central na indústria e tem que recuar. Buscando tempos.
Apostas no NNP Nervana Então, na competição acirrada, como a Intel aumenta ainda mais seu negócio de chips?
Depois Naveen Rao juntou Intel, Intel tornou-se vice-presidente, AI Divisão (AIPG) pessoa responsável, levando a introdução de Intel processador de rede neural (Nervana PNN) chip de série. As ferramentas de software que fornecem propostas para a conferência de desenvolvedores em hardware AIDC ecologia na indústria parece força técnica, ferramentas de software da Intel e hardware não é um problema, mas a ecologia era uma questão em aberto. na era PC, é o núcleo de eco-chip, para que possa construir eco-around chip Intel fazer inexpugnável, mas na era da inteligência artificial, inteligência artificial é o núcleo do sistema ecológico, proporcionando chip count poder é parte da ecologia, contagem de CPU pode fornecer energia, GPU também podem ser fornecidas, a Intel pode produzir, a Nvidia pode produzir, até mesmo o Google, a Apple si produção podem agora aprender em dados profundidade e computação científica, layout chip da Intel principalmente Xeon (Xeon) da série de chips, Movidius VPU chip de visão, série Nervana PNN, bem como FPGA (field programmable gate array). estes artigos segmentos de linha correspondente ao produto, respectivamente, vários cenários de aplicação diferentes.
série Nervana PNN é um processador de rede neural, o treinamento profundidade fase de inferência e aprendizagem, Nervana PNN principalmente para computação fase de treinamento, de acordo com o plano da Intel, 2020 para a profundidade de aprendizagem e formação (Deep Aprendizagem, referido como o 'DL' ) o efeito de 100 vezes. este processador de rede neural pela Intel e concebido em colaboração com o Facebook, você pode prever que o chip deve ser amplamente quadro de aprendizagem de máquina Pytorch Facebook tem um bom suporte, afinal Pytorch das ambições do Facebook Google é a certeza de ser um confronto de Tensorflow mas o mais recente negócio de chips em 2019 será lançado oficialmente, vai mudar o padrão de aprendizagem profunda como imprevisível.
Naveen Rao escreveu em seu blog: 'Estamos desenvolvendo os primeiros processadores de rede neural comerciais Intel Nervana NNP-L1000 (codinome Primavera Crest), previsto para lançamento em 2019 em comparação com a primeira geração de Lake Crest produto, nós. Intel é esperado para Nervana NNP-L1000 vai conseguir 3-4 vezes o desempenho de treinamento. Intel Nervana NNP-L1000 também apoiará bfloat16, que é amplamente utilizado na indústria de um formato de dados numéricos para a rede neural do futuro, a Intel estará em inteligência artificial linha de produtos suporte expandido para bfloat16, incluindo Intel e Intel Xeon FPGA processador. 'na verdade, Primavera Crest lançado no final de 2018 há muito tem sido especulado, mas agora parece que, em 2019 neste momento a estratégia oficial a este respeito, há um atraso, Carey Kloss explicou aos repórteres: 'no nó de processo mais moderno, integramos mais die (chips de silício) podem ser obtidos a velocidade de processamento mais rápido, mas é preciso tempo para a fabricação de wafers de silício , é preciso tempo para se tornar o novo processador de rede neural de silício, que é a razão para o atraso. "
Para a diferença entre as duas gerações de fichas, o referido sua análise: 'processador Lake crista como a primeira geração, em GEMM (cálculo da matriz) e uma computação neural convolucional ter atingido um muito bom utilização de não só se refere a 96% rendimento. a quantidade de uso, mas na ausência de personalização completa, temos também fez a maior parte da situação para alcançar 80% maior do que a utilização de computação GEMM. quando desenvolvemos o chip de próxima geração, se formos capazes de manter um alto calculada usando taxa, novos produtos são três a quatro vezes melhoria de desempenho no desempenho.
Virando-se para a competição, Carey Kloss disse: 'Eu não sei o que o roteiro é que os nossos concorrentes, mas a nossa velocidade de reação é relativamente rápido, então eu acho que não vai estar em desvantagem no processamento de rede neural, tais como bfloat16 tem sido por algum tempo. , e recentemente se tornou mais popular, muitos clientes invocados em apoio do bfloat16 requisitos, temos gradualmente deslocou em favor de bfloat16. 'TPU e ponto de vista contrário do Google, ele acredita que TPU de segunda geração semelhante ao Lago Crest, TPU três gerações semelhante ao da Primavera Crest.
Ataque de todos os lados Além da preocupação Nervana PNN, os chips Xeon da Intel para servidores e grandes dispositivos de computação principais, tais como o nosso supercomputador Tianhe-I e II sobre o uso do processador Intel Xeon de seis núcleos.
Em termos de chip de visual, os negócios da Intel cresceu rapidamente. Fritas Movidius VPU já enfrenta nas, veículos aéreos não tripulados automotivos e outro hardware em mercados emergentes, como Dajiang não tripulado Movidius veículos aéreos, câmeras clipes Tesla e Google têm adotado O chip visual
Movidius líder de mercado Gary Brown disse ao repórter Century Business Herald 21: 'Em Movidius, temos desenvolvido o chip é chamado de unidade de processamento visual VPU VPU é um chip da visão de computador e processador de câmera inteligente para que ambos os chips. Existem três tipos de processamento: processamento ISP, que é o processamento de sinal de imagem, processamento baseado na tecnologia de captura de câmera e visão computacional e aprendizado profundo.
Ele citou Road, cenários de uso específicos incluem produtos VR e robótica, casa inteligente, câmeras industriais, câmera AI, bem como de vigilância e segurança. Onde vigilância e segurança é um mercado enorme, especialmente na China, câmeras de monitoramento e segurança O mercado é particularmente grande e algumas grandes empresas estão desenvolvendo câmeras de vigilância como Hikvision e Dahua.
Gary Brown também mencionou que o campo atual de casa inteligente está crescendo rapidamente, embora o mercado é pequeno, mas se desenvolvendo rapidamente. 'Existem muitas empresas no desenvolvimento de dispositivos inteligentes, como segurança casa inteligente, casa assistente pessoal, campainha inteligente, e acesso aos apartamentos e familiares Controle, mas no campo doméstico, baixo custo, baixo consumo de energia, bateria de longa duração e altíssima precisão são muito desafiadores, pois a sombra externa, por exemplo, se move, pode desencadear um alarme contra roubo e, portanto, é muito baixa. A taxa de alarme falso é muito importante e deve ter boa precisão.
E um dos desafios da empresa é como continuar a criar chips de alta performance, 'Nós temos uma série de estratégias, tais como baixo consumo de energia com um algoritmo de front-end, de modo que podemos desligar a maior parte do chip, apenas uma pequena parte da otimização da operação da função de detecção de rosto Quando um rosto aparece, outros chips serão ativados, o que manterá o sistema de monitoramento facial sempre ativo.Temos também muitos algoritmos de economia de energia para fazer a câmera inteligente da casa durar cerca de 6 meses. ”, Explicou Gary Brown.
Além disso, FPGA Altera encarregado desta linha com a situação. Com a chegada da onda de 5G, análise de dados e cálculo da demanda Things Internet das coisas vai crescer, nó de rede e de acesso ou, pelo menos, dezenas de milhares de milhões de tamanho de classe do que o tamanho de um telefone celular para 1-2 ordens de magnitude maior do que a demanda típica de coisas que precisam ser usado de forma flexível alterar o algoritmo, que é a força do FPGA, FPGA pode ser personalizado para atender às necessidades dos cenários de computação, alterando a sua própria estrutura, que também faz Intel no futuro Tornou-se possível fornecer chips eficientes para tipos de dispositivos mais diferentes.A partir do valor de aquisição de US $ 16,7 bilhões, pode-se observar que a compra da Intel obviamente não é apenas um valor imediato.
Cenários de nível corporativo de rápida quebra De acordo com uma pesquisa recente da Intel, mais de 50% dos clientes corporativos dos EUA estão se voltando para as soluções de nuvem existentes baseadas nos processadores Intel Xeon para atender à demanda inicial de inteligência artificial. Em uma entrevista, todos disseram aos repórteres que não há uma solução única para todos os cenários de inteligência artificial.A Intel combinará tecnologias e negócios de acordo com as necessidades do cliente.Por exemplo, a Intel configurará Xeon e FPGA ou Xeon e Movidius juntos. A fim de alcançar maior desempenho da função de inteligência artificial.
Para a Intel, essas capacidades aprimoradas de inteligência artificial serão amplamente usadas em cenários de nível empresarial.Naveen Rao disse: “Precisamos fornecer uma solução abrangente de classe empresarial para acelerar a transição para a computação artificial baseada em computação no futuro. Isso significa que nossa solução fornece a mais ampla gama de capacidade de computação e pode suportar várias arquiteturas, de miliwatts a quilowatts.
Carey Kloss explicou ainda aos repórteres 21st Century Business Herald chip de inteligência artificial cenário: 'Spring Crest pode-se dizer que os mais altos níveis de arquitetura do processador Nervana Neuron para que seus clientes incluem centro de computação de grande escala, já tem uma base de dados muito fortes. Grandes empresas com trabalho científico, governos, etc. Se você precisa de modelos low-end e pequenos, o Xeon pode ajudá-lo, pois ele pode abrir os dados da nuvem até o fim.
Especificamente, a Intel também é feita para explorar o médico, não tripulada, novo varejo, redes e outros cenários, como na área da saúde, de acordo com relatórios, a Intel é Novartis (Novartis) em cooperação com, o uso de redes neurais para acelerar a profundidade de alta conteúdo Triagem - Este é um elemento-chave no desenvolvimento precoce de medicamentos.A cooperação entre os dois lados reduziu o tempo necessário para treinar o modelo de análise de imagem de 11 horas para 31 minutos - a eficiência aumentou em mais de 20 vezes.
Em termos de não-lojas, a Intel forneceu 'cérebro de computação' para lojas de conveniência não tripuladas Jingdong, e foi implantado e implantado em várias lojas inteligentes (Sinopec Express Store, Jingdong Home) e máquinas de venda inteligentes. Algoritmicamente, JD.com afirmou que os algoritmos de aprendizado de máquina usados por lojas não tripuladas são focados principalmente em conhecimento, conhecimento e conhecimento.Em três direções, a necessidade de usar dados não estruturados, como vídeo, é convertida em dados estruturais devido à comunicação de dados online e offline. O popular algoritmo CNN (convolutional neural network) no campo da visão de máquina, os algoritmos tradicionais de aprendizado de máquina usados na cadeia de suprimentos inteligente, como SVM, regressão linear de estatísticas, regressão logística, etc. No caso de melhores condições de rede A maioria dos dados de vídeo pode ser concluída na nuvem usando um modelo maior.No caso de uma rede ruim, por meio de computação de ponta, como móvel, a computação de borda é feita usando uma rede pequena.O hardware usado inclui servidores de borda da Intel.
Apesar dos fortes inimigos da Intel, a transição foi muito firme com sua expansão.apenas do valor de P & D, de acordo com a IC Insights, o gasto total com P & D dos 10 maiores fabricantes de semicondutores em 2017 foi de US $ 35,9 bilhões. De acordo com o relatório, o gasto com P & D da Intel em 2017 foi de 13,1 bilhões de dólares, representando 36% dos gastos totais do Grupo, que representam cerca de um quinto das vendas da Intel em 2017. Com grandes investimentos de várias empresas, a batalha dos chips AI continuará. Intensificado