Huawei | 'Da Vinci Project' | Exposição: Apresentando AI para todos os produtos, desenvolvendo novos chips

De acordo com a imprensa estrangeira The Information Report, a Huawei formulou internamente o "Plano Da Vinci", também conhecido como "Plano D" pelos executivos da Huawei. O responsável é o vice-presidente da Huawei, Hai Si, empresa de design da Huawei. Presidente Xu Zhijun.

Os principais conteúdos são os seguintes: Primeiro, introduza AI em todos os produtos e serviços da Huawei, incluindo estações base de telecomunicações, datacenters em nuvem, telefones inteligentes, câmeras de vigilância etc. Em segundo lugar, desenvolva novos chips para centros de dados, permitindo reconhecimento de voz, imagens. Aplicativos como reconhecimento podem ser usados ​​na nuvem.

As especulações da Information no plano são: Primeiro, o chip AI da Huawei pode representar uma ameaça para a Nvidia; Segundo, o layout da nuvem da Huawei pode agravar as preocupações do governo dos EUA.

Layout da Huawei AI

O layout AI da Huawei não é novidade.

Lei Feng.com relatou que na Huawei DigiX2018 Terminal Huawei · Parceiro Global e Developer Conference, realizada em 22 de junho, o CEO da empresa de consumo da Huawei Yu Chengdong elaborou sobre a nova estratégia de negócios de consumo da Huawei: a cena completa estratégia ecológica vida inteligente.

Yu Chengdong enfatizou que o ambiente inteligente de cenário completo da Huawei é uma ecologia aberta.Fazendo toda a ecologia, a plataforma aberta de inteligência artificial da Huawei HiAI fornecerá tecnologias de núcleo, extremidade e nuvem em três níveis e capacitará parceiros globais.

Do lado do chip, a Huawei criará uma experiência de operação tranquila através da plataforma de computação móvel HiAI, ferramentas audiovisuais, assistentes de jogos etc. No lado do terminal, a Huawei desenvolve serviços de conexão total e aplicativos completos em hardware inteligente, plataforma HiAI, AR / VR e outros dispositivos. Fornece uma série de recursos de detecção e interação inteligentes, no lado da nuvem, o Huawei Mobile Services (HMS), o AppGallery, etc. atendem às necessidades de uso personalizado do consumidor.

Em setembro de 2017, a Huawei lançou o primeiro celular Kirin 970 AI celular do mundo, adicionando a unidade de processamento de rede neural NPU (a tecnologia é cambriana), em comparação com o CPU, a velocidade de cálculo é aumentada em 25 vezes, a eficiência energética é aumentada 50 vezes. O Huawei Mate 10 e o Mate 10 Pro e o Glory V10 estão equipados com chips Kirin 970.

Atualmente, a Huawei ainda usa o chip GPU da NVIDIA para adicionar funções do AI ao servidor.

China Core 'group' entra no chip de nuvem da AI

A situação da concorrência doméstica está se intensificando.Este ano, Baidu e Cambriano entraram no chip de nuvem da AI.

Em maio deste ano, a Cambrian lançou o primeiro chip inteligente em nuvem Cambricon MLU100.

Entende-se, MLU100 usando a última arquitectura Cambriano MLUv01 e processo de 16nm TSMC, que pode funcionar em modo equilibrado (frequência de 1 GHz) e um modo de alto rendimento (1,3 GHz frequência), o modo equilibrado equivalentes velocidades máximas teóricas de até 128 por segundo triliões aritmética de ponto fixo, a modo de velocidade equivalente teórico máximo de alto desempenho 166,4 biliões de vezes por segundo aritmética de ponto fixo, mas é tipicamente 80 watts placa de alimentação, não excede 110 watts de potência de pico.

4 de julho de 2018 AI Baidu Developers Conference, CEO e Presidente Robin Li, Baidu Baidu lançou o AI chip de auto-desenvolvimento 'Kunlun', que inclui treinamento e chip raciocínio chip de Kunlun 818-300 818-100.

Baidu afirma que este é o primeiro chip full-featured nuvem AI da China, está tão longe maior estudo de design de energia da indústria do chip de AI do ponto parâmetro de vista, 'Kunlun' usando o processo de 14nm Samsung, com 260Tops, 512 GB / s desempenho Largura de banda de memória, consumo de energia superior a 100 watts, consistindo de dezenas de milhares de pequenos núcleos.

Padrão de mercado de chip de nuvem AI

No atual mercado de chips de GPU, a NVIDIA tem uma participação de mercado de 70%, que é um chip leader bem merecido.

Em 2016, a NVIDIA investiu bilhões de dólares, usou milhares de engenheiros e lançou a primeira GPU Pascal otimizada para o aprendizado profundo.Em 2017, ela introduziu uma nova arquitetura de GPU com um desempenho cinco vezes maior do que o Pascal. O acelerador de raciocínio TensorRT 3 também apareceu ao mesmo tempo: o TensorRT, como um acelerador de raciocínio programável, pode acelerar as arquiteturas de rede existentes e futuras.

A Lei Feng.com realizou uma análise detalhada da estrutura do mercado de chips de IA (veja: Hoje, a indústria de chips AI, que será o principal player mundial) Atualmente, o chip de nuvem da IA ​​tem sido controlado por gigantes tradicionais, seja de hardware ou software. .

A imagem a seguir é a lista global de chips de inteligência artificial lançada pela Compass Intelligence.Porque o chip de AI raramente é usado no terminal, a classificação da cabeça da lista pode ser aproximada como a estrutura de mercado atual do chip de nuvem da IA.

Podemos ver que a gigante dos chips Nvidia ocupou firmemente o topo do chip de IA Devido à popularidade da plataforma de desenvolvimento CUDA, a GPU da NVIDIA é a plataforma de computação de hardware de AI de propósito geral mais usada.

Além de empresas com fortes chips de desenvolvimento próprio (são poucas no mundo), se você precisa trabalhar com AI, você deve usar os chips da Nvidia, que são comuns, e agora todas as bibliotecas de software suportam o uso da aceleração CUDA. , incluindo o Tensorflow do Google, o Caffe do Facebook, o MXNet da Amazon, etc.

Agora, o foco do debate da indústria é qual é a melhor arquitetura de processadores para chips AI, incluindo GPUs, FPGAs, DSPs e ASICs, e ainda mais chips neuromorfos cerebrais de ponta Agora a GPU está em uma posição dominante, mas vários outros A arquitetura do processador também tem suas próprias vantagens.

A Intel é uma aposta multipartidária, não perca nenhum tipo de arquitetura de processador O enorme investimento do Google em TPU (na verdade, um ASIC) trouxe um aumento significativo no desempenho de hardware, parece que o impacto na GPU será o maior O motivo não é apenas por causa das vantagens de eficiência trazidas pela arquitetura dedicada, mas também pela vantagem de custo trazida pelo modelo de negócios.

Na nuvem, os gigantes internacionais se tornaram o líder ecológico de fato, porque a computação em nuvem é o campo de batalha dos gigantes.Agora todos os frameworks de IA de código aberto também são lançados por esses gigantes.Em tal ambiente ecologicamente sólido, a Huawei quer Tome uma parte, nuvem doméstica chips AI quer avançar para o top cinco, ou até mesmo desafiar a Nvidia, não é fácil.

2016 GoodChinaBrand | ICP: 12011751 | China Exports