Processador de desenho o crescimento dos negócios do Data Center no 11º trimestre de NVDIA diminuiu acentuadamente nos últimos anos. Se a NVIDIA pode manter a sua posição no campo da inteligência artificial (ai), o surgimento de fichas personalizadas, como o Google TensorFlow Processing Unit (TPU) ameaça a dominância da NVIDIA em profundidade de formação de aprendizagem. Se a Intel, ultra micro (AMD) e todos os novos empreendimentos no campo pode ultrapassar NVIDIA vale a pena mergulhar. De acordo com FUBiS (Forbes), o Instituto de pesquisa de mercado Moor introspections & est analista Karl ele publicou um estudo recentemente, disse que o crescimento surpreendente da NVIDIA em ai causou muita atenção, e trouxe muitos adversários potenciais, Muitas dessas empresas afirmam ter desenvolvido chips que são 10 vezes mais rápido do que a NVIDIA e têm menor consumo de energia. Além da GPU Hyper-micro, todas as empresas acreditam que o chip projetado para lidar com redes neurais é uma rota viável. Intel Intel adquiriu Nervana em 2016 para construir sua carteira de acelerador. O motor Nervana original deve ter sido liberado em 2017, e até agora não houve nenhuma notícia. Nervana pode decidir ajustar seu projeto original após volta Tensorcores, que é 6 vezes mais eficiente do que Pascal, chocou a Comunidade. Que a primeira produção em lote de Nervana chips pode ser publicada no final de 2018. A discussão acima é sobre o treinamento da rede neural profunda (DNN), que é onde a NVIDIA tem feito grande sucesso no ai. No entanto, a Intel diz que ao emparelhar um bom design de software com um processador Xeon datacenter, você pode alcançar um desempenho excepcional no esforço de inferência. A empresa alega ter mais de 80% por cento do mercado de transformação inpreferencial. Google TPU e outros ASIC interno Google tem dois tipos de ASIC disponível para ai: um para inferência e outro para o treinamento. Google fêz a TPU um acelerador para o mercado. Mas na verdade, é composta de 4 ASIC idênticos, cada uma oferecendo cerca de 45TOPS. Em contraste, Nvidia volta cada chip oferece até 125TOPS. Ao longo do tempo, o Google pode ter deslocado a maior parte do seu trabalho GPU em casa para TPU. Micro-embora ultra micro na preparação de sua pilha de software e scramble NVIDIA para a máquina de trabalho de aprendizagem, mas o seu chip Vega atual no desempenho máximo do que NVIDIA volta uma geração atrás. A empresa tem atualmente 10 novos empreendimentos no mundo que estão planejando competir para a aprendizagem de máquinas, alguns dos quais estão prontos para lançar fichas. O Cambriano no continente parece ser well-financiado e suportado pelo governo do mainland. O Cambriano está focado em lidar com redes neurais ao invés de construir redes neurais. Silicon Valley empresa de computação Wave lançou um chip que pode construir um modelo de treinamento. Wave usa um design novo chamado arquitetura de fluxo de Dataflow, que supostamente elimina gargalos em aceleradores tradicionais. O processador de fluxo de dados da Wave pode treinar e processar a rede neural diretamente sem usar a CPU. Ao contrário do Google TPU, Wave suporta aprendizagem aprofundada da Microsoft CNTK, Amazon Mxnet e software TensorFlow. Outras empresas bem conhecidas, como Cerebras, Graphcore e GROQ ainda estão em modo stealth, mas levantaram um monte de dinheiro para construir um acelerador de ai personalizado, mas não deve ser lançado até 2019. Ex-namorado que a maior ameaça da NVIDIA poderia ser o Google TPU. O Google pode continuar a comprar e usar muitos GPU para lidar com uma carga de trabalho que não é adequado para TPU, como uma rede neural recursiva para processamento de linguagem. Wave é uma boa opção para as empresas que não querem usar a nuvem pública para desenvolvimento e implantação de ai, e não querem configurar sua própria infra-estrutura de GPU. Finalmente, se a Intel pode pedir Nervana para entrar no mercado e está disposto a investir em seu pleno apoio, então Nervana poderia representar uma ameaça em 2019. Mas Nervana precisa de pelo menos 3 anos de tempo e um roteiro sólido para desenvolver 1 ecossistemas viáveis. Os 1 fatores a considerar são que, com o desenvolvimento da NVIDIA 7 nanotecnologia, a NVIDIA será capaz de adicionar uma área de chip importante para o recurso ai. Como resultado, a porcentagem de chips que se concentram no ai pode aumentar, de modo que esta parte realmente se torna um ASIC que também pode exibir gráficos. Ele não acha que a Nvidia é uma GPU empresas, mas uma plataforma de empresas com aspirações de crescimento ilimitado. Não há outras empresas que têm a profundidade da NVIDIA e amplitude de experiência em hardware e software ai. NVIDIA pode projetar um chip ai melhor se prevê uma ameaça de um micro, Intel ou ASIC. NVIDIA tem feito isso através do Deep Learning Accelerator (DLA). Se a GPU está comprometida, a NVIDIA também pode virar para a próxima etapa. Ao mesmo tempo, tem uma posição óbvia do crescimento e do mercado que conduz em microplaquetas do treinamento do ai. Em termos de processamento inpreferencial, a NVIDIA se concentra em cargas de trabalho do Data Center e sistemas de orientação Visual para aplicações como autocondução.