1.VAR e chips inteligentes revelaram o estádio da Copa do Mundo A equipe francesa fez o maior vencedor;
Pequim, 16 de junho Copa do Mundo elétrica, a FIFA lançou reformas importantes: VAR lançado pela primeira vez (vídeo árbitro assistente), e implantado com um chip inteligente na corrida bola para o terceiro jogo no jogo 16. dia, a equipe francesa no confronto com a equipe australiana voltou a ser os beneficiários, ambos receberam a primeira penalidade favorável.
Após a comunicação com o assistente o vídeo do árbitro, Cunha, deu ao time francês a pena comutada. Gelieziman a bola facilmente para o gol, fazendo com que o time francês a contar com o VAR comutada, antes da próxima cidade. Esta é a primeira vez comutada VAR O pontapé de grande penalidade resultante.
Essa penalidade provocou muita controvérsia.Na conferência de imprensa após o jogo, o treinador francês Deschamps disse que esta bola é como a penalidade marcada por Portugal na Espanha no dia anterior. a decisão para apitar técnico holandês da minha equipe australiana Van Marwijk acredita que foi um erro judicial: 'Embora eu não tenha visto o replay de vídeo, mas eu estou bem, ver claramente na posição de campo, ele não deve ser Um pênalti. A posição do árbitro é mais próxima, mas ele disse inicialmente que não houve penalidade e sinalizou o jogo para continuar. Nós somos as vítimas do VAR, mas não vamos contestar essa decisão. '
equipe francesa na Copa do Mundo consecutiva dos lucros VAR e chip inteligente, também continuou a sua sorte antes. Em 1998, a FIFA lançou oficialmente o 'gol de ouro morte súbita' e mais tarde a tecnologia bola de prata na Copa do Mundo em 1998 fase eliminatória da Copa do mundo com o Paraguai, o zagueiro francês Laurent Blanc marcou o primeiro gol de ouro na forma de comprimidos de história da Copa do mundo para ajudar a França qualificar. com este grão de gol de ouro de valor inestimável, a equipe francesa após o corte todo o caminho, finalmente, ganhou a Copa do mundo em casa. Desde esta regra é muito grande e oportunidade muito cruel, após a implementação dos dois 2004 FIFA cancelou o sistema gol de ouro e do sistema de bola de prata.
A fim de promover o desenvolvimento do futebol, para proteger os jogadores e garantir a continuidade do jogo, a FIFA tem vindo a tentar modificar algumas das regras. No entanto, algumas pessoas são felizes os outros estão tristes. Em 1970, o primeiro uso de cartões amarelos e vermelhos Copa do Mundo 9ª realizada no México, O primeiro cartão amarelo foi vencido pela ex-União Soviética Em 1974, na 10ª Copa do Mundo na República Federal da Alemanha, no Chile, contra a Alemanha Ocidental, o árbitro turco Babacan deu a Copa do Mundo ao jogador chileno Kaszeli. O primeiro cartão vermelho será multado.
2. GPU, chip FPGA tornou-se um braço 'destro' para melhorar a aprendizagem de máquina;
"NetEase smart news 17 de junho de notícias" No software comercial, os chips de computador foram esquecidos. Para aplicações comerciais, isso é uma commodity. Como a tecnologia do robô e dispositivos de hardware pessoais estão mais intimamente ligados, então o aplicativo de fabricação Ainda mais focado na parte de hardware.
Desde a década de 1970, como um todo, o status quo da inteligência artificial (IA) e especificamente o campo da aprendizagem profunda (DL), a relação entre hardware e software tornou-se mais ligada do que nunca. Os artigos sobre inteligência artificial (IA de gerenciamento) estão relacionados ao overfitting e ao preconceito Existem dois riscos principais no sistema de aprendizado de máquina (ML), que discutirá em profundidade o hardware que muitos gerentes, especialmente os gerentes de linha de negócios, podem manipular. Acrônimos, Esses acrônimos são constantemente mencionados em sistemas de aprendizado de máquina: Unidades de Processamento Gráfico (GPUs) e Matrizes de Portais Programáveis em Campo (FPGAs).
Isso ajuda a entender o valor da GPU porque a GPU acelera o processamento de tensores necessários para aplicações de aprendizagem profunda.O ponto de interesse para FPGAs é encontrar maneiras de pesquisar novos algoritmos de AI, treinar esses sistemas e começar a implantar Muitos sistemas customizados de baixo volume estudados em aplicações de AI industriais.Embora seja uma discussão das capacidades dos FPGAs para treinamento, acredito que o uso precoce foi devido ao uso de F, o campo.
Por exemplo, o treinamento de um mecanismo de inferência (o núcleo de uma máquina de aprendizado de máquina) pode exigir gigabytes ou até terabytes de dados Ao executar inferências no data center, o computador deve gerenciar um número potencialmente crescente de solicitações de usuários simultâneos. Nos aplicativos de ponta, seja em drones usados para inspecionar tubulações ou em smartphones, o equipamento deve ser pequeno e ainda eficaz, mas adaptável, em termos simples, uma CPU e uma GPU. Existem dois dispositivos, e um FPGA pode ter blocos diferentes para fazer coisas diferentes, e é possível fornecer um sistema de chip robusto.Dados todos esses requisitos diferentes, é melhor entender o estado atual da arquitetura do sistema que pode suportar diferentes requisitos.
Existem dois tipos principais de designs de chip que podem conduzir os atuais sistemas ML, GPUs e FPGAs, e, no meio para o futuro (pelo menos alguns anos), também é possível tornar-se uma sugestão de nova tecnologia para conversores de jogos.
Unidade de Processamento Gráfico (GPU)
O maior chip no mundo de aprendizado de máquina é a unidade de processamento gráfico GPU, usada principalmente para jogos de computador, então como algo que fica melhor em um monitor de computador se torna importante para o aprendizado de máquina? Deve voltar para a camada de software.
O atual campeão de aprendizado de máquina é o sistema Deep Learning (DL). O sistema DL é baseado em vários algoritmos incluindo redes neurais profundas (DNN), redes neurais convolucionais (CNN), redes neurais recorrentes (RNN) e muitas outras variantes. A palavra chave vista nestes três termos é 'rede', o algoritmo é uma variação do tema, o tópico é algumas camadas de nós, e diferentes tipos de comunicação entre nós e camadas.
Você está lidando com múltiplos arrays ou matrizes.Um outro termo mais preciso para matrizes é o tensor, então é usado em toda a indústria de aprendizado de máquina, como o TensorFlow.
Agora volte para a tela do seu computador.Você pode pensar nisso como uma matriz de pixels ou pontos por linhas e colunas.Esta é uma matriz bidimensional ou tensor.Quando você adiciona cores, adicione o tamanho de bit para cada pixel, pense Para uma imagem consistente e de rápida mudança, os cálculos podem se tornar rapidamente complicados e ocupar ciclos em uma CPU passo a passo. A GPU tem sua própria memória e pode salvar toda a imagem gráfica como uma matriz. Em seguida, ela pode usar matemática de tensor. As alterações na imagem alteram apenas os pixels afetados na tela, o que é muito mais rápido do que redesenhar toda a tela toda vez que a imagem é alterada.
Em 1983, a NVIDIA pretendia criar um chip para resolver problemas de matriz que não podem ser resolvidos por computadores de uso geral, como CPUs. Este é o nascimento da GPU.
As operações matriciais não se importam com o produto final, mas apenas processam os elementos, o que é uma ligeira simplificação, porque as diferentes operações são escassamente matriciais (quando há muitos zeros) e a matriz densa é diferente e funciona de maneira diferente. Mas o fato de que o conteúdo não muda as operações ainda existe.Quando os teóricos do aprendizado profundo viram o desenvolvimento de GPUs, eles logo o adotaram para acelerar as operações de tensor.
As GPUs são essenciais para o desenvolvimento de aprendizado de máquina, impulsionando o treinamento e o raciocínio do data center.Por exemplo, o Núcleo Tensorial NVIDIA Volta V100 continua a acelerar em sua arquitetura básica ea capacidade de executar inferências com menos precisão (esse será outro tópico significa menos bits, o que significa processamento mais rápido, mas há outras questões a considerar quando se trata da Internet das Coisas.
Field Programmable Gate Array (FPGA)
No campo, todos os tipos de aplicações têm requisitos diferentes, existem diversas áreas de aplicação, veículos, dutos, robôs, etc. Diferentes indústrias podem projetar chips diferentes para cada tipo de aplicação, mas isso pode Ela pode ser muito cara e pode prejudicar o retorno sobre o investimento da empresa, além de atrasar o tempo de comercialização e perder oportunidades de negócios importantes, especialmente para necessidades altamente personalizadas que não proporcionam economias de escala suficientes.
Os FPGAs são chips que ajudam empresas e pesquisadores a resolver problemas. Um FPGA é um circuito integrado que pode ser programado para diversas finalidades, possui uma série de 'blocos lógicos programáveis' e uma maneira de programar a relação entre blocos e blocos. Uma ferramenta universal que pode ser personalizada para uma variedade de usos, incluindo os principais fornecedores da Xilinx e da National Instruments.
Vale a pena notar que o baixo custo do design de chips não torna os FPGAs uma opção de baixo custo, eles geralmente são mais adequados para aplicações industriais ou de pesquisa.A complexidade dos circuitos e projetos torna-os programáveis, não adequados para baixo custo Aplicações do consumidor.
Desde o FPGA pode ser reprogramado, o que o torna valioso para o campo emergente da aprendizagem de máquina está aumentando algoritmo de elevação e de diferentes algoritmos de bloco de reprogramação ajuste fino. Além disso, baixa precisão, FPGA baixa potência inferida por sensor remoto é uma boa combinação. enquanto 'local (campo)' os inventores, mais conhecido como 'cliente (cliente)', mas FPGA vantagem real para alcançar aplicações AI práticas no campo, se é para a planta , estradas e oleodutos e outras infra-estruturas, ou UAV detecção remota, FPGA permite que projetistas de sistemas a flexibilidade de usar uma peça de hardware, a fim de alcançar uma variedade de efeitos, permitindo que o projeto físico mais fácil, que podem mais facilmente conduzir aplicações on-site.
Nova arquitetura está chegando em breve
GPU e FPGA está ajudando atualmente a resolver como expandir a máquina aprender técnicas para desafiar muitos do impacto no mercado que eles têm feito é para deixar as pessoas mais preocupadas com o desenvolvimento desta indústria, e tentar criar um novo quadro para a aplicação atempada.
Por um lado, muitas empresas estão tentando aprender as lições de operações tensor na GPU. Hewlett-Packard, IBM e Intel desenvolveram um projeto especial para a próxima geração de computação dispositivos profundidade tensor de aprendizagem. Ao mesmo tempo, como Cambricon, Graphcore e Wave Computing Essas startups também estão se esforçando para fazer a mesma coisa.
Por outro lado, Arm, Intel e outras empresas estão projetando arquitetura para tirar proveito de GPU e CPU, e o dispositivo também visa a aprendizagem máquina mercado, que dizem ser capaz de fazer mais do que apenas se concentrar cálculo tensor para outros processos em torno do núcleo AI O processamento também é mais poderoso.
Embora algumas dessas organizações se concentrem em data centers e outras Internet das Coisas, é muito cedo para falar sobre qualquer uma delas.
De empresas globais a empresas iniciantes, uma advertência é que nenhuma informação apareceu além das primeiras informações: se virmos as primeiras amostras de dispositivos até 2020, então isso será uma surpresa, então elas têm pelo menos cinco anos de idade. Não listado.
(Selecionada de: forbes Autor: David A. Teich compilação: NEW YORK participação inteligente: nariiy)
Exposição do processador 3.Intel 10nm Expedição pequena do grupo
rendimento do processo de 10nm da Intel por causa da não-conformidade, a produção em massa foi adiada para 2019, agora apenas uma pequena embarques de volume, um produto conhecido apenas 15W de potência de design térmico versão de baixa voltagem do núcleo i3-8121U (família de codinome canhão Lake ), e somente a Lenovo está usando.
Especificações para i3-8121U dual-core quatro tópicos, com clock de 2.2-3.2GHz, três 4MB cache, memória suporta dual-channel DDR4 / LPDDR4-2400 32GB, poder design térmico de 15W.
A informação da parte nuclear não foi publicada, deve ser porque o problema de rendimento foi desabilitado, então a Lenovo adicionou uma placa gráfica discreta da AMD.
German hardware ComputeBase mídia divulgados no primeiro i3-8121U 'como se' pode ser visto o conjunto de pacotes consistentes com o produto anterior, ainda é um núcleo de processador, um pacote de conjunto de chips de núcleo juntos, BGA pacotes integrados Soldado na placa-mãe.
Encontramos uma versão de baixa voltagem do oito geração Core Duo Intel oficialmente dada uma foto, você pode encontrar um processador, chipset núcleos são pequenos, articulações pacote de solda e elementos capacitivos também mudou muito, ele não deve ser mais compatível.
A ComputeBase descobriu que o tamanho geral do pacote do i3-8121U é de 45 x 24 mm (consistente com as especificações oficiais), com uma área de processador de aproximadamente 71 mm2 e uma área de chipset de aproximadamente 47 mm2.
Embora, de acordo com estudo descobriu que a densidade de transistores processo de 10nm da Intel mais de 100 milhões por milímetro quadrado, igual ou até mesmo superior ao nível de Samsung, TSMC, 7nm GlobalFoundries, mas contrastam seus próprios produtos 14nm, a mudança não parece grande.
Sabe, parte Intel primeira geração do processador 14nm da área Broadwell-U, mas também a 82 mm2, 10nm encolher apenas 13% dela, e todos nós somos dual core quatro threads, 4MB de cache são, mas nuclear foi executado As unidades aumentaram de 24 para 40 e suportam o conjunto de instruções AVX512.
Além disso, o pacote total de 45 x 24 mm é ligeiramente maior do que a versão atual de baixa tensão de 14 nm de 42 x 24 mm.