1. Quando a Internet das Coisas se encontra com a IA;
SADA Systems, de acordo com um recente gestores profissionais de grande escala de pesquisa de mercado da indústria de TI descobriu que em 2018 a inteligência artificial (AI) e Internet das Coisas (Internet das coisas), está se tornando as áreas mais importantes de investimento das empresas em novas tecnologias.
Nos 500 profissionais de TI entrevistados, 38% dos entrevistados mencionaram Estrada AI como o principal foco de investimento das empresas, enquanto 31% das coisas, cadeia bloco é baseada 10% na lista. Dispositivos coisas ligadas geralmente produzem dados enormes, para treinar aprendizagem de máquina modelo (ML).
Nas empresas pesquisadas, o layout das coisas do que AI e mais, por causa das coisas e computação borda (Edge Computing) estágio da indústria mais estável, e isso é fundamentalmente som disponível para melhorar a precisão de aprendizagem de máquina, AI tornou-se essencial Pré-requisitos
Capacidade de reconhecimento de imagem / Figura: Universidade de Cambridge
empresas de IA também querem fazer o investimento de realização final, em vez de instituições acadêmicas como a pesquisa non-stop CIO mídia. estrangeira também mencionou Road, AI como investir no negócio para a direita em um guia para a importante tarefa de líderes empresariais.
Além disso, no fundo era de hoje, o custo ea dificuldade de executar AI também reduzir significativamente não só "plataforma como serviço" pode fornecer mais dados para empresas de formação de computador que (PaaS) empresa que também faz com que os dispositivos de universal aumentar (interoperabilidade) grau. além disso, um grande número de máquina sofisticada biblioteca e API de aprendizagem é a redução do limite de entrar no AI.
Com o apoio de tecnologias de IA e coisas novas que vêm, as organizações devem aderir ao desenvolvimento chave, levou à indefinido evitar ciclo âmbito desenvolvimento de fluência hora. A fim de alcançar o período de marco de tempo, reter talentos é cada vez mais necessário.
Capacidade / Capacidade de Reconhecimento de Imagem de Máquina: Universidade de Cambridge
SADA e chamou em torno de tecnologias notícias emergente, vai levar as empresas estão mais dispostas a investir em novas tecnologias, mas a segurança e privacidade tendem a ficar para trás o desenvolvimento de tecnologia e investimento em novas tecnologias deve ser uma segurança inundação de propriedade de preocupações, SADA acreditam que as empresas são tão Se você realmente quiser se tornar um pioneiro em tecnologias emergentes, não poderá ignorar os testes de segurança de tecnologias emergentes.
Em um relatório da Universidade de Oxford em 2018, os pesquisadores mencionados Road, tecnologia AI, desde que há uma falha, que poderia minar a eficiência do fluxo de trabalho de aprendizagem de máquina, mas também pôr em perigo o funcionamento do negócio, se ignorada testes de segurança importantes Sexo, tenho medo de não conseguir.
Bloco cadeia já desde o ano passado atraiu muita atenção da mídia para a ciência e tecnologia, mas fica atrás em termos de coisas de negócios de investimento e AI. À medida que mais e mais empresas começam a compartilhar o sucesso da tecnologia da cadeia de bloco e casos práticos no futuro Espera-se que o investimento neste campo concorra com a Internet das Coisas e a IA.
2. História dos intérpretes AI;
No Fórum Boao 2018 para a Ásia, além da agenda principal, mais notavelmente a introdução de um ponto quente é a primeira tradução da língua falada em tempo real conferência inteligência artificial. No entanto, não houve nenhuma AI anterior desenfreadamente declarado "Vamos indústria de intérpretes em tempo real estamos prestes a enfrentar a ameaça do desemprego ", pelo contrário, o resultado de erros graves na tradução, e de fato os intérpretes em tempo real empregadas aliviado, parece que esta linha também pode comer arroz por um longo tempo.
"O Testamento Gênesis Bíblia velha" descrito no Capítulo 11, após o grande dilúvio recuaram, neste mundo humano são os filhos de Noé, falam a mesma língua quando os humanos começaram a cooperar, construir chamado Babel Torre de Babel torre. movimento alarmou a Deus, assim Deus permitiu que os seres humanos em todo o mundo começaram a ter uma língua diferente, a raça humana não era mais a cooperação unida. Babel fez planos terminou em fracasso, quando as diferenças de linguagem também se tornou o maior comunicação humana obstáculo. talvez o sangue ainda quero sonhar de reconstruir a torre de Babel, por isso, a tradução tornou-se o foco dos projetos culturais humanos ao longo dos últimos milhares de anos de história em evolução.
A barreira lingüística não é tão fácil de quebrar, em particular, é necessário entender o mesmo conceito através das línguas.Pela primeira vez na história da humanidade, um corpora paralela de linguagem cruzada foi produzido por Rosetta Stone, feito em 196 aC. A antiga língua egípcia, o grego antigo e os textos coloquiais locais foram usados para registrar as escrituras gravadas do rei Ptolomeu do antigo rei egípcio, que também é um marco importante na tradução.
Tradução automática baseada em regras
Quanto à tradução máquina de origem, pode ser rastreada até 1949, teoria da informação pesquisador Warren Weave propôs formalmente o conceito de tradução automática. Cinco anos mais tarde, isto é, em 1954, a IBM em colaboração com a Universidade de Georgetown anunciou primeira tradução máquina do mundo IBM-701. é capaz de traduzir russo para o Inglês, embora tenha um corpo grande, que na verdade ele só é construído seis disposições de leis, assim como 250 palavras. mas mesmo assim, isso ainda é um grande avanço tecnológico, quando os seres humanos começaram a pensar que deverá em breve ser capaz de quebrar paredes da linguagem.
Era possível que Deus tivesse notado algo diferente e despejado um balde de água fria no plano para a reconstrução humana da Torre de Babel.Em 1964, a Academia Americana de Ciências estabeleceu o Comitê Consultivo de Processamento Automático de Linguagem (ALPAC) Dois anos depois, no Comitê No relatório apresentado, considera-se que a tradução automática não vale a pena continuar a investir, porque este relatório fez com que os Estados Unidos parassem quase completamente o estudo de tradução automática nos próximos dez anos.
Do nascimento da primeira máquina de tradução da IBM aos anos 80, o mainstream tecnológico da época era a tradução automática baseada em regras.O método mais comum é traduzir palavras diretamente de acordo com o dicionário, embora algumas pessoas propusessem posteriormente adicionar regras de sintaxe para corrigi-las. Mas, para ser honesto, os resultados se mostraram muito frustrantes, porque parece estúpido, portanto, na década de 1980, essas práticas desapareceram.
Por que as linguagens não podem aplicar regras? Como as línguas são sistemas extremamente complexos e vagos, da ambigüidade da palavra à retórica, é impossível esgotar todas as regras, mas, curiosamente, muitas inovações recentes em linguagem natural A empresa, ainda tentando resolver a semântica chinesa com regras exaustivas, mas essa ideia definitivamente terminará em fracasso.
Vou dar um exemplo para ilustrar por que as regras não são viáveis.Não mencione a complexidade da tradução em dois idiomas.Na perspectiva chinesa, o conceito de entrega expressa é rápido.Quantos tipos de ensinamentos você consegue imaginar? 10 tipos ou 100 tipos? De acordo com as estatísticas de linguagem natural que fizemos antes, pode haver 3.600 tipos de ensinamentos no total, e esse número deve aumentar com o tempo. Uma sentença com um conceito tão simples pode ser Para um sistema complexo de regras, se você usa traduções, receio que a quantidade de regras seja um surpreendente número astronômico, portanto, a idéia de tradução automática baseada em regras se tornará uma flor amarela ontem.
Tradução automática baseada em instância
No mundo da tradução automática para a maré baixa, há um país para a tradução automática tem uma obsessão forte, e que é o Japão. Japonesa Inglês má tradução universalmente conhecido e, portanto, da máquina há uma forte demanda por rigidez.
O professor Nagao Shinretsu, da Universidade de Kyoto, no Japão, propôs uma tradução automática baseada em exemplos, ou seja, parar de pensar em deixar as máquinas traduzirem a partir do zero.Nós apenas precisamos armazenar frases de exemplo suficientes.Mesmo se encontrarmos sentenças que não combinam perfeitamente, nós também pode ser comparado a sentenças, a tradução não é o mesmo, desde que a substituição da palavra pode ser. isto, obviamente, não é ingênuo de tradução automática baseada em regras quantas inteligente, que não causou problemas. mas em pouco tempo, a humanidade a esperança de reconstruir a torre de Babel parece voltar a ver o amanhecer.
Com base na estatística de tradução automática
Detonada estatística crescimento de tradução automática ou IBM, em "Machine Translation matemática teoria" papel emitido em 1993 propôs um modelo estatístico é composto por cinco unidades em uma palavra, chamado de "IBM Modelo 1" para "5 modelo IBM."
A idéia do modelo estatístico é tratar a tradução como um problema de probabilidade.Em princípio, é necessário usar o corpus paralelo e, em seguida, realizar estatísticas em uma palavra por palavra.Por exemplo, embora a máquina não sabe o que é "conhecimento" em inglês, ele será encontrado após a maioria das estatísticas de corpus. enquanto não há conhecimento da frase aparece, os correspondentes frases em inglês será palavra "conhecimento" aparece. desta forma, mesmo sem manutenção artificial de dicionários e regras gramaticais, mas também fazer máquinas de compreender o significado da palavra.
Este conceito não é novo, desde os primeiros Warren Weave propôs um conceito similar, mas não há tempo suficiente e corpus paralelo era muito fraco e calculadora capacidade limitada, por isso não há implementada. Tradução moderna máquina de estatística da onde encontrar "moderno pedra Rosetta" significa? na verdade, a fonte mais importante é a Organização das Nações Unidas, porque as resoluções das Nações Unidas e o anúncio terá versões linguísticas de cada Estado-Membro, mas diferente do que, você quer fazer o seu próprio corpus paralelo ao Agora, o custo da tradução humana se traduz em saber que esse custo é surpreendentemente alto.
Na última década, estamos familiarizados com traduções do Google são baseadas em estatística de tradução automática ao ouvir que, todos devem ser claros modelo de tradução estatística não as realizações da grande causa de Babel na impressão de todos, a tradução automática basta parar em é O grau de "útil" em vez de "útil".
Tradução automática de rede neural
Em 2014, a tradução automática introduziu a mudança mais revolucionária da história - "aprendizado profundo"!
rede neural não é novo, na verdade redes neurais invenção tem sido há 80 anos, mas já em 2006 Geoffrey Hinton (primeiro estudo de três grandes profundidade de Deus) melhorou rede neural otimização falha fatal é muito lento, aprendizagem profunda continuará acompanhada por uma variedade de realizações milagrosas freqüentemente aparecem em nossas vidas em 2015, a máquina pela primeira vez, além de reconhecimento de imagem humana ;. 2016, Alpha Vai bater o campeão mundial de xadrez; 2017, mais do que o taquígrafo reconhecimento de voz humana; 2018, máquina de leitura Inglês pela primeira vez além da compreensão humana. É claro, a tradução automática neste domínio, mas também por causa da profundidade e começar a aprender esse floreio super-fertilizante.
estudo aprofundado Yoshua Bengio dos três deuses no papel 2014, pela primeira vez estabelecida a arquitetura básica da profundidade das tecnologias de aprendizagem para tradução automática. Ele é baseado principalmente em seqüência rede neural recorrente (RNN), para que a máquina pode capturar automaticamente entre frases recurso de palavra e então escrito automaticamente para outra tradução. Este artigo um, Google tesouro. Muito rapidamente, fornecimento adequado de pólvora sob a bênção de Deus, bem como grande no Google, o Google anunciou oficialmente em 2016 Todas as traduções automáticas estatísticas estavam prontas, e as traduções automáticas de redes neurais tornaram-se a corrente principal da tradução automática moderna.
rede de tradução automática neural do Google a característica mais proeminente é a inclusão de mecanismos de atenção (atenção), mecanismo de atenção é, de facto, a simulação de tradução humana, utiliza primeiro o olho outra vez, e, em seguida, vai pegar algumas palavras-chave para confirmar a semântica no "British - Francês" processo (Figura 2) realmente tem mecanismos de atenção bênção oscilação de energia depois que o Google declarou que "os britânicos - in", "os britânicos - West" vários idiomas, etc., a taxa de erro antes. O sistema de tradução automática estatística é reduzido em 60%.
Embora a rede neural de acordo com o corpus paralelo existente pode aprender e compreender frases características da linguagem sutil, mas não é perfeito, o maior problema vem do corpus, e ele tem um monte de preto caixa-like tão difícil de entender. Ou seja, mesmo se já que não há maneira de mudar o errado, só podemos fornecer corpus mais correto a fazer "aprendizagem profunda" correto. a mesma, portanto, uma frase, mas pode ter tradução muito diferente.
Em fevereiro de 2018, a Microsoft fez novos movimentos para tornar a compreensão da linguagem de máquina além da humanidade.Em 14 de março, pesquisadores da Microsoft Research Asia e Redmond Research Institute anunciaram que seu sistema de tradução automática de P & D era O conjunto de testes de tradução de chinês e inglês do Newstest2017 alcançou um nível comparável ao da tradução humana.Esta é naturalmente uma grande vitória para a tradução automática de redes neurais.Claro, há também muitas inovações na arquitetura, das quais as mais notáveis. Ele está unido a Redes de Aprendizado e Deliberação Duplas.
aprendizagem dupla para resolver o problema do corpus paralelo limitado, em geral, a profundidade de aprendizagem deve ser fornecido para as respostas da máquina, assim que a máquina será capaz de com base na diferença entre a tradução e de resposta corrigido sustentada melhoria. Como para a rede escrutínio também imitar o processo de tradução humana normalmente tradução humana vai fazer primeiro uma tradução aproximada, e depois ajustar o conteúdo preciso da segunda tradução, na verdade, você pode achar que não importa inteligente redes neurais, ainda vai acabar na superfície de referência das criaturas mais inteligentes, que é o corpo nós, como seres humanos.
A língua não pode escapar do contexto de uso
O desenvolvimento da tradução automática não significa que o futuro da profissão de tradutor haverá comida para comer. Pode-se notar que a apresentação da Microsoft enfatizaram o "teste de definir Newstest2017 relatórios universais de notícias" do "conjunto de teste de Inglês Tradução", o conjunto de dados bom desempenho e versatilidade não ser capaz de desenhar sobre o sinal de igual, o que também pode explicar porque Tencent junho, obviamente, a tradução usual era bom, mas por que é desempenho inadequado em Boao interpretação em tempo real.
Real-time tradução interpretação pode ser dito é o culminar da tarefa, devemos ter uma compreensão correta da audiência sentença original, mas também a conversão por um tempo limitado para outros idiomas. E não se esqueça dos alto-falantes não vai dar qualquer tempo de espera para a tradução, reconhecimento de voz e de modo igual tradução de máquina devem ser sincronizados, além de no local ruído, expressões alto-falantes, o tom das interjeições palavras e fatores de forma de confusão, são susceptíveis de resultar em aborto de justiça da máquina.
Do meu ponto de vista, a tradução de Tencent para o rei pode ser atribuída a ponto de não ser suficiente trabalho, e os nomes próprios das chaves não são inseridos, o que resultará em um “erro clássico” de “uma estrada e um cinturão”.
Uma diferença interessante também pode ser vista na figura 3. Por que a tradução automática ocidental está mal posicionada, mas a tradução automática no país de origem está quase sempre no controle, porque a linguagem não pode existir sem sair de cenários de uso humano. ênfase no contexto (contexto), que vem da nossa cultura passado, existem memórias do passado colocada. Tang não leu o Google naturalmente não consegue entender a essência deste poema. barreiras linguísticas seria a última era da inteligência artificial humana, porque As línguas mudam constantemente devido ao uso de seres humanos, um substituto muito difícil para as máquinas.
Com o avanço da tecnologia, um dia, a tradução automática mudará de "útil" para "útil" e então evoluirá para "útil". Mas, como sempre argumentei, as máquinas não roubam o trabalho das pessoas. O fato de os seres humanos estarem desempregados é apenas nosso, como fazer bom uso da inteligência artificial para se tornar sua própria ferramenta e sair do tédio e do trabalho entediante, essa é a postura certa para o futuro.
3.AI, a batalha ardente de big data e privacidade pessoal está apenas começando;
A mais recente tema quente, que não é outro senão os dados não-grandes, incluindo o número de Expo 2018 China vigorosamente organizados, deve ser dito, a coisa mais importante é a recolha de dados de grandes volumes de dados, mas a UE anunciou um regulamento geral de proteção de dados (PIBR), Kansas Afirmando ser a lei de proteção de dados pessoais mais rigorosa de todos os tempos, ela também desencadeou disputas sobre o desenvolvimento de big data e dados pessoais.
A razão pela qual o big data pode se tornar um dado efetivo é coletar e analisar dados, e quanto mais dados, os dados mais relevantes podem ser analisados e se tornarem dados úteis.
Mas a fonte dos dados, mas em todos os lábios, no nacionalismo, não parece ser forçado a sacrificar seus interesses pessoais para deixar países para levar a cabo a política, que é mais evidente na China, Desenvolvimento da China para os dados rapidamente, o governo política de planejamento muitos, e até mesmo a chamada redução da pobreza, a pobreza e assim por diante, como com big data, todos os problemas não são um problema, mas um monte de dados grandes, de fato, são partes para o sacrifício dos direitos dos dados pessoais, que enfatizam a privacidade pessoal do país, é Coisas impossíveis.
A direção do desenvolvimento de empresas de Taiwan estão concentrados em grandes volumes de dados industriais, a maioria dos quais ainda é o que mais cresce Hon Hai, de 40 anos de dados de produção, Hon Hai é a maior vantagem, mas também no desenvolvimento de Taiwan tem a oportunidade de colocar os dados grandes.
Mas se você quiser desenvolver Taiwan como China continental dados tão grandes, e relaciona-se ao campo da privacidade das pessoas, basicamente, existem em muitos problemas recorrentes, o ETC apenas um registro, ele provavelmente vai levar à invasão de privacidade, para não falar sobre Com relação aos big data diretamente relacionados à privacidade pessoal, se o Big Data terá êxito ou não, receio que continuemos a puxar o interesse público e o equilíbrio da privacidade pessoal.
Inferências 4.AI para nós de ponta Aplicações de vídeo / voz representam cada metade do céu;
2018 AIoT mercado (AI + Internet das coisas) está crescendo alarmante, impulsionar o desenvolvimento de uma variedade de dispositivos, mas também para promover a função de aprendizagem profunda opera na beira de virar para a nuvem para atingir baixa latência, largura de banda baixa, alta privacidade e alta eficiência da inteligência artificial Experiência de aplicação.
Com inteligência artificial (AI), opera na tecnologia EDGE (Computing Edge) nos últimos anos, o rápido desenvolvimento de uma variedade de eletroeletrônicos e eletrodomésticos conceito de casa inteligente incluídos são mudanças revolucionárias acontecerá gradualmente. No final, os vários Uma rede de inteligência artificial composta de dispositivos domésticos pode se tornar um outro membro da família que você não pode ver.O conceito da nuvem local e seus equipamentos relacionados será um elemento indispensável na implementação de uma rede de inteligência artificial doméstica.
Alto-falante inteligente / monitoramento se tornará dois fusos principais de AI consumidor
A empresa de pesquisa Ovum responsável por acompanhar o desenvolvimento de tecnologia de consumo pesquisador Ronan de Renesse (Figura 1) que a aplicação da AI no campo da eletrônica de consumo, quase dois anos muitas vezes se tornam o foco de atenção da mídia, mas eletrônicos de consumo e AI combinado com a tendência, só agora começando a se desenvolver nos próximos três a cinco anos, muitos produtos eletrônicos de consumo será equipado com funções de IA, e serão ligados uns aos outros, uma família de inteligência artificial na rede.
Figura 1 Ovum tecnologia de consumo pesquisador Ronan de Renesse acredita que o futuro da família em uma variedade de dispositivos eletrônicos, vai se tornar um novo membro da família invisível.
Para cadeia de hardware, embora esta tendência vai trazer muitas novas oportunidades de negócios, mas se a partir de um ponto de nível superior de vista, este entrou calmamente a rede de inteligência artificial em casa, você será Eu não vejo outra "família Membros ".
Do lado do hardware, os alto-falantes inteligentes familiares, basicamente, é um produto relativamente maduro, apesar de haver um crescimento significativo nas vendas, mas crescente força vai diminuir gradualmente ao longo dos próximos cinco anos. Quando o estimado 2022 orador inteligente mundial o valor das vendas para quase US $ 9,5 bilhões. na verdade, Renesse acredita que a Amazon (Amazon) com Google provavelmente não vai lançar sua própria marca de alto-falantes inteligentes no futuro, porque o produto em si não é essas margens de lucro, estes dois Para os gigantes da rede doméstica, contanto que os fornecedores de hardware usem seus serviços de plataforma, eles podem coletar os dados do usuário de que precisam.
No mesmo período, mudanças em produtos como sistemas de monitoramento inteligente em casa serão mais pronunciadas do que as de alto-falantes inteligentes Atualmente, os chamados produtos de monitoramento inteligente doméstico não possuem componentes de inteligência artificial, mas sim câmeras, alarmes, fechaduras, sensores e outros equipamentos. Os produtos são conectados uns aos outros para formar um sistema de segurança que suporte o acionamento de eventos.No entanto, conforme as tecnologias de software e hardware se tornam mais sofisticadas, a proporção de câmeras de vigilância domésticas transportando inteligência artificial será cada vez maior, e mais podem ser alcançadas ao mesmo tempo. Aplicativos, como o uso de assistentes de voz, fornecem vários usuários com serviços mais precisos em um ambiente multiusuário.
Proteção da privacidade do consumidor para aplicativos de IA
No entanto, para a indústria de hardware, o que é mais notável é que o conceito de nuvem local e produtos de aplicativos relacionados serão escolhidos como dispositivos na IA de suporte doméstico, e Renesse apontou que haverá produtos eletrônicos habilitados para IA. Produzir uma grande quantidade de dados do usuário, e muitos deles são dados relacionados à privacidade pessoal.Portanto, se esses produtos eletrônicos domésticos equipados com inteligência artificial dependem completamente da nuvem externa para operar, isso obviamente causará preocupações com a privacidade.
Por outro lado, muitos dispositivos de IoT do consumidor com funções relativamente simples são limitados por energia, poder de computação e custos de produção, podendo não ser capazes de suportar algoritmos de inteligência artificial de alto nível.Agora os dispositivos de nuvem local podem desempenhar o papel do cérebro. Ordene uniformemente esses dispositivos.
No entanto, Renesse também admitiu que ainda é difícil afirmar qual dispositivo reproduzirá um centro de nuvem local.Pode ser um alto-falante inteligente de ordem superior, pode ser TV inteligente ou outros produtos.
Braço de Marketing Senior Director Ian Smythe (Figura 2) também acredita que haverá cada vez mais acreditam que o futuro da computação e inferência (Inferência) do motor para mover o terminal. Isso levou a uma maior transferência de força motriz, é para proteger a privacidade do usuário . pelo processamento final e trabalho de análise, os dados podem facilmente ser anônimo, e para assegurar que os dados confidenciais não serão divulgadas através da rede. aplicação de família, por exemplo, os consumidores não querem alguém da rede descobriu que sua família não O tempo das pessoas e, em seguida, facilmente para roubar em casa.
Figura 2 Ian Smythe, diretor de marketing sênior da Arm, disse que, para aplicativos de AI de consumidores, se o mecanismo de proteção de privacidade é confiável, será a chave para a popularização do aplicativo.
Para aplicações de visão, Smythe acredita que as funções da câmera suporte de reconhecimento visual para considerar algumas questões de privacidade importantes na natureza. Obviamente, esses dispositivos devem ser concebidos de modo que não importa quando a unidade é armazenada ou transmitida para a nuvem, pode proteger o privacidade e informações confidenciais. Uma vez que a transmissão é normalmente conectado sem fio, você deve prestar muita atenção à segurança de transmissão sem fio. engenheiros de design do dispositivo deve assegurar que o dispositivo de conexão de rede não será cortado, observando.
A duração da bateria continua sendo o principal desafio técnico
No entanto, para a beira de nós AI, o maior desafio técnico ainda é o consumo de energia do sistema. Para câmeras de vigilância de consumo, por exemplo, os consumidores podem esperar que esses produtos são completamente sem fio, é melhor não até mesmo linhas de energia Isso significa que esses produtos devem ser alimentados por bateria e também oferecer suporte a redes sem fio, além de poder identificar todos os itens e precisar de espaço de armazenamento ilimitado.
Acima de exigir uma grande quantidade de desafios para o projeto do sistema, ele pode exigir vários meses para executar a capacidade da bateria continuamente carregada de aprendizagem de máquina (ML), ea capacidade continuou a fazer upload de arquivos para o armazenamento em nuvem Estes casos extremos de componentes de design e sistema de chip Os requisitos são bastante exigentes e, mais importante, eles dominam quando habilitar a orquestração dessas funções para prolongar a vida útil da bateria.
No caso das câmeras de vigilância domésticas, a câmera não precisa transmitir o vídeo na sala por 24 horas.É apenas razoável carregar a parte da imagem quando há uma pessoa não confirmada.Do mesmo modo, se a cena como a vaga permanecer inalterada. Não faz sentido ativar o algoritmo ML Organize com cuidado onde e quando esses recursos estão habilitados para que o dispositivo consumidor possa operar no modo esperado com apenas 2 pilhas AA e possa ser usado por um longo período de tempo.
Mas também porque o consumo de energia é um dos principais obstáculos à AI estacionadas no dispositivo terminal, há muitas startups de casa têm manchado a oportunidade para lançar baixa potência rede neural (NN) acelerador de silício propriedade intelectual (IP) no mercado, a fim de auxiliar de chip Ao reduzir o consumo de energia, os desenvolvedores podem atingir o desempenho exigido pela inferência do algoritmo, que lançou oficialmente sua série NPU, um processador dedicado de inteligência artificial projetado para dispositivos terminais. IP. a família é composta por três produtos, ou seja, versão de baixa potência ultra da KDP 300, standard Edition KDP 500, bem como a versão de alto desempenho do KDP 700, para atender o telefone inteligente, a aplicação da casa inteligente, segurança inteligente, bem como uma variedade de dispositivos coisas toda a gama de produtos com baixo consumo de energia, características de pequeno porte, e fornece uma poderosa capacidade de computação. ao contrário da energia do processador do AI disponível no mercado para dezenas de watts de folga, o consumo de energia Kneron NPU IP é de 100 mW A classe (mW), para o KDP 300 dedicado ao reconhecimento facial para smartphones, consome menos de 5 miliwatts.
Os aplicativos podem ser resistente gerente de marketing de produto cum Shiya Lun (Figura 3 esquerda) aponta, a ser realizado na operação de inteligência artificial dispositivo terminal, enquanto atende a demanda de potência e desempenho é uma consideração primária. Portanto, a introdução de soluções otimizadas para aplicações individuais, é fundamental .. a actual aplicação de inteligência artificial pode ser dividido em duas categorias principais de voz com vídeo, arquitetura de rede neural que eles usam um diferentes aplicações de voz ênfase em análise de linguagem natural, a arquitetura de rede convencional é a rede neural recorrente (RNN); A principal estrutura de rede usada para análise de imagens é a rede neural convolucional (CNN), a fim de otimizar as diferentes estruturas de rede, a solução fornecida pela capacidade é diferente.
Shen Ming-feng (Figura 3 direita) ursos podem complementar o gerente de projeto de software, embora menor demanda por linguagem natural desempenho de computação chip de análise, mas por causa do tom da linguagem, hábitos de fala têm uma grande discrepância, e, portanto, necessário que o conjunto de dados de treinamento do modelo Muito mais do que o reconhecimento de vídeo, por outro lado, como os consumidores já estão acostumados a usar assistentes de voz baseados em nuvem, como o Apple Siri e o Google Assistant, os aplicativos de análise semântica off-line são preferidos pelos consumidores. A pré-condição é que devemos fornecer uma experiência de consumo semelhante sob recursos limitados de computação.Este é um desafio para fornecedores de chips e desenvolvedores de sistemas.
3 ursos pode aplicar Marketing e Gerente de Produto Shiya Lun (esquerda) acredita que a voz com reconhecimento de imagem são de natureza muito diferente, precisa contar com soluções diferentes para atender Shen Ming-feng é o software certo pode ser gerente de design resistente..
Na verdade, a grande maioria dos oradores inteligentes, não são considerados como produtos de computação de ponta. Shiya Lun apontou que, independentemente da Amazon (Amazon) do ECHO, Homepod da Apple ou orador inteligente plataforma Baidu, Alibaba, ou quer ter dados de volta para a nuvem para processamento com análise semântica, a fim de responder ao usuário. operação de voz pode ser realizada diretamente no produto final, o modo basicamente a maioria das regras adotadas (baseado em regras), e não com base no entendimento semântico natural de aprendizagem de máquina.
Desde 2016 os ursos podem lançar específica do dispositivo primeiro terminal processador AI NPU IP da empresa, têm continuado a melhorar seu design e especificações, e otimizado para diferentes aplicações industriais. Em atualmente disponível para os clientes começando no PI, KDP 500 clientes de plantas que usam o sistema tem sido, e estará em produção em massa na fabricação segundo trimestre (máscara Tape-out). reconhecimento de voz com a cooperação cães de busca alcançou análise desligada semântica, por isso mesmo se o dispositivo terminal não está conectado à rede, mas também Consegue entender as instruções de voz do usuário.
Kneron NPU IP é dedicado processador de inteligência artificial para o dispositivo terminal foi projetado para que o dispositivo de terminal em um ambiente offline, você pode executar ResNet, YOLO outra rede de aprendizagem profunda. Kneron NPU é uma solução completa de hardware de ponta AI, incluindo hardware IP, compilador (compilador) e modelo de compressão (compressão modelo) três partes, pode suportar uma variedade de modelos de redes neurais tradicionais, tais como ResNet-18, ResNet-34, Vgg16, GoogleNet e Lenet, bem como suporte principal aprendizagem profunda enquadrar, incluindo Caffe, Keras e TensorFlow.
consumo de energia Kneron NPU IP é 100 nível mW, versão ultra-baixo consumo de energia da PDK 300 ou mesmo menos do que 5 mW, a gama completa de produtos no desempenho por watt 1,5 TOPS / p ou mais, o uso de um número de tecnologia exclusiva, que pode fornecedores de chips atender, operadores do sistema precisa para baixo consumo de energia, poder de computação de alta.
Os elementos básicos do bloqueio não têm medo da tecnologia de acelerador de hardware iteração
Cura (Hardwired) circuito para melhorar a eficiência de certas tarefas de computação, reduzindo o consumo de energia, design de chips para as idades, mas à custa de flexibilidade de aplicação inferior, mudança significativa no caso de demanda do mercado para funções de chips ou algoritmos de software significativamente revisto, projetistas de chips tem que voltar a desenvolver um novo chip.
No caso da demanda para a função de chips tem sido basicamente resolvido, e este projeto não é um problema, mas nas tecnologias emergentes de técnicas iterativos rápidos, tomar esta abordagem de design, haverá uma relativamente grande risco no negócio inteligência artificial é muito rápido iteração qualificados, quase todos os anos um novo algoritmo com o modelo disponível. firma de pesquisa Abrir AI também apontou que nos últimos seis anos, modelo de formação AI para calcular a demanda de energia vai aumentar a cada 3,43 por mês Vezes.
A este respeito, Shen Ming Feng apontou, não é necessariamente um acelerador de hardware não é elástica. Resistente aos produtos energéticos, por exemplo, no projeto arquitetônico, a empresa utiliza divisão do kernel de convolução (Filter decomposição) tecnologia, o grande núcleo de convolução de convolução calcular uma pluralidade de pequenos blocos divididos em blocos de um cálculo de convolução separado, aceleração, em seguida, combinado de hardware reconfigurável convolução (convolução reconfigurável acelerando) técnica, o resultado da operação de convolução da operação de uma pluralidade de pequenos blocos são fundidos para acelerar o global Eficiência operacional.
Parábolas mais fáceis de entender, como peças de Lego podem ser combinados em uma variedade de padrões para construir um objeto, mas o objeto em si é ainda uma pilha inteira de uma caixa básica poucos. Programa de energia resistência é indispensável para algoritmos de IA acelerada elementos básicos, em que as melhorias de desempenho do algoritmo e, portanto, mesmo que as rápido de atualização de algoritmos de inteligência artificial, a resistência solução pode ainda ser útil para acelerar o efeito.
Além do próprio design do acelerômetro que foca nos elementos básicos, em vez de acelerar o algoritmo específico como um todo, o Terrain também fornece outras técnicas para acelerar ou implantar aplicativos de IA Por exemplo, sua tecnologia Model Compression comprime modelos não otimizados. Dezenas de vezes, o cache multinível pode reduzir o uso da CPU e a transferência de dados, melhorando ainda mais a eficiência operacional em geral Além disso, o Kneron NPU IP pode ser combinado com o software de reconhecimento de imagem Kneron para fornecer análise de identificação em tempo real. A resposta não é apenas mais estável, mas também atende aos requisitos de segurança e privacidade Como o hardware e o software podem ser totalmente integrados, a solução geral é menor e o consumo de energia é menor para ajudar no rápido desenvolvimento dos produtos.
Reconhecimento de imagem AI é mais urgente em direção à borda
No geral, a demanda atual do mercado por reconhecimento de imagem é mais urgente.Embora haja um mercado potencialmente enorme para os alto-falantes inteligentes na análise semântica off-line, há menos recursos para a indústria de apostas.A principal razão para esse fenômeno é que A transmissão ocupará uma grande quantidade de largura de banda, o que, por sua vez, aumenta o custo total de propriedade do sistema. A voz não tem esse problema.
Gerente Andes Tecnologia geral Lin Zhiming (Fig. 4) descrito no Inteligência Artificial e o processo de ligação coisas, irá conduzir a tecnologia bordas borda computação tecnologia de computação demanda introduzida irá ser aplicada a uma variedade de aplicações emergentes, em Entre essas tendências, a flexibilidade e a velocidade são as maiores vantagens para os fabricantes taiwaneses.Para a maioria das empresas taiwanesas e empresas de design de circuitos integrados, é mais fácil cortar do mercado o mercado de inteligência artificial.
Figura 4: Zhixin Lin, gerente geral da Jingxin Technology, estima que o IP Cam será uma das principais aplicações para realizar a inferência da IA em dispositivos de borda.
Ao mesmo tempo, devido à introdução da tecnologia de computação de borda, os requisitos de hardware como memória e transmissão também aumentarão, o que aumentará muito os custos de fabricação, já que o SoC (sistema em chip) relacionado à imagem é originalmente mais complexo que outros aplicativos. A tolerância de custo também é grande, portanto, espera-se que a tecnologia de computação de borda seja a primeira a ser importada por aplicativos relacionados a imagem, como IP Cam.
Aplicações de inteligência artificial podem ser divididas em treinamento e identificação.No processo massivo de computação de aprendizagem profunda, a computação em nuvem ainda é realizada em um curto período de tempo.A tarefa pela qual a computação de borda é responsável é fazer as informações coletadas primeiro. O processamento inicial, depois de filtrar informações sem importância, faz o upload dos dados para a nuvem para economizar o custo de transmissão.Por outro lado, o aprendizado profundo concluído pela nuvem também pode tornar a função de identificação do terminal mais inteligente. Por exemplo, o trabalho de aprendizado profundo da imagem pode ser concluído primeiro pela computação em nuvem.Depois que o aluno em espera reconhece o pedestre, a Câmera IP na borda só pode executar o trabalho de identificação.
Por outro lado, como o IP Cam é amplamente utilizado na manutenção de segurança e segurança da comunidade, o governo e as empresas estão relativamente dispostos a apoiar o investimento, o que também será motivo para o rápido desenvolvimento do IP Cam.
Lin Zhiming ação, muitos fabricantes estão tateando como importar chip de inteligência artificial em seu próprio sistema. A situação atual é semelhante a quando as coisas começaram a florescer, ainda estamos explorando como aplicar os cortes, estimada em cerca de 2.020 fabricantes Vai lançar mais produtos reais.
Aplicativos em tempo real devem usar arquitetura de computação de ponta
Atualmente, a inteligência artificial é um tema quente.A mudança gradual de uma arquitetura de computação em nuvem para uma arquitetura de ponta terá um impacto significativo sobre os fornecedores da cadeia de suprimentos.Embora o desenvolvimento da inteligência artificial no curto prazo continue sendo dominado pela computação em nuvem, No entanto, muitas funções de inteligência artificial relacionadas a aplicativos de visão começarão a importar bordas.
Diretor Xilinx Desenvolvimento (Xilinx) inteligência visual mercado estratégia Dale K. Hitt (Figura 5) apontou que, no futuro previsível, componentes de formação desenvolvimento de IA pode ainda dominado pela computação em nuvem. No entanto, a inferência / Implantar componentes já começou Use operações de borda para suportar aplicativos que exigem baixa latência e eficiência de rede.
5 Diretor de Desenvolvimento Xilinx, visual mercado estratégia de inteligência Dale K. Hitt pensar, para aplicações que requerem uma latência muito baixa, a borda da operação seria a melhor solução.
Para borda elemento operando para aplicações de visão de máquina relacionados com a aprendizagem, será uma das tendências crítico e de longo alcance. E, na visão de máquina industrial, cidades inteligentes, análise visual e mercado auto-drive tem uma forte crescimento potencial. em termos de aplicações de visão e industriais de consumo, devido aos algoritmos de aprendizado de máquina borda aritméticas a ser executado, portanto, para o desempenho requisitos também são mais elevados do que as gerações anteriores muitos programas. além disso, máquina de borda aprender algoritmo / função também tem sido rápida evolução e, portanto, todas as esferas da vida Necessita de hardware auto-adaptável para otimizar as futuras arquiteturas de inferência de aprendizado de máquina.
Hitt auto-condução, por exemplo, cada carro tem algoritmos sofisticados por trás o apoio sensor, é responsável pela interpretação dos resultados da saída dos dados do sensor percepção. A última tendência é a utilização de algoritmos de aprendizagem profunda para a saída dessas percepções interpretação dos resultados, no entanto, Algoritmos de aprendizado profundo devem ser treinados através de um grande número de situações potenciais para aprender a ler todos os dados possíveis do sensor.
Após o treinamento, os algoritmos de aprendizagem profundas exigem alto desempenho de computação com ultra-baixa latência, a fim de controlar o veículo com segurança. Para os veículos eléctricos, é necessário usar baixa potência para lidar com o limite de temperatura de operação e prolongar a bateria negócio de energia de semicondutores O objetivo é fornecer soluções adaptáveis de alta eficiência e baixo consumo de energia para atender às diversas necessidades da IA auto-direcionada.
No desenvolvimento da computação de borda, o maior desafio é que a demanda do mercado muda muito rapidamente, por isso, tecnologias que podem se adaptar rapidamente a várias mudanças são extremamente importantes para permitir que as empresas mantenham sua competitividade.
Hitt ilustrar ainda mais a profundidade de algoritmos de aprendizagem em uma taxa rápida de progresso sustentado, muitas das soluções líderes em 2017 até agora tem enfrentado uma morte similar. Mesmo que muitos dos outros agora têm uma maior capacidade, juntamente com o aumento da computação sob demanda, hardware ainda O hardware deve ser atualizado em um ritmo mais rápido para evitar ser eliminado Alguns hardwares podem precisar ser atualizados durante a produção Muitas tecnologias alternativas também precisam ser recuperadas para atualizar o chip.
Hitt suplemento, FPGA vantagens únicas que incluem computação, arquitetura de memória e links para outros aspectos da profundidade do hardware pode ser otimizado ea CPU e GPU em comparação com otimizado para alcançar um maior desempenho com menor consumo de energia, enquanto os dois primeiros A arquitetura de hardware não pode ser rapidamente otimizada para novos requisitos derivados.
Operação de borda é esmagadora
aplicações AI contar com as operações de dados em nuvem centro, embora haja muito alto suporte poder de computação, é geralmente maior do que a borda da correcção do dispositivo de identificação de acordo com o modelo simplificado de raciocínio, mas depois de tomar em conta as preocupações de privacidade, a resposta em tempo real on-line e os custos e outros fatores inferências diretas sobre a borda do dispositivo, ainda é opção muito atraente. por outro lado, a dados em nuvem tamanho do mercado central grande do que o dispositivo terminal, há um forte incentivo económico. este é também o último ano AIoT gritando slogans choque preço tocou, as principais razões para a indústria de semicondutores para ativamente layout.
Olhando para o futuro, os aplicativos de IA totalmente suportados pela nuvem ainda existirão no mercado, mas a proporção será reduzida ano a ano.Em vez disso, uma nova arquitetura que combina computação em nuvem e borda será substituída.Para desenvolvedores de aplicativos AI, a nuvem não pode ser substituída. O valor está no treinamento do modelo, não na inferência, e também por esse motivo, se o provedor da solução pode ou não conseguir uma integração perfeita entre "nuvem" e "fim" para os desenvolvedores de aplicativos, será um desenvolvedor de aplicativos. A consideração mais importante ao avaliar fornecedores.
5.MIT graduados receberão um diploma blockchain este mês
Sina Technology News Pequim, em 3 de junho, notícias da tarde, a tecnologia blockchain permite que os graduados do MIT gerenciem digitalmente seu currículo acadêmico.
A Learning Machines, uma empresa de software sediada em Cambridge, Massachusetts, trabalha com o MIT Media Lab e o Registration Office, onde os alunos podem baixar carteiras Blockchain, armazenar e compartilhar seus diplomas com segurança.
De acordo com o MIT Technology Review, após o sucesso inicial do projeto piloto, o MIT decidiu começar a fornecer serviços de carteira blockchain para todos os recém-formados este mês.
"Não acredito que as autoridades centrais possam controlar os registros de aprendizado de todos de maneira digital", disse Philipp Schmidt, diretor de inovação em aprendizado do laboratório de mídia.
O objetivo do lançamento de um diploma de formulário blockchain é permitir que os alunos obtenham suas credenciais acadêmicas de maneira oportuna e confiável, de modo que os potenciais empregadores não precisem ligar para a escola novamente para confirmar a autenticidade de seus diplomas.
Os recém-formados que querem um diploma digital só precisam baixar um aplicativo.
"Antes da formatura, o MIT enviará um e-mail de convite para o aluno. O e-mail escreveu: 'Ei, baixe a Carteira de Bloqueios, aceite a senha e adicione o MIT como editor'." Chris Jagers, CEO da Learning Machine Diz: "Quando o MIT emite um diploma, os alunos recebem um e-mail com um arquivo digital que eles podem importar diretamente para o aplicativo."