1. Cuando el Internet de las cosas se encuentra con AI;
Según el reciente estudio de mercado de SADA Systems de gerentes profesionales de la industria de TI a gran escala, la inteligencia artificial (AI) y la Internet de las cosas (IoT) en 2018 se están convirtiendo en las áreas más importantes para que las empresas inviertan en nuevas tecnologías.
De los 500 empleados de TI encuestados, el 38% de los encuestados mencionó que AI es el principal foco de inversión corporativa, mientras que el Internet de las cosas es el 31% y el blockchain se basa en el 10%. Dispositivos conectados a IoT Por lo general, genera enormes datos para entrenar modelos de aprendizaje automático (ML).
Entre las empresas encuestadas, Internet of Things tiene más diseño que AI, porque las industrias de IoT y edge computing son relativamente estables en la etapa actual, y una base tan sólida puede mejorar la precisión del aprendizaje automático y convertirse en necesaria para la inteligencia artificial. Prerrequisitos
Capacidad de reconocimiento de imágenes / Figura: Universidad de Cambridge
Las empresas también quieren hacer que la inversión de AI sea finalmente realizable, en lugar de la investigación constante de la organización académica. El CIO de medios extranjeros también planteó la cuestión de cómo hacer que la inversión en IA esté orientada a la comercialización correcta y una tarea importante para los líderes empresariales.
Además, en el fondo de la era actual, el costo y la dificultad de ejecutar AI también reducen significativamente no sólo "plataforma como servicio" puede proporcionar más datos para empresas de formación en informática que la empresa (PaaS) que también hace que los dispositivos de universales (Interoperabilidad) El grado de mejora. Además, una gran cantidad de bibliotecas y API maduras de aprendizaje automático han reducido el umbral para ingresar al AI.
Con el apoyo de las tecnologías de inteligencia artificial y nuevas cosas que vienen, las organizaciones deben cumplir con clave de desarrollo, ha llevado a la indefinida prevenir ciclo de desarrollo arrastramiento del alcance hora. Con el fin de lograr el hito periodo de tiempo, retener el talento es cada vez más necesario.
Capacidad de reconocimiento de imagen de la máquina / carta: Universidad de Cambridge
SADA y llamó alrededor emergente noticias tecnologías, llevará a las empresas están más dispuestos a invertir en nuevas tecnologías, pero la seguridad y la privacidad tienden a la zaga de desarrollo de la tecnología, y la inversión en nuevas tecnologías deben ser una seguridad hidráulica de propiedad preocupación, SADA creen que las empresas son tan Si realmente quiere convertirse en un pionero en tecnologías emergentes, entonces no puede ignorar las pruebas de seguridad de las tecnologías emergentes.
En un informe de la Universidad de Oxford en 2018, los investigadores mencionan Road, la tecnología de AI, siempre y cuando hay una falla, podría debilitar la eficiencia del flujo de trabajo de la máquina de aprendizaje, sino también poner en peligro la operación del negocio, si se ignoran las pruebas de seguridad importantes Sexo, me temo que no lo conseguiré.
cadena de bloque ya desde el año pasado atrajo mucha atención de los medios de la ciencia y la tecnología, sino que va a la zaga en cuanto a las cosas de negocios de inversión y AI. A medida que más y más empresas comienzan a compartir el éxito de la tecnología de la cadena de bloque y casos prácticos en el futuro Se espera que la inversión en este campo compita con Internet of Things y AI.
2. Historia de intérpretes AI
En el Foro 2018 de Boao para Asia, además de la agenda principal, sobre todo la introducción de un punto caliente es la primera traducción de la lengua que se habla en la conferencia de la inteligencia artificial en tiempo real. Sin embargo, no ha habido ningún AI anterior arbitrariamente declaró "Que la industria de intérpretes en tiempo real Estamos a punto de hacer frente a la amenaza del desempleo, "por el contrario, el resultado de graves errores en la traducción, y de hecho los intérpretes en tiempo real empleadas aliviado, parece que esta línea también se puede comer arroz durante mucho tiempo.
"La Génesis de la Biblia Antiguo" que se describe en el capítulo 11, después de la gran inundación retrocedió, este mundo humano son los hijos de Noé, hablar el mismo idioma cuando los seres humanos comenzaron a cooperar, construir llamada Babel Torre de Babel torre. alarmado el movimiento del Dios, por lo que Dios permitió que los seres humanos en todo el mundo comenzó a tener un idioma diferente, la raza humana ya no era la cooperación unida. Babel hizo planes fracasaron, cuando las diferencias de idiomas también se convierten en el más grande de la comunicación humana Obstáculos. Tal vez todavía hay un sueño en la sangre para reconstruir la Torre de Babel. Por lo tanto, la traducción se ha convertido en un proyecto cultural clave para la evolución continua de la humanidad en los últimos mil años.
La barrera del idioma no es tan fácil de romper, sobre todo a distintos idiomas para entender los mismos conceptos. Entre lenguajes paralelos primera vez en la historia humana corpus, que se produce en el año 196 antes de Cristo, la piedra de Rosetta (Rosetta Stone) La antigua lengua egipcia, el griego antiguo y los textos coloquiales locales se usaron para registrar las escrituras grabadas del rey Ptolomeo del antiguo rey egipcio. Este es también un hito importante en la traducción.
Traducción automática basada en reglas
En cuanto a la traducción máquina de origen, se remonta a 1949, investigador de teoría de la información Warren Weave propuso formalmente el concepto de la traducción automática. Cinco años más tarde, es decir, en 1954, de IBM, en colaboración con la Universidad de Georgetown anunció por primera vez la traducción automática del mundo IBM-701. es capaz de traducir ruso al Inglés, a pesar de que tiene un gran cuerpo, que de hecho sólo se construyó seis disposiciones de las normas de derecho, así como 250 palabras. pero aún así, esto sigue siendo un gran avance tecnológico, En ese momento, los humanos comenzaron a sentir que deberían ser capaces de romper rápidamente el muro del lenguaje.
Dios puede ser consciente de que hay diferencias, sino también a los seres humanos planean reconstruir la torre de Babel vierte un cubo de agua fría. En 1964, la Academia Nacional de Comité Consultivo de Ciencias estableció el procesamiento automático del lenguaje (Comité automática Procesamiento del Lenguaje Asesor, ALPAC). Después de dos años, la Comisión En el informe presentado, se considera que no vale la pena seguir invirtiendo en la traducción automática, ya que este informe provocó que Estados Unidos detuviera casi por completo el estudio de traducción automática en los próximos diez años.
Nacido de primer traductor de IBM de la década de 1980, cuando la tecnología de la corriente principal es la traducción automática basada en reglas. El método más común es la traducción literal directa de acuerdo con el diccionario, aunque era tarde para unirse a la iniciativa para corregir las reglas de sintaxis Pero para ser honesto, los resultados resultaron ser muy frustrantes, porque parece estúpido. Por lo tanto, en los años ochenta esas prácticas han desaparecido.
¿Por qué no pueden los idiomas aplicar reglas? Debido a que los lenguajes son sistemas extremadamente complejos y vagos, desde la ambigüedad de las palabras a la retórica, es imposible agotar todas las reglas. Pero, curiosamente, muchas innovaciones recientes en el lenguaje natural La compañía, aún tratando de resolver la semántica china con reglas exhaustivas, pero esta idea definitivamente terminará en fracaso.
Doy este ejemplo para ilustrar por qué la regla no es factible. Para mencionar la complejidad de la traducción en la conversión de dos idiomas, sólo de los chinos, la "entrega urgente pronto," el concepto de que se pueda imaginar muchos tipos de argumentos ? 10 tipos? o 100 tipos? naturales punto de vista de las estadísticas de lenguaje que han hecho antes, puede haber un total de 3600 tipos de argumentos, y ese número también deben aumentar con el tiempo. el concepto es tan simple una sentencia leve podría tener por lo complejo sistema de reglas, si tengo miedo de usar las reglas de conversión sería una asombrosa cantidad de astronómico, así que la idea de la traducción automática basada en reglas se ha convertido en una cosa del pasado.
Traducción automática basada en instancias
En el mundo de la traducción automática en la marea baja, no es un país para la traducción automática tiene una fuerte obsesión, y que es Japón. Japonesa Inglés pobres universalmente conocido, y por lo tanto de la máquina de traducción hay una fuerte demanda de rigidez.
Universidad de Kyoto profesor Makoto Nagao la traducción automática basada propuso, es detener la máquina a partir de cero y quiere traducir, siempre y cuando mantenemos un número suficiente de frases, incluso en la cara no coincidir exactamente con la oración, también se puede comparar con frases, la traducción no es la misma siempre que la sustitución de la palabra puede ser. Por supuesto, esto no es ingenua de la traducción automática basada en reglas cuántos inteligente, causó ningún problema. pero al poco tiempo, la humanidad la esperanza de reconstruir la torre de Babel Parece ver el alba otra vez.
Traducción automática estadística
Detonada auge de traducción automática estadística o IBM, en "Machine Translation matemática teoría" documento publicado en 1993 propuso un modelo estadístico consta de cinco unidades en una palabra, llamado "IBM Modelo 1" a "5 modelo de IBM."
La idea del modelo estadístico es tratar la traducción como un problema de probabilidad. En principio, es necesario usar un corpus paralelo y luego realizar estadísticas palabra por palabra. Por ejemplo, aunque la máquina no sabe qué es el "conocimiento" en inglés, se encontrará después de la mayoría de las estadísticas del corpus. mientras se tenga conocimiento de la sentencia aparece, las oraciones en inglés correspondientes serán palabra "conocimiento" aparece. de esta manera, incluso sin mantenimiento artificial de diccionarios y reglas gramaticales, sino también hacer que las máquinas entender el significado de la palabra.
Este concepto no es nuevo, ya que el más antiguo de la armadura Warren propuso un concepto similar, pero no hay suficiente tiempo y corpus paralelo era demasiado débil y calculadora de capacidad limitada, así que no hay implementado. Moderno traducción automática estadística de dónde encontrar "moderna piedra de Rosetta" significa? de hecho, la fuente más importante es el de las Naciones Unidas, debido a que las resoluciones de las Naciones Unidas y el anuncio tendrán versiones lingüísticas de los distintos Estados miembros, pero aparte de eso, usted quiere hacer su propio corpus paralelo a Ahora el costo de la traducción humana se traduce en saber que este costo es asombrosamente alto.
En la última década, estamos familiarizados con la traducción de Google se basan en la traducción automática estadística oír eso, todo el mundo debe ser modelo de traducción estadística clara, no los logros de la gran causa de Babel en la impresión de todo el mundo, la traducción automática sólo se detienen en es El grado de "útil" en lugar de "útil".
Traducción automática de redes neuronales
Para 2014, la traducción automática marcó el comienzo del cambio más revolucionario de la historia: ¡el "aprendizaje profundo"!
red neuronal no es nueva, de hecho, las redes neuronales invención ha sido hace 80 años, pero ya en 2006 Geoffrey Hinton (primer estudio de tres gran profundidad de Dios) la mejora de la red neuronal optimización defecto fatal es demasiado lento, continuará el aprendizaje profundo acompañado de una variedad de logros milagrosos con frecuencia aparecen en nuestras vidas en el año 2015, la máquina por primera vez más allá de reconocimiento de imágenes humana ;. 2016, Alfa Ir vencer al campeón mundial de ajedrez; 2017, más de la mecanógrafa de reconocimiento de voz humana; 2018, máquina de lectura Inglés por primera vez más allá de la comprensión humana. por supuesto, la traducción automática en este campo, sino también debido a la profundidad y comenzar el aprendizaje de este broche de oro súper fertilizante.
Yoshua Bengio, del Dios de aprendizaje profundo en el documento de 2014, estableció por primera vez la estructura básica de la tecnología de aprendizaje profundo para la traducción automática. Utiliza principalmente una red neuronal recurrente (RNN) basada en secuencias, para que la máquina pueda capturar oraciones automáticamente. La palabra característica, que a su vez puede traducirse automáticamente al resultado de la traducción de otro idioma. Este artículo muestra que Google ganó el tesoro. Poco después, Google proporcionó abundante pólvora y la gran bendición de Dios, Google anunció oficialmente en 2016 que Todas las traducciones automáticas estadísticas estaban fuera de la plataforma, las traducciones automáticas de redes neuronales se convirtieron en la corriente principal absoluta de la traducción automática moderna.
La característica más importante de la traducción automática de redes neuronales de Google es la adición de Atención. De hecho, el mecanismo de atención consiste en pasar primero por los ojos al simular la traducción humana, y luego seleccionar algunas palabras clave para confirmar la semántica. Proceso (figura 2). Efectivamente, con la bendición del mecanismo de atención, el poder ha aumentado enormemente. Google afirma que en los idiomas inglés-francés, inglés-chino e inglés-occidental, la tasa de error ha cambiado. El sistema estadístico de traducción automática se reduce en un 60%.
Aunque la red neuronal puede aprender del corpus paralelo existente y comprender las sutiles características lingüísticas de la oración, no es perfecta. El mayor problema surge de la gran cantidad de datos necesarios y su incomprensibilidad como una caja negra. No hay forma de cometer errores, solo para proporcionar un corpus más correcto para corregir el "aprendizaje profundo". Por lo tanto, el mismo patrón de oraciones puede tener resultados de traducción muy diferentes.
En febrero de 2018, Microsoft realizó nuevos movimientos para hacer que el lenguaje de máquina fuera más allá de la humanidad. El 14 de marzo, investigadores de Microsoft Research Asia y Redmond Research Institute anunciaron que su sistema de traducción automática de I + D era News en el aparato de prueba en la traducción en Inglés de la prueba establece Newstest2017, puede llegar a niveles comparables con la traducción humana. naturalmente, esta red neuronal es una traducción automática de una gran victoria, por supuesto, tiene una gran cantidad de innovación en la arquitectura, el más notable de Se combina con Redes Dual de Aprendizaje y Deliberación.
aprendizaje dual para resolver el problema del corpus paralelo limitado, en general, la profundidad del aprendizaje debe ser proporcionada a la máquina de respuestas, por lo que la máquina será capaz de basa en la diferencia entre sus traducciones y la respuesta corregida sostenida mejora. En cuanto a la red escrutinio también imitar el proceso de traducción humana por lo general la traducción humana va a hacer en primer lugar una traducción aproximada, y luego ajustar el contenido exacto de la segunda traducción, de hecho, es posible que no hay redes neuronales materia inteligente, todavía va a terminar en la superficie de referencia de las criaturas más inteligentes, que es el organismo Para la humanidad nosotros.
El lenguaje no puede usarse fuera de contexto
El desarrollo de la traducción automática no significa que el futuro de la profesión de traductor no será una comida para comer. Cabe señalar que la presentación de Microsoft hizo hincapié en la "prueba de establecer Newstest2017 informes universales noticias" de "equipo de prueba Traducción Inglés", el conjunto de datos buen rendimiento y versatilidad no ser capaz de dibujar en el signo igual, lo que también puede explicar por qué Tencent junio, obviamente, la traducción habitual era bueno, pero ¿por qué es inexacta en el rendimiento de Boao interpretación en tiempo real.
En tiempo real interpretación de traducción puede decirse es la culminación de la tarea, debemos tener una comprensión correcta de la vista de sentencia original, sino también la conversión de un tiempo limitado para otros idiomas. Y no olvidemos los altavoces no dará ningún tiempo para esperar a la traducción, reconocimiento de voz y tan iguales La traducción automática debe procesarse sincrónicamente, junto con el ruido in situ, la expresión del hablante, las interjecciones de palabras modales, etc., todo lo cual puede provocar un error de juicio por parte de la máquina.
En mi punto de vista, la traducción junio Tencent, puede ser acusado de puntos no pueden trabajar lo suficiente, no hemos puesto los nombres propios de entrada clave, que será "una carretera y un cinturón de" pasar "error clásico."
También puede verse en la figura 3 es una diferencia interesante, por qué Occidente era la traducción automática manifiestamente equivocada, la traducción automática, pero el país es casi capaz de dominar la intención? Es porque el lenguaje humano no puede separarse existen escenarios de uso. Esto a menudo aprendemos el idioma énfasis en contexto (contexto), que proviene de nuestra cultura pasada, hay recuerdos del pasado planteados. Tang no leyó el Google naturalmente, no puede entender la esencia de este poema. barreras lingüísticas serían la última era de la inteligencia artificial humana, porque Los idiomas cambian constantemente debido al uso de humanos. Este es un sustituto muy difícil para las máquinas.
Con el avance de la tecnología, un día, la traducción automática pasará de ser "útil" a "útil" y luego evolucionará a "útil". Pero, como siempre he argumentado, las máquinas no privarán a las personas de su trabajo. El hecho de que los seres humanos están desempleados es solo nuestro. Cómo hacer un buen uso de la inteligencia artificial para convertirse en su propia herramienta, y salir del aburrimiento y del trabajo tedioso, esta es la postura correcta para el futuro.
3.AI, la feroz batalla de los grandes datos y la privacidad personal apenas ha comenzado;
El tema de moda más reciente, que no es otro que los no grandes volúmenes de datos, incluyendo el número de Expo 2018 China organizó con fuerza, hay que decir, que lo más importante es recoger datos de datos de gran tamaño, pero la UE ha anunciado un Reglamento General de Protección de Datos (GDPR), Kansas Al afirmar que es la ley de protección de datos personales más estricta de la historia, también provocó disputas sobre el desarrollo de big data y datos personales.
La razón por la que los macrodatos pueden convertirse en datos efectivos es recopilar y analizar datos, y cuantos más datos, más relevantes se pueden analizar y convertirse en datos útiles.
Sin embargo, la fuente de los datos, pero en boca de todos, en el nacionalismo, no parece haber obligado a sacrificar sus intereses personales para permitir que los países para llevar a cabo la política, que es más evidente en China, Desarrollo de China a los datos con bastante rapidez, el gobierno Cuántas política de planificación, e incluso la llamada reducción de la pobreza, la pobreza, etc., al igual que con grandes volúmenes de datos, todos los problemas no son un problema, sino una gran cantidad de datos grandes, de hecho, son partes a sacrificar los derechos de datos personales, que hacen hincapié en la intimidad personal del país, es Cosas imposibles
La dirección del desarrollo empresarial taiwanés se centra en grandes datos industriales. El desarrollo más rápido es el de Hon Hai, que cuenta con 40 años de datos de producción. Es la mayor ventaja de Hon Hai y también es un lugar en el que Taiwán tiene la oportunidad de desarrollar big data.
Pero si se quiere desarrollar Taiwan como China continental de datos tan grandes, y se refiere al campo de la privacidad de las personas, básicamente, existen en muchos problemas recurrentes, el ETC sólo un registro, es probable que conducen a la invasión de la privacidad, por no hablar acerca grandes datos está directamente relacionada con la privacidad personal, los datos en el gran éxito final, pueden tener que seguir tirar del interés público y el equilibrio intimidad personal. Kui red Heng
4.AI inferencias a los nodos de borde Las aplicaciones de video / voz representan, cada una, la mitad del cielo;
2018 AIoT mercado (AI + IO) está creciendo alarmante, impulsar el desarrollo de una variedad de dispositivos, sino también para promover la función de aprendizaje profundo opera en el borde de convertir a la nube para conseguir una baja latencia, ancho de banda bajo, alta privacidad y la alta eficiencia de la inteligencia artificial Experiencia de aplicación.
Con el rápido desarrollo de tecnologías como la inteligencia artificial (AI) y la informática de punta (Edge Computing) en los últimos años, varios productos electrónicos de consumo y electrodomésticos incluidos en el concepto de hogar inteligente experimentarán un cambio revolucionario. red de inteligencia artificial, que consiste en los aparatos electrodomésticos, es probable que sea y no puedo ver los otros miembros de la familia. el concepto de la nube local y equipo relacionado, serán elementos de red de inteligencia artificial para el hogar indispensable.
El altavoz / monitoreo inteligente se convertirá en dos ejes principales de la IA de consumidor
La firma de investigación Ovum responsable de rastrear el desarrollo del investigador de la tecnología de consumo Ronan de Renesse (Figura 1) que la aplicación de la IA en el campo de la electrónica de consumo, casi dos años a menudo se convierten en el foco de atención de los medios, pero la electrónica de consumo y AI combinados con la tendencia, sólo ahora empezando a desarrollarse en los próximos tres a cinco años, muchos productos de electrónica de consumo estarán equipados con funciones de AI, y estarán vinculadas entre sí, una familia de la inteligencia artificial en la red.
Figura 1 Ronan de Renesse, investigador de tecnología de consumo en Ovum, cree que varios dispositivos electrónicos de la futura familia se convertirán en un miembro invisible de la familia.
Para cadena de hardware, aunque esta tendencia traerá muchas nuevas oportunidades de negocio, pero si desde un punto de vista más alto nivel, este entró silenciosamente en la red de inteligencia artificial en el hogar, usted será no veo otra "familia Miembros ".
En cuanto al hardware, los altavoces inteligentes familiares, básicamente es un producto relativamente maduro, aunque habrá un crecimiento significativo en las ventas, pero creciente fuerza poco a poco se ralentizará en los próximos cinco años. Cuando los aproximadamente 2.022 altavoz inteligente mundial la cantidad de ventas de casi $ 9.5 mil millones. de hecho, Renesse cree que Amazon (Amazon) con Google probablemente no va a lanzar su propia marca de altavoces inteligentes en el futuro, debido a que el producto en sí no es este tipo de márgenes de beneficio, estos dos Para los gigantes de la red doméstica, siempre que los proveedores de hardware utilicen sus servicios de plataforma, pueden recopilar los datos de los usuarios que necesitan.
En el mismo período, los cambios en tales productos como los sistemas de monitoreo inteligentes domésticos serán más pronunciados que los altavoces inteligentes. En la actualidad, los llamados productos de monitoreo inteligente para el hogar no tienen componentes de inteligencia artificial, sino cámaras, alarmas, cerraduras de puertas, sensores y otro hardware. Los productos están conectados entre sí para formar un sistema de seguridad que admita Event Trigger. Sin embargo, a medida que las tecnologías de software y hardware relacionadas se vuelven más maduras, la proporción de cámaras de vigilancia doméstica que llevan inteligencia artificial aumentará, y al mismo tiempo podrá lograr más. Las aplicaciones, como el uso de asistentes de voz, brindan a los usuarios múltiples servicios más precisos en un entorno multiusuario.
Protección de la privacidad del consumidor para aplicaciones de IA
Sin embargo, para la industria del hardware, lo más notable es que el concepto de la nube local y los productos relacionados de la aplicación se recogerán ya que los dispositivos en el hogar generalmente son compatibles con la inteligencia artificial. Renesse señaló que los productos electrónicos equipados con la función AI Producir una gran cantidad de datos de usuario, y muchos de ellos son datos relacionados con la privacidad personal. Por lo tanto, si estos productos electrónicos caseros equipados con inteligencia artificial dependen completamente de la nube externa para operar, obviamente causará problemas de privacidad.
Por otro lado, muchas características relativamente dispositivos cosas simples de consumo, por la energía eléctrica, potencia de cálculo, el costo de producción y otras condiciones, pueden no ser capaces de soportar muy alta gama de algoritmos de IA. En este momento, el dispositivo de la nube locales jugarán el papel del cerebro, pedidos unificados para estos dispositivos.
Pero admite Renesse, todavía es difícil decir qué tipo de equipo jugará un centro de la nube local. Puede haber altavoces de gama alta más inteligentes, puede ser una televisión inteligente u otros productos.
Ian Smythe, director senior de marketing de Arm (Figura 2) también cree que habrá cada vez más motores de computación e inferencia que se trasladarán a la terminal en el futuro. La principal fuerza motriz de esta transferencia es proteger la privacidad del usuario. . por el procesamiento final y el trabajo de análisis, los datos pueden ser fácilmente anónima, y para asegurar que los datos sensibles no serán revelados a través de la red. aplicación de la familia, por ejemplo, los consumidores no quieren a alguien de la red supo que su familia no lo hizo El tiempo de las personas, y luego robar fácilmente en casa.
Figura 2 Ian Smythe, director senior de marketing de Arm, dijo que para las aplicaciones de AI de consumo, si el mecanismo de protección de la privacidad es confiable será la clave para saber si la aplicación se puede popularizar.
Para las aplicaciones visuales, Smythe cree que las cámaras que admiten el reconocimiento visual se consideran intrínsecamente problemas importantes de privacidad. Obviamente, estos dispositivos deben diseñarse de modo que puedan protegerse cuando se almacenan localmente o se transmiten a la nube. Privacidad e información confidencial: dado que la transmisión generalmente se conecta de forma inalámbrica, se debe prestar especial atención a la seguridad de la función de transmisión inalámbrica. Los ingenieros que diseñan el dispositivo deben asegurarse de que los dispositivos conectados a la red no sean pirateados ni interceptados.
La duración de la batería sigue siendo el principal desafío técnico
Sin embargo, para empujar AI al nodo de borde, el mayor desafío técnico en la actualidad sigue siendo el consumo de energía del sistema. Tomando como ejemplo las cámaras de vigilancia de los consumidores, los consumidores pueden esperar que dichos productos sean completamente inalámbricos, y lo mejor es ni siquiera conectar los cables de alimentación. Esto significa que estos productos deben funcionar con baterías y también admitir redes inalámbricas. Además, debe poder identificar todos los elementos y necesita espacio de almacenamiento ilimitado.
Por encima de exigir una gran cantidad de desafíos para el diseño del sistema, que puede requerir varios meses para ejecutar capacidad de la batería cargada continua del aprendizaje (ML) de la máquina, y la continua capacidad de cargar archivos en el almacenamiento en la nube Estos casos extremos de los componentes del diseño y del sistema de chip Los requisitos son bastante exigentes, y lo más importante, han dominado cuándo habilitar la orquestación de estas funciones para prolongar la vida útil de la batería.
En el caso de las cámaras de vigilancia doméstica, la cámara no necesita transmitir el video en la habitación durante 24 horas. Solo es razonable cargar la parte de la imagen cuando hay una persona no confirmada. De la misma manera, si la escena como la vacante permanece sin cambios. No tiene sentido habilitar el algoritmo ML. Organice cuidadosamente dónde y cuándo se habilitan estas características para que el dispositivo de consumo pueda operar en el modo esperado con solo 2 baterías AA y se puede usar por un período de tiempo prolongado.
Debido a que el consumo de energía es uno de los principales obstáculos para que las IA entren en dispositivos terminales, muchas startups en el mercado ahora están viendo esta oportunidad de lanzar un acelerador de red neuronal (NN) de baja potencia, la propiedad intelectual de silicio (IP) para ayudar al chip. Al tiempo que reducen el consumo de energía, los desarrolladores pueden cumplir con el rendimiento requerido por la inferencia de algoritmos. Kneron lanzó oficialmente su serie NPU, un procesador dedicado de inteligencia artificial diseñado para dispositivos terminales. IP. Esta serie incluye tres productos, a saber, la versión de bajo consumo KDP 300, la versión estándar KDP 500 y la versión de alto rendimiento KDP 700, que pueden satisfacer las necesidades de teléfonos inteligentes, hogares inteligentes, seguridad inteligente y una variedad de dispositivos IoT. La gama completa de productos tiene un bajo consumo de energía, un tamaño pequeño y ofrece potentes capacidades informáticas. A diferencia del consumo de energía del procesador de inteligencia artificial en el mercado, el Kneron NPU IP consume 100 milivatios. (mW), para el KDP 300 dedicado al reconocimiento facial para teléfonos inteligentes, consume menos de 5 milivatios.
Las aplicaciones pueden ser resistentes de marketing de producto cum Shiya Lun (Figura 3 izquierda) señala, a realizar en la operación de inteligencia artificial dispositivo terminal, mientras que satisfacer la demanda de potencia y el rendimiento es una consideración primordial. Por lo tanto, la introducción de soluciones optimizadas para aplicaciones individuales, es crítico .. la aplicación actual de la inteligencia artificial puede ser ampliamente dividido en dos grandes categorías de voz con vídeo, arquitectura de red neuronal que utilizan un diferentes aplicaciones de voz énfasis en el análisis del lenguaje natural, la arquitectura de la red de corriente es la red neuronal recurrente (RNN); La estructura de red principal utilizada para el análisis de imágenes es la red neuronal convolucional (CNN). Para optimizar las diferentes estructuras de red, la solución proporcionada por la capacidad es diferente.
Shen Ming-feng (Figura 3 derecha) osos pueden complementar el gestor de diseño del software, a pesar de una menor demanda de potencia de cálculo chip de análisis del lenguaje natural, sino por el tono del lenguaje, hábitos del habla tiene una gran discrepancia, y por lo tanto requiere que el conjunto de datos de entrenamiento del modelo Mucho más que el reconocimiento de video, por otro lado, debido a que los consumidores ya están acostumbrados a usar asistentes de voz en la nube como Apple Siri y Google Assistant, los consumidores prefieren las aplicaciones de análisis semántico fuera de línea. La condición previa es que debemos proporcionar una experiencia similar al consumidor con recursos informáticos limitados. Este es un desafío para los proveedores de chips y los desarrolladores de sistemas.
3 osos pueden aplicar de Marketing y Producto Shiya Lun (izquierda) cree que la voz con reconocimiento de imágenes son de naturaleza muy diferente, tiene que depender de diferentes soluciones para satisfacer. Shen Ming-feng es el software adecuado puede ser director de diseño resistente.
De hecho, la gran mayoría de altavoces inteligentes, no son considerados como productos informáticos borde. Shiya Lun señaló que, independientemente del Amazonas (Amazon) de Echo, Homepod de Apple o altavoz inteligente plataforma de Baidu, Alibaba, o quiere tener datos a la nube para su procesamiento con el análisis semántico, con el fin de responder al usuario. navegación por voz se puede realizar directamente en el producto final, el modo básicamente la mayor parte de las normas adoptadas (basado en reglas), y no se basa en la comprensión semántica natural de aprendizaje automático.
Desde 2016 los osos pueden lanzar procesador IA-dispositivo específico primera terminal de NPU IP de la compañía, han continuado mejorando su diseño y especificaciones, y optimizado para diferentes aplicaciones industriales. En la actualidad está disponible para los clientes a partir de la IP, KDP 500 clientes de plantas que utilizan el sistema ha sido y será en la producción en masa en la fabricación segundo trimestre (Máscara de la cinta de salida). reconocimiento de voz con la cooperación perros de búsqueda ha alcanzado análisis fuera de línea semántica, por lo que incluso si el dispositivo terminal no está conectado a la red, sino también Puede entender las instrucciones de voz del usuario.
Kneron NPU IP está dedicado procesador de inteligencia artificial para el dispositivo terminal está diseñado para que el dispositivo terminal en un entorno sin conexión, puede ejecutar ResNet, YOLO otra red de aprendizaje profundo. Kneron NPU es una solución completa de hardware de fin de AI, incluyendo hardware IP, compilador (compilador), y el modelo de compresión (compresión modelo) tres partes, puede soportar una variedad de modelos de redes neuronales convencionales, tales como Resnet-18, Resnet-34, Vgg16, GoogleNet, y Lenet, así como el soporte estándar aprendizaje profundo Marcos, incluidos Caffe, Keras y TensorFlow.
el consumo de energía Kneron NPU IP es 100 nivel mW, versión ultra-baja potencia de la KDP 300 o incluso menos de 5 mW, la gama completa de productos en el rendimiento por vatio 1,5 TOPS / W o más, el uso de un número de tecnología exclusiva, que puede Satisfaga las necesidades de los vendedores de chips, proveedores de sistemas para bajo consumo de energía, alta potencia de computación.
Bloqueo de elementos básicos Los aceleradores de hardware no temen a la iteración técnica
Curado del circuito (cableado) para mejorar la eficiencia de ciertas tareas de computación, lo que reduce el consumo de energía, el diseño de chips para las edades, pero a costa de una menor flexibilidad de aplicación, un cambio significativo en el caso de la demanda del mercado para las funciones de chips , O el algoritmo del software cambia drásticamente, los diseñadores de chips tienen que volver a desarrollar nuevos chips.
En el caso de la función de demanda de chips ha sido básicamente resuelto, y este diseño no es un problema, pero en el mercado emergente de técnicas iterativas rápidos, tomar este enfoque de diseño, habrá un riesgo relativamente grande en los negocios la inteligencia artificial es muy rápida iteración experto, casi todos los años un nuevo algoritmo con el modelo de la firma de investigación disponibles. Abrir AI también señaló que en los últimos seis años, AI modelo de formación para la demanda de potencia de cálculo se incrementará cada 3,43 al mes veces.
En este sentido, Shen Ming Feng señaló, no es necesariamente un acelerador de hardware no es elástica. Resistente a los productos energéticos, por ejemplo, en el diseño arquitectónico, la empresa utiliza dividida convolución kernel (descomposición Filter) la tecnología, la gran convolución kernel de convolución cálculo de una pluralidad de pequeños bloques divididos en bloques de cálculo de convolución por separado, luego se combinan hardware reconfigurable aceleración de convolución (convolución reconfigurable de aceleración) técnica, el resultado de la operación de convolución de la operación de una pluralidad de pequeños bloques se fusionan para acelerar el general Eficiencia operacional
Parábolas más fácil de entender, como piezas de Lego se pueden combinar en una variedad de patrones para construir un objeto, pero el objeto en sí mismo sigue siendo toda una pila de unos pocos cuadro básico. Resistencia programa de energía es indispensable para los algoritmos de IA Los elementos básicos se aceleran para mejorar el rendimiento de ejecución de todo el algoritmo. Por lo tanto, incluso si el algoritmo AI se actualiza a una velocidad muy alta, la solución basada en el rendimiento aún puede ejercer un efecto de aceleración.
Además del propio diseño del acelerómetro que se centra en los elementos básicos, en lugar de acelerar el algoritmo específico como un todo, Terrain también proporciona otras técnicas para acelerar o desplegar aplicaciones de inteligencia artificial. Por ejemplo, su tecnología de compresión de modelos comprime modelos no optimizados. Decenas de veces: el almacenamiento en caché de varios niveles puede reducir el uso de CPU y la transferencia de datos, mejorando aún más la eficiencia operativa general. Además, Kneron NPU IP se puede combinar con el software de reconocimiento de imágenes Kneron para proporcionar análisis de identificación en tiempo real. La respuesta no solo es más estable, sino que también cumple con los requisitos de seguridad y privacidad. Debido a que el hardware y el software pueden integrarse estrechamente, la solución general es más pequeña y el consumo de energía para ayudar al rápido desarrollo de los productos.
Reconocimiento de imágenes AI es más urgente hacia el borde
En general, la demanda actual del mercado para el reconocimiento de imágenes es más urgente. Aunque existe un mercado potencialmente enorme para los hablantes inteligentes en el análisis semántico sin conexión, hay menos recursos para la industria de las apuestas. La razón principal de este fenómeno es que La transmisión ocupará una gran cantidad de ancho de banda, lo que a su vez aumenta el costo total de propiedad del sistema. Voice no tiene este problema.
Lin Zhiming, gerente general de Jingxin Technology (Figura 4) explicó que la integración de la inteligencia artificial y la Internet de las cosas también impulsará la introducción de la tecnología informática de borde. La tecnología informática de borde se aplicará a una variedad de aplicaciones emergentes. Dentro de esta tendencia, la flexibilidad y la velocidad son las mayores ventajas para los fabricantes taiwaneses. Para la mayoría de las empresas taiwanesas y las empresas de diseño de circuitos integrados, es más fácil acceder al mercado de inteligencia artificial desde el borde.
Figura 4: Zhixin Lin, gerente general de Jingxin Technology, estima que IP Cam será una de las principales aplicaciones para realizar inferencias de inteligencia artificial en dispositivos de borde.
Al mismo tiempo, debido a la tecnología de la computación borde de importación, pero también traerá para mejorar la memoria, la transmisión y así sucesivamente los requisitos de hardware, será empujado de manera significativa los costes de fabricación. Debido a la correlación de imágenes de sistema-en-chip (SoC) originalmente en comparación con otras aplicaciones más complejas, por La tolerancia a los costos también es grande, por lo que se espera que la tecnología de computación de borde sea la primera en ser importada por aplicaciones relacionadas con imágenes como IP Cam.
aplicaciones de inteligencia artificial se pueden dividir en dos secciones discuten la formación y el reconocimiento. En el proceso de aprendizaje profundo de la operación masiva, poco tiempo todavía estará a cargo de la computación en nube. El operador de borde es responsable de la tarea, aspirados información recogida hacer primero tratamiento preliminar, después de lo cual filtrar la información sin importancia, y luego cargar los datos en la nube para ahorrar en costes de transporte. por otro lado, a los resultados completos de aprendizaje espesor de la nube, es posible identificar la función del terminal más inteligente. a IP Cam Por ejemplo, el trabajo de aprendizaje profundo de imágenes se puede completar primero con la computación en la nube. Una vez que el aprendiz en espera reconoce al peatón, la cámara IP en el borde solo puede realizar el trabajo de identificación.
Por otro lado, dado que IP Cam es ampliamente utilizado en mantenimiento de seguridad y seguridad de la comunidad, el gobierno y las empresas están relativamente dispuestos a apoyar la inversión, lo que también será una razón para el rápido desarrollo de IP Cam.
Lin Zhiming compartió que muchos fabricantes ahora están explorando cómo importar inteligencia artificial en sus propios chips y sistemas. La situación actual es similar al comienzo del Internet de las Cosas. Todos todavía están tratando de descubrir cómo usar esta tecnología. Se estima que los fabricantes estarán alrededor de 2020. Lanzará más productos reales.
Las aplicaciones en tiempo real deben usar arquitectura de computación de borde
La inteligencia artificial es un tema candente hoy en día. El cambio gradual de una arquitectura de computación en la nube a una arquitectura informática tendrá un impacto significativo en los proveedores de la cadena de suministro. Aunque el desarrollo de la inteligencia artificial en el corto plazo continuará dominado por la computación en la nube, Sin embargo, muchas funciones de inteligencia artificial con respecto a las aplicaciones de visión comenzarán a importar bordes.
Director de Desarrollo de Xilinx (Xilinx) inteligencia visual estrategia de mercado Dale K. Hitt (Figura 5) señaló que en un futuro previsible, los componentes de capacitación para el desarrollo de IA pueden todavía dominado por el cloud computing. Sin embargo, la inferencia / Implementar componentes ha comenzado Utilice operaciones de borde para admitir aplicaciones que requieren baja latencia y eficiencia de red.
Figura 5 Dale K. Hitt, director de desarrollo de mercado de la estrategia de inteligencia visual de Xilinx, cree que para las aplicaciones que requieren una latencia muy baja, las operaciones de borde serán la mejor solución.
Para el elemento de operando de última generación para aplicaciones de visión artificial relacionados con el aprendizaje, será una de la tendencia fundamental y de largo alcance. Y, en el procesamiento industrial de imágenes, ciudades inteligentes, análisis visual y el mercado libre unidad tiene una fuerte potencial de crecimiento. en términos de aplicaciones de visión y de los consumidores industriales, debido a los algoritmos de aprendizaje automático borde aritméticas para ser ejecutado, por lo que para un rendimiento requisitos son también más altos que los de las generaciones anteriores muchos programas. Además, la máquina del borde aprendiendo algoritmo / función también ha sido rápida evolución, y por lo tanto todos los ámbitos de la vida Necesita hardware autoadaptable para optimizar las futuras arquitecturas de inferencia de aprendizaje automático.
Hitt usa autos autodidactas como ejemplo. Detrás de cada sensor en el automóvil, hay un soporte de algoritmo preciso que es responsable de producir los resultados de la interpretación sensorial de los datos del sensor. La última tendencia es usar algoritmos de aprendizaje profundo para generar estos resultados de interpretación perceptual. Los algoritmos de aprendizaje profundo deben ser entrenados a través de una gran cantidad de situaciones potenciales para aprender a leer todos los datos de sensor posibles.
Después del entrenamiento, los algoritmos de aprendizaje profundo requieren una alta eficiencia computacional y una latencia ultrabaja para controlar el vehículo de forma segura. Para vehículos eléctricos, se debe aplicar un bajo consumo de energía para limitar la temperatura de funcionamiento y extender la energía de la batería. El objetivo es proporcionar soluciones adaptables, de baja potencia y alta eficiencia para satisfacer las diversas necesidades de AI de borde libre.
En el desarrollo de la informática de punta, el mayor desafío es que la demanda del mercado cambia demasiado rápido, por lo tanto, las tecnologías que pueden adaptarse rápidamente a varios cambios son extremadamente importantes para permitir a las empresas mantener su competitividad.
Hitt explicó además que los algoritmos de aprendizaje profundo avanzan continuamente a un ritmo rápido, y muchas de las soluciones líderes de 2017 ahora se han enfrentado al destino de la eliminación. Incluso con la capacidad de superar a muchos otros en la actualidad, a medida que las necesidades informáticas continúan aumentando, el hardware aún necesita Optimice. El hardware se debe actualizar a un ritmo más rápido para evitar su eliminación. Es posible que algunos hardware necesiten actualizarse durante la producción. También se deben recuperar muchas tecnologías alternativas para actualizar el chip.
Hitt agregó que las ventajas únicas de los FPGA incluyen la optimización profunda de hardware, que incluye operaciones, arquitectura de memoria y enlaces. En comparación con las CPU y GPU, pueden lograr un mayor rendimiento con un menor consumo de energía después de la optimización. La arquitectura de hardware no se puede optimizar rápidamente para nuevos requisitos derivados.
La operación de borde es abrumadora
Al depender de aplicaciones de inteligencia artificial que funcionan en centros de datos en la nube, su precisión de identificación es generalmente superior a la de los dispositivos periféricos basados en la inferencia simplificada del modelo, pero después de considerar las cuestiones de privacidad, respuesta en tiempo real y costo en línea, y otros factores Todavía es una opción atractiva para hacer inferencias directamente en los dispositivos de borde.Por otro lado, el tamaño del mercado de los dispositivos terminales es mucho mayor que el de los centros de datos en la nube, y hay fuertes incentivos económicos.Esto también es el lema de AIoT gritando en el último año. El precio es altísimo, y las principales compañías de semiconductores están desplegando activamente.
De cara al futuro, las aplicaciones de IA que son compatibles con la nube todavía existen en el mercado, pero la proporción está destinada a reducir año tras año, que será reemplazada por una nueva nube híbrida arquitectura y el borde de la computación. Las aplicaciones de los desarrolladores de AI, la nube no pueden ser reemplazados valor radica en el modelo de tren, en lugar de realizar inferencia. también por esta razón, los desarrolladores de aplicaciones, proveedores de soluciones pueden lograr una integración perfecta entre la "nube" y "final" será desarrolladores de aplicaciones La consideración más importante al evaluar proveedores. Nueva electrónica
5. Los graduados de MIT recibirán un diploma blockchain este mes
Sina Technology News Beijing, hora del 3 de junio por la tarde, la tecnología blockchain permite a los graduados de MIT administrar digitalmente su currículum académico.
Cambridge, Massachusetts compañía de software de aprendizaje automático y el MIT Media Lab y la colaboración domicilio social, los estudiantes pueden optar por descargar la cartera bloque de la cadena, almacenamiento seguro y compartir su diploma.
De acuerdo con el "MIT Technology Review" informó de que, después de un primer proyecto piloto tiene éxito, el MIT decidió desde el principio de este mes para proporcionar servicio de monedero cadena de bloque para todos los nuevos graduados.
"No creo que las agencias centrales puedan controlar los registros de aprendizaje de todos de una manera digital", dijo Philipp Schmidt, director de innovación de aprendizaje en el laboratorio de medios.
El propósito de la introducción en la forma de un bloque de la cadena diploma es capacitar a los estudiantes para ser capaz de acceso oportuno y confiable de su preparación académica, ya que tales patrones potenciales, no tendrán que llamar para confirmar su diploma de escuela secundaria es cierto.
Los recién graduados que desean un diploma digital solo necesitan descargar una aplicación.
"Antes de la graduación, el MIT enviará un correo electrónico de invitación al alumno. El correo electrónico escribió: 'Oye, descarga Blockcerts Wallet, acepta la contraseña y agrega MIT como editor'. 'Chris Jagers, CEO, Learning Machine Dice: "Cuando MIT emite un diploma, los estudiantes reciben un correo electrónico con un archivo digital que pueden importar directamente en la aplicación".