Con el rápido desarrollo de tecnologías como la inteligencia artificial (AI) y la informática de punta (Edge Computing) en los últimos años, varios productos electrónicos de consumo y electrodomésticos incluidos en el concepto de hogar inteligente experimentarán un cambio revolucionario. red de inteligencia artificial, que consiste en los aparatos electrodomésticos, es probable que sea y no puedo ver los otros miembros de la familia. el concepto de la nube local y equipo relacionado, serán elementos de red de inteligencia artificial para el hogar indispensable.
El altavoz / monitoreo inteligente se convertirá en dos ejes principales de la IA de consumidor
La firma de investigación Ovum responsable de rastrear el desarrollo del investigador de la tecnología de consumo Ronan de Renesse (Figura 1) que la aplicación de la IA en el campo de la electrónica de consumo, casi dos años a menudo se convierten en el foco de atención de los medios, pero la electrónica de consumo y AI combinados con la tendencia, Solo ahora está comenzando a desarrollarse. En los próximos tres a cinco años, muchos productos de electrónica de consumo llevarán la funcionalidad de inteligencia artificial y se vincularán entre sí para formar una red de inteligencia artificial en el hogar.
Figura 1 Ronan de Renesse, investigador de tecnología de consumo en Ovum, cree que varios dispositivos electrónicos de la futura familia se convertirán en un miembro invisible de la familia.
Para cadena de hardware, aunque esta tendencia traerá muchas nuevas oportunidades de negocio, pero si desde un punto de vista más alto nivel, este entró silenciosamente en la red de inteligencia artificial en el hogar, usted será no veo otra "familia Miembros ".
Desde el punto de vista del hardware, los altavoces inteligentes que son familiares para todos son básicamente productos relativamente maduros. Aunque habrá un crecimiento significativo de las ventas en los próximos cinco años, el crecimiento se ralentizará gradualmente. Se estima que para el año 2022, los altavoces inteligentes globales El monto de las ventas será cercano a 9.500 millones de dólares EE.UU .. De hecho, Renesse cree que Amazon y Google no podrán lanzar su propia marca de altavoces inteligentes en el futuro, porque este tipo de producto en sí tiene poco margen de ganancia. Para los gigantes de la red doméstica, siempre que los proveedores de hardware utilicen sus servicios de plataforma, pueden recopilar los datos de los usuarios que necesitan.
En el mismo período, los cambios en tales productos como los sistemas de monitoreo inteligentes domésticos serán más pronunciados que los altavoces inteligentes. En la actualidad, los llamados productos de monitoreo inteligente para el hogar no tienen componentes de inteligencia artificial, sino cámaras, alarmas, cerraduras de puertas, sensores y otro hardware. Los productos están conectados entre sí para formar un sistema de seguridad que admita Event Trigger. Sin embargo, a medida que las tecnologías de software y hardware relacionadas se vuelven más maduras, la proporción de cámaras de vigilancia doméstica que llevan inteligencia artificial aumentará, y al mismo tiempo podrá lograr más. Las aplicaciones, como el uso de asistentes de voz, brindan a los usuarios múltiples servicios más precisos en un entorno multiusuario.
Protección de la privacidad del consumidor para aplicaciones de IA
Sin embargo, para la industria del hardware, lo más notable es que el concepto de la nube local y los productos relacionados de la aplicación se recogerán ya que los dispositivos en el hogar generalmente son compatibles con la inteligencia artificial. Renesse señaló que los productos electrónicos equipados con la función AI Producir una gran cantidad de datos de usuario, y muchos de ellos son datos relacionados con la privacidad personal. Por lo tanto, si estos productos electrónicos caseros equipados con inteligencia artificial dependen completamente de la nube externa para operar, obviamente causará problemas de privacidad.
Por otro lado, muchas características relativamente dispositivos cosas simples de consumo, por la energía eléctrica, potencia de cálculo, el costo de producción y otras condiciones, pueden no ser capaces de soportar muy alta gama de algoritmos de IA. En este momento, el dispositivo de la nube locales jugarán el papel del cerebro, pedidos unificados para estos dispositivos.
Pero admite Renesse, todavía es difícil decir qué tipo de equipo jugará un centro de la nube local. Puede haber altavoces de gama alta más inteligentes, puede ser una televisión inteligente u otros productos.
Directora Brazo Superior de Marketing Ian Smythe (Figura 2) también cree que habrá más y más creer que el futuro de la computación y la inferencia (inferencia) del motor para mover el terminal. Esto dio lugar a una importante transferencia de fuerza motriz, que es proteger la privacidad del usuario . por el procesamiento final y el trabajo de análisis, los datos pueden ser fácilmente anónima, y para asegurar que los datos sensibles no serán revelados a través de la red. aplicación de la familia, por ejemplo, los consumidores no quieren a alguien de la red supo que su familia no lo hizo tiempo de las personas y, a continuación, robar fácilmente la casa.
Ian Smythe 2 Brazo, director senior de mercado esquema de comercialización, dijo que las aplicaciones de IA para mecanismo de protección de la privacidad del consumidor es fiable, serán clave para determinar si la popularidad de la aplicación.
Para aplicaciones de visión, Smythe cree que las funciones de la cámara apoyan el reconocimiento visual a tener en cuenta algunas cuestiones de privacidad importantes en la naturaleza. Obviamente, estos dispositivos deben estar diseñados de manera que no importa cuando la unidad se almacena o se transmite a la nube, puede proteger el privacidad y la información confidencial. Dado que la transmisión es por lo general conectado de forma inalámbrica, debe prestar especial atención a la seguridad de transmisión inalámbrica. los ingenieros de diseño del dispositivo deben asegurarse de que el dispositivo de conexión de red no se cortó, observando.
Duración de la batería sigue siendo un gran desafío técnico
Sin embargo, para empujar AI al nodo de borde, el mayor desafío técnico en la actualidad sigue siendo el consumo de energía del sistema. Tomando como ejemplo las cámaras de vigilancia de los consumidores, los consumidores pueden esperar que dichos productos sean completamente inalámbricos, y lo mejor es ni siquiera conectar los cables de alimentación. Esto significa que estos productos deben funcionar con baterías y también admitir redes inalámbricas. Además, debe poder identificar todos los elementos y necesita espacio de almacenamiento ilimitado.
Los requisitos anteriores plantean un desafío importante para el diseño del sistema, que requiere la capacidad de ejecutar meses de baterías ininterrumpidas para ejecutar capacidades de aprendizaje automático (ML) y la capacidad de cargar continuamente archivos a la nube para su almacenamiento. Los requisitos son bastante exigentes, y lo más importante, han dominado cuándo habilitar la orquestación de estas funciones para prolongar la vida útil de la batería.
En el caso de las cámaras de vigilancia doméstica, la cámara no necesita transmitir el video en la habitación durante 24 horas. Solo es razonable cargar la parte de la imagen cuando hay una persona no confirmada. De la misma manera, si la escena como la vacante permanece sin cambios. No tiene sentido habilitar el algoritmo ML. Organice cuidadosamente dónde y cuándo se habilitan estas características para que el dispositivo de consumo pueda operar en el modo esperado, requiriendo solo 2 baterías AA, y se puede usar normalmente durante un largo período de tiempo.
Pero también porque el consumo de energía es uno de los principales obstáculos para la IA estacionadas en el dispositivo terminal, hay muchas nuevas empresas de origen ha detectado la oportunidad de poner en marcha la red neuronal de baja potencia (NN) de silicio acelerador de la propiedad intelectual (IP) en el mercado, con el fin de ayudar a los chips Al tiempo que reducen el consumo de energía, los desarrolladores pueden cumplir con el rendimiento requerido por la inferencia de algoritmos. Kneron lanzó oficialmente su serie NPU, un procesador dedicado de inteligencia artificial diseñado para dispositivos terminales. IP. la familia consta de tres productos, a saber, versión de ultra bajo consumo de KDP 300, standard Edition KDP 500, así como la versión de alto rendimiento del PDK 700, para cumplir con el teléfono inteligente, la aplicación de casa inteligente, inteligente de seguridad, así como una variedad de dispositivos cosas toda la gama de productos con bajo consumo de energía, las características de pequeño tamaño, y proporciona una capacidad de computación de gran alcance. a diferencia de la potencia del procesador AI disponible en el mercado para decenas de vatios apagado, el consumo de energía Kneron NPU IP es de 100 mW (mW), para el KDP 300 dedicado al reconocimiento facial para teléfonos inteligentes, consume menos de 5 milivatios.
Las aplicaciones pueden ser resistentes de marketing de producto cum Shiya Lun (Figura 3 izquierda) señala, a realizar en la operación de inteligencia artificial dispositivo terminal, mientras que satisfacer la demanda de potencia y el rendimiento es una consideración primordial. Por lo tanto, la introducción de soluciones optimizadas para aplicaciones individuales, es crítico .. la aplicación actual de la inteligencia artificial puede ser ampliamente dividido en dos grandes categorías de voz con vídeo, arquitectura de red neuronal que utilizan un diferentes aplicaciones de voz énfasis en el análisis del lenguaje natural, la arquitectura de la red de corriente es la red neuronal recurrente (RNN); la corriente principal de análisis de imagen estructura de red se utiliza red de convolución neural (CNN). optimizada para diferentes estructuras de red, las soluciones pueden proporcionar la resistencia no son los mismos.
Shen Mingfeng, gerente de diseño de software para intensidad energética (Figura 3, derecha), agregó que aunque el análisis de lenguaje natural tiene una menor demanda de rendimiento de cómputo de chips, debido al tono del lenguaje, existen grandes diferencias en los hábitos de habla, por lo que los conjuntos de datos necesarios Mucho más que el reconocimiento de video, por otro lado, debido a que los consumidores ya están acostumbrados a usar asistentes de voz en la nube como Apple Siri y Google Assistant, los consumidores prefieren las aplicaciones de análisis semántico fuera de línea. La condición previa es que debemos proporcionar una experiencia similar al consumidor con recursos informáticos limitados. Este es un desafío para los proveedores de chips y los desarrolladores de sistemas.
Figura 3 Aaron Alan (izquierda), gerente de marketing y aplicaciones de Endurance Products, cree que el reconocimiento de voz y de imagen es muy diferente en la naturaleza y debe ser atendido por diferentes soluciones. A la derecha está Shen Mingfeng, un gerente de diseño de software para desarrollo de software.
De hecho, la gran mayoría de los parlantes inteligentes todavía no son productos de computación periférica. Allen Aaron señaló que si se trata de Amazon Echo, Homepod de Apple o Baidu, los parlantes inteligentes de la plataforma Alibaba, todavía tienen que Los datos se envían de vuelta a la nube para su procesamiento y análisis semántico, a fin de responder a los usuarios. Las operaciones de voz que se pueden realizar directamente en el producto final se basan mayormente en la comprensión semántica basada en reglas que en la máquina.
Desde la introducción de NPU IP, el primer procesador de inteligencia artificial de la compañía dedicado a dispositivos terminales, en 2016, Nasdalem ha mejorado continuamente su diseño y especificaciones, y optimizado para diferentes aplicaciones industriales. Entre las IP actualmente disponibles para los clientes, KDP 500 ha sido adoptado por los clientes de la fábrica del sistema y entrará en la producción de cinta de producción (Tape Tape-out) en el segundo trimestre. El reconocimiento de voz en colaboración con Sogou también ha logrado un análisis semántico sin conexión. Incluso si el equipo terminal no está conectado a la red, Puede entender las instrucciones de voz del usuario.
Kneron NPU IP está dedicado procesador de inteligencia artificial para el dispositivo terminal está diseñado para que el dispositivo terminal en un entorno sin conexión, puede ejecutar ResNet, YOLO otra red de aprendizaje profundo. Kneron NPU es una solución completa de hardware de fin de AI, incluyendo hardware IP, compilador (compilador), y el modelo de compresión (compresión modelo) tres partes, puede soportar una variedad de modelos de redes neuronales convencionales, tales como Resnet-18, Resnet-34, Vgg16, GoogleNet, y Lenet, así como el soporte estándar aprendizaje profundo Marcos, incluidos Caffe, Keras y TensorFlow.
el consumo de energía Kneron NPU IP es 100 nivel mW, versión ultra-baja potencia de la KDP 300 o incluso menos de 5 mW, la gama completa de productos en el rendimiento por vatio 1,5 TOPS / W o más, el uso de un número de tecnología exclusiva, que puede Satisfaga las necesidades de los vendedores de chips, proveedores de sistemas para bajo consumo de energía, alta potencia de computación.
Bloqueo de elementos básicos Los aceleradores de hardware no temen a la iteración técnica
Curado del circuito (cableado) para mejorar la eficiencia de ciertas tareas de computación, lo que reduce el consumo de energía, el diseño de chips para las edades, pero a costa de una menor flexibilidad de aplicación, un cambio significativo en el caso de la demanda del mercado para las funciones de chips , O el algoritmo del software cambia drásticamente, los diseñadores de chips tienen que volver a desarrollar nuevos chips.
En el caso de la función de demanda de chips ha sido básicamente resuelto, y este diseño no es un problema, pero en el mercado emergente de técnicas iterativas rápidos, tomar este enfoque de diseño, habrá un riesgo relativamente grande en los negocios la inteligencia artificial es muy rápida iteración experto, casi todos los años un nuevo algoritmo con el modelo de la firma de investigación disponibles. Abrir AI también señaló que en los últimos seis años, AI modelo de formación para la demanda de potencia de cálculo se incrementará cada 3,43 al mes Tiempos.
En este sentido, Shen Ming Feng señaló, no es necesariamente un acelerador de hardware no es elástica. Resistente a los productos energéticos, por ejemplo, en el diseño arquitectónico, la empresa utiliza dividida convolución kernel (descomposición Filter) la tecnología, la gran convolución kernel de convolución cálculo de una pluralidad de pequeños bloques divididos en bloques de cálculo de convolución por separado, luego se combinan hardware reconfigurable aceleración de convolución (convolución reconfigurable de aceleración) técnica, el resultado de la operación de convolución de la operación de una pluralidad de pequeños bloques se fusionan para acelerar el general Eficiencia operacional
Parábolas más fácil de entender, como piezas de Lego se pueden combinar en una variedad de patrones para construir un objeto, pero el objeto en sí mismo sigue siendo toda una pila de unos pocos cuadro básico. Resistencia programa de energía es indispensable para los algoritmos de IA Los elementos básicos se aceleran para mejorar el rendimiento de ejecución de todo el algoritmo. Por lo tanto, incluso si el algoritmo AI se actualiza a una velocidad muy alta, la solución basada en el rendimiento aún puede ejercer un efecto de aceleración.
Además del acelerador en sí está diseñado para los elementos básicos, en lugar de un algoritmo específico para acelerar la resistencia externa total, también puede proporcionar técnicas de aceleración y aplicaciones de AI o desplegada, como su modelo de compresión de modelo (Modelo de compresión) Tecnología de compresión puso sin optimizar el número de veces; tecnología de almacenamiento de memoria jerárquica (Multi-nivel de almacenamiento en caché) puede reducir la carga de la CPU y reducir la cantidad de transmisión de datos, para mejorar aún más la eficiencia operativa general Además, Kneron NPU IP se puede combinar Kneron software de reconocimiento de imágenes, proporciona un análisis identificación en tiempo real, y rápido. La respuesta no solo es más estable, sino que también cumple con los requisitos de seguridad y privacidad. Debido a que el hardware y el software pueden integrarse estrechamente, la solución general es más pequeña y el consumo de energía para ayudar al rápido desarrollo de los productos.
Reconocimiento de imágenes AI es más urgente hacia el borde
En general, la demanda del mercado actual para el reconocimiento de imágenes es el análisis semántico más urgente, fuera de línea, aunque hay altavoz inteligente esta enorme aplicaciones potenciales del mercado, pero esta apuesta, pero menos recursos de la industria. La razón principal de este fenómeno es que la imagen La transmisión ocupará una gran cantidad de ancho de banda, lo que a su vez aumenta el costo total de propiedad del sistema. Voice no tiene este problema.
Gestor General de Tecnología Andes Lin Zhiming (Fig. 4) se describe en la inteligencia artificial y el proceso de las cosas de unión, impulsará la tecnología bordes borde informática tecnología informática bajo demanda introducido será aplicado a una variedad de aplicaciones emergentes, en Dentro de esta tendencia, la flexibilidad y la velocidad son las mayores ventajas para los fabricantes taiwaneses. Para la mayoría de las empresas taiwanesas y las empresas de diseño de circuitos integrados, es más fácil acceder al mercado de inteligencia artificial desde el borde.
Figura 4: Zhixin Lin, gerente general de Jingxin Technology, estima que IP Cam será una de las principales aplicaciones para realizar inferencias de inteligencia artificial en dispositivos de borde.
Al mismo tiempo, debido a la tecnología de la computación borde de importación, pero también traerá para mejorar la memoria, la transmisión y así sucesivamente los requisitos de hardware, será empujado de manera significativa los costes de fabricación. Debido a la correlación de imágenes de sistema-en-chip (SoC) originalmente en comparación con otras aplicaciones más complejas, por La tolerancia a los costos también es grande, por lo que se espera que la tecnología de computación de borde sea la primera en ser importada por aplicaciones relacionadas con imágenes como IP Cam.
aplicaciones de inteligencia artificial se pueden dividir en dos secciones discuten la formación y el reconocimiento. En el proceso de aprendizaje profundo de la operación masiva, poco tiempo todavía estará a cargo de la computación en nube. El operador de borde es responsable de la tarea, aspirados información recogida hacer primero tratamiento preliminar, después de lo cual filtrar la información sin importancia, y luego cargar los datos en la nube para ahorrar en costes de transporte. por otro lado, a los resultados completos de aprendizaje espesor de la nube, es posible identificar la función del terminal más inteligente. a IP Cam Por ejemplo, el trabajo de aprendizaje profundo de imágenes se puede completar primero con la computación en la nube. Una vez que el aprendiz en espera reconoce al peatón, la cámara IP en el borde solo puede realizar el trabajo de identificación.
Por otro lado, dado que IP Cam es ampliamente utilizado en mantenimiento de seguridad y seguridad de la comunidad, el gobierno y las empresas están relativamente dispuestos a apoyar la inversión, lo que también será una razón para el rápido desarrollo de IP Cam.
Lin Zhiming acción, muchos fabricantes están buscando a tientas la forma de importar chip de inteligencia artificial en su propio sistema. La situación actual es similar a cuando las cosas empezaron a florecer, todavía estamos explorando cómo aplicar los recortes, que se estima en alrededor de 2.020 fabricantes Lanzará más productos reales.
Las aplicaciones en tiempo real deben usar arquitectura de computación de borde
La inteligencia artificial es un tema candente hoy en día, que transfiere gradualmente a partir de la arquitectura de computación en la nube a la arquitectura de computación borde, traerá un impacto pequeño sobre los fabricantes de la cadena de suministro. A pesar del corto periodo de tiempo continuará desarrollando artificial basada en la inteligencia la computación en nube, Sin embargo, muchas funciones de inteligencia artificial con respecto a las aplicaciones de visión comenzarán a importar bordes.
Director de Desarrollo de Xilinx (Xilinx) inteligencia visual estrategia de mercado Dale K. Hitt (Figura 5) señaló que en un futuro previsible, los componentes de capacitación para el desarrollo de IA pueden todavía dominado por el cloud computing. Sin embargo, la inferencia / Implementar componentes ha comenzado Utilice operaciones de borde para admitir aplicaciones que requieren baja latencia y eficiencia de red.
Figura 5 Dale K. Hitt, director de desarrollo de mercado de la estrategia de inteligencia visual de Xilinx, cree que para las aplicaciones que requieren una latencia muy baja, las operaciones de borde serán la mejor solución.
Para el elemento de operando de última generación para aplicaciones de visión artificial relacionados con el aprendizaje, será una de la tendencia fundamental y de largo alcance. Y, en el procesamiento industrial de imágenes, ciudades inteligentes, análisis visual y el mercado libre unidad tiene una fuerte potencial de crecimiento. en términos de aplicaciones de visión y de los consumidores industriales, debido a los algoritmos de aprendizaje automático borde aritméticas para ser ejecutado, por lo que para un rendimiento requisitos son también más altos que los de las generaciones anteriores muchos programas. Además, la máquina del borde aprendiendo algoritmo / función también ha sido rápida evolución, y por lo tanto todos los ámbitos de la vida Necesita hardware autoadaptable para optimizar las futuras arquitecturas de inferencia de aprendizaje automático.
Hitt auto-conducción, por ejemplo, cada coche tiene sofisticados algoritmos detrás del soporte del sensor, es responsable de la interpretación de los resultados de la salida de los datos de los sensores percepción. La última tendencia es el uso de algoritmos de aprendizaje de profundidad a la salida de estas percepciones interpretación de los resultados, sin embargo, Los algoritmos de aprendizaje profundo deben ser entrenados a través de una gran cantidad de situaciones potenciales para aprender a leer todos los datos de sensor posibles.
Después del entrenamiento, los algoritmos de aprendizaje profundo requieren una alta eficiencia computacional y una latencia ultrabaja para controlar el vehículo de forma segura. Para vehículos eléctricos, se debe aplicar un bajo consumo de energía para limitar la temperatura de funcionamiento y extender la energía de la batería. El objetivo es proporcionar soluciones adaptables, de baja potencia y alta eficiencia para satisfacer las diversas necesidades de AI de borde libre.
En el desarrollo de la informática de punta, el mayor desafío es que la demanda del mercado cambia demasiado rápido, por lo tanto, las tecnologías que pueden adaptarse rápidamente a varios cambios son extremadamente importantes para permitir a las empresas mantener su competitividad.
Hitt ilustrar aún más la profundidad de algoritmos de aprendizaje a un ritmo rápido de progreso sostenido, muchas de las soluciones líderes en 2017 se ha enfrentado hasta ahora una muerte similar. A pesar de que muchos de los otros ahora tienen una mayor capacidad, junto con la creciente demanda de la informática, hardware todavía Optimice. El hardware se debe actualizar a un ritmo más rápido para evitar su eliminación. Es posible que algunos hardware necesiten actualizarse durante la producción. También se deben recuperar muchas tecnologías alternativas para actualizar el chip.
Hitt agregó que las ventajas únicas de los FPGA incluyen la optimización profunda de hardware, que incluye operaciones, arquitectura de memoria y enlaces. En comparación con las CPU y GPU, pueden lograr un mayor rendimiento con un menor consumo de energía después de la optimización. La arquitectura de hardware no se puede optimizar rápidamente para nuevos requisitos derivados.
La operación de borde es abrumadora
Al depender de aplicaciones de inteligencia artificial que funcionan en centros de datos en la nube, su precisión de identificación es generalmente superior a la de los dispositivos periféricos basados en la inferencia simplificada del modelo, pero después de considerar las cuestiones de privacidad, respuesta en tiempo real y costo en línea, y otros factores Todavía es una opción atractiva para hacer inferencias directamente en los dispositivos de borde.Por otro lado, el tamaño del mercado de los dispositivos terminales es mucho mayor que el de los centros de datos en la nube y hay fuertes incentivos económicos.Esto también es el lema de AIoT gritando en el último año. El precio es altísimo, y las principales compañías de semiconductores están desplegando activamente.
Mirando hacia el futuro, las aplicaciones de inteligencia artificial completamente compatibles con la nube seguirán existiendo en el mercado, pero la proporción se reducirá año tras año. En su lugar, se reemplazará una nueva arquitectura que combina la computación en la nube y el borde. Para los desarrolladores de aplicaciones AI, la nube no puede ser reemplazada. El valor radica en el entrenamiento modelo, no en la inferencia. Además, por esta razón, si el proveedor de soluciones puede lograr una integración perfecta entre "nube" y "fin" para desarrolladores de aplicaciones será un desarrollador de aplicaciones. La consideración más importante al evaluar proveedores.