Anteriormente, el TPU se utilizaba para productos internos de Google, con la apertura del Cloud TPU, lo que significa que los chips AI y el mercado de la nube pública marcarán el comienzo de una nueva situación.
Google también lanzó una versión beta de la nube de TPU, esta versión ofrece a través de la plataforma de nube de Google, para ayudar a más de aprendizaje de máquinas de expertos para ejecutar el modelo con mayor rapidez. Nube de TPU es Google acelerador de hardware diseñado, diseñado para acelerar, extender máquina específica TensorFlow Optimizado para estudiar cargas de trabajo.
Gartner vicepresidente de investigación; 'y los chips de Nvidia y competir para poseer el TPU se abren a hacer servicios en la nube, Google muestra para aumentar la inversión en el diseño de negocios nube de Google proporcionará a los fabricantes compiten servicios en la nube inteligentes para todos.' Shengling mar en el primer reportero financiero dijo.
Sin embargo, Google y NVIDIA han negado tanto la existencia de competencia directa. Esto se debe a que Nvidia es más ampliamente utilizado, mientras que el chip de inteligencia artificial de Google sólo se centra en el aprendizaje de máquina, impulsado por la demanda artificial orientada chip, Las acciones de NVIDIA aumentaron más de seis veces en los últimos dos años.
Ya el 17 de mayo del año pasado, Google I / O Asamblea General, Google anunció el lanzamiento oficial de la segunda generación de inteligencia artificial se centró en el procesador de TPU. TPU es un Google desarrollado por sí mismo diseñado para servicios de informática de inteligencia artificial, procesamiento de alto rendimiento Por ejemplo, la primera generación de productos se ha utilizado en centros de datos e inteligencia artificial, incluido AlphaGo, el principal rendimiento informático.
El chip TPU de segunda generación, lanzado el año pasado, no solo profundiza la capacidad de inteligencia artificial para aprender y razonar, sino que Google se toma en serio su lanzamiento al mercado. Según las pruebas internas de Google, el chipset de segunda generación para entrenamiento de aprendizaje automático La velocidad con respecto al chip gráfico de mercado actual (GPU) ahorra la mitad de las veces.
Google cloud computing jefe del equipo científico, se introdujo el director del laboratorio de IA en la Universidad de Stanford Li Feifei, dijo: 'Estos TPU ofrece sorprendentes 128 teraflops, que están diseñados para conducir técnicas de aprendizaje automático fichas.' Por el contrario, El iPhone 6 ofrece 100 billones de operaciones de punto flotante y la GPU NVIDIA Volta ofrece 120 billones de operaciones de coma flotante.
Nvidia es actualmente el chip de gráficos líder GPU, vicepresidente de Nvidia y gerente general de Enterprise Systems Jim McHugh dijo: 'NVIDIA GPU Cloud (NGC) es la popularidad de alto nivel de la red neuronal AI poder transformador de usuarios en todo el mundo en rápido crecimiento' NGC ha proporcionado servicios a la plataforma en la nube de Amazon.
Google en el lanzamiento de la segunda generación de TPU, lanzó servicios de computación en nube nube de TPU, los usuarios pueden alquilar, y la facturación también tomarán los mismos modelos de servicios de cómputo GPU, denominados por el minuto, cuando Google dice que esta última AI Los chips no se venderán a centros de datos basados en compañías en otros servidores de fabricantes de chips, como Dell.
Esto también significa que, Google desarrolló la idea en los chips de IA no es para competir directamente con la GPU, sino utilizar las diferencias de TPU en el desarrollo de la industria de la nube pública Urs Holzle Google director de tecnología, dijo: 'En esencia, TPU es uno para el Superordenador de aprendizaje automático. Nuestro objetivo es proporcionar los mejores servicios en la nube '.
Google anunció a principios de febrero, el último informe trimestral de ingresos, pero también dio a conocer el primer ingreso individual de negocios Ji Yun, alcanzando $ 1 mil millones. Por el contrario, Amazon y Microsoft ganancias nube en una temporada son más de $ 5 mil millones en mundial nube de Google El mercado de servicios actualmente ocupa el tercer lugar.
Desde el punto de vista de NVIDIA, según la última presentación trimestral, Nvidia operaciones del centro de datos es actualmente la segunda mayor fuente de ingresos, más de $ 600 millones, más del doble respecto al año anterior, un incremento del 105%. En septiembre pasado la GPU Technology Conference en China en NVIDIA anunció un acuerdo de asociación con BAT de China para un centro de datos.
La entrada de Google preocupa a los inversores de NVIDIA que creen que la participación de Google eliminará a los grandes operadores de centros de datos, lo que afectará las ganancias e ingresos de NVIDIA porque incluso Google no puede comercializar sus chips. Gane la ganga