HardwaReviews

Google tiene su propio procesador IA’s

Google ha realizado el entrenamiento de las «maquinas» IA’s,  como una parte integral de sus estrategias, que potencia muchas de las principales aplicaciones de la compañía en unión del Open Source de TensorFlow. Es tan importante, de hecho, que el gigante de las búsquedas ha estado trabajando a puerta cerrada durante años en el desarrollo de su propia solución personalizada para alimentar sus experiencias.

Google construyó su procesador para aprendizaje de IA’s

El resultado de ese arduo trabajo es algo que denomina Tensor Processing Unit (TPU), un estándar de un circuito integrado de aplicación específica (ASIC) que funciona con TensorFlow el sistema de aprendizaje máquina de segunda generación de su propiedad.

Norm Jouppi, un ingeniero de hardware distinguido de Google, dijo que han estado ejecutando TPU dentro de sus centros de datos durante más de un año y les ha proporcionado una entrega en el rendimiento optimizado por vatio de gran magnitud al manejar la máquina de aprendizaje. Dicho rendimiento, señaló, es más o menos equivalente a la tecnología de avanzada en cerca de siete años en el futuro (o tres generaciones de la Ley de Moore).

En el caso de la TPU, Jouppi dijo que es un ejemplo de lo rápido que puede convertir la investigación a la práctica. Desde la primera silicona probado, el ingeniero dijo que ellos tenían y ejecución de aplicaciones a una velocidad de los centros de datos dentro de 22 días.
A medida que empresas como Apple pueden dar fe, las cosas buenas suceden cuando tanto el hardware como el software se desarrollan bajo un mismo techo.

Jouppi dijo que el objetivo aquí es para liderar la industria en el aprendizaje máquina y hacer que sus innovaciones a disposición de los clientes. El aprendizaje de las «maquinas» está transformando la forma a los desarrolladores de crear aplicaciones inteligentes, concluyó, y están contentos de ver las posibilidades que vienen próximamente a la vida.

Salir de la versión móvil