La personalización de chips, uno de los secretos de Google en aprendizaje automático

Desde hace unos años la compañía de Mountain View ha estado trabajando en Tensor Processing Unit, capaz de entregar “resultados más inteligentes con mayor rapidez”.

Aquellos que se preguntaban qué es lo que se esconde tras la potencia de Google en aprendizaje automático, ya tienen la respuesta. La compañía de Mountain View ha decidido desvelar un secreto en el que ha estado trabajando durante los últimos años.

Según ha explicado, hace un tiempo Google comenzó a trabajar en un proyecto para construir aceleradores personalizados, bajo su propio diseño, con el objetivo de combinarlos específicamente con aplicaciones de aprendizaje automático. Y, hace ya más de doce meses, introdujo el resultado en sus centros de datos que ha acabado impulsando aplicaciones como RankBrain y Street View.

Se trata de Tensor Processing Unit o TPU, que es un ASIC construido a medida para TensorFlow del que Google se muestra muy orgullosa. No en vano, gracias a su integración en la infraestructura del gigante californiano se habría conseguido incrementar el rendimiento por vatio. Y ya se habla de un avance tecnológico equivalente a tres generaciones de la famosa Ley de Moore.

El invento de Google solicita menos cantidad de transistores por operación a la hora de trabajar con el aprendizaje automático, además de habilitar “resultados más inteligentes con mayor rapidez”. Así lo dice Google en uno de sus blogs, donde se impone como meta liderar a la industria en este campo tecnológico.