Google diseñará sus propios procesadores; ¿por qué es tan importante?

Puede suponer una amenaza para Nvidia e IBM.

La conferencia Google I/O ha dejado muchos titulares este año. Tal vez el más importante (por sus implicaciones futuras) es que el gigante de internet diseñará sus propios chips para impulsar la Inteligencia Artificial.

El anuncio supone por un lado la entrada de Google en un segmento competitivo. No se espera que los de Mountain View se conviertan de pronto en competidores de Intel, aunque sí es posible que suponga una amenaza para Nvidia e IBM.

Google es uno de los principales clientes de Intel. Compra un 5% de todos los CPUs que se venden a nivel global e IDC estima que en el último año compró 1,2 millones de chips.

El caso de Nvidia es algo diferente al de Intel. El fabricante es el principal vendedor de GPUs a nivel mundial y entre sus planes de negocio está la de expandir su negocio al terreno de la inteligencia artificial. De hecho, el último GPU de la firma, el Tesla P100 GPU, con sus 150.000 millones de transistores está diseñado para la inteligencia artificial.

Tal y como cuentan en The Verge, la compañía ha invertido en torno a 2.000 millones de dólares en I+D para desarrollarlo.

La propuesta de Google, a la que ha llamado Tensor Processing Unit (TPU), va un paso más allá de los GPUs. De momento está usando TPUs y GPUs para sus redes neuronales artificiales, pero en un futuro inmediato Google dejará de lado los GPUs.

La razón principal, explica Urs Hölzle a Wired, uno de los máximo responsables de los centros de datos de Google, es que “el GPU es demasiado general para machine learning. No fue diseñado para eso”.

La forma en la que Google pasará a ser uno de los principales competidores de IBM en la materia es porque el proyecto de Google sobre machine learning y que potenciarán los nuevos chips, viene a ser el homólogo del Watson de IBM.

Tras Watson hay 90 servidores IBM Power 750. Cada uno de ellos utiliza un procesador Power7 de 8 núcleos a 3,5 GHz.

El TPU de Google requiere menos transistores por operación, por lo que pueden llevarse a cabo más operaciones. El resultado: las operaciones basadas en machine learning podrán ejecutarse mucho más rápido.

No será hasta dentro de unos años hasta que descubramos el verdadero impacto del lanzamiento, aunque las posibilidades de cambios importantes en la industria de procesadores que potencian operaciones de inteligencia artificial son, a día de hoy, bastante probables.