Google mejora el agarre de los brazos robóticos usando Machine Learning

Buscando un sistema que permita a los brazos robóticos coger todo tipo de objetos, Google ha llevado a cabo una investigación con redes neuronales convolucionales que ha mejorado sensiblemente los resultados.

La capacidad para poder agarrar todo tipo de objetos es algo de gran interés en robótica, para todo tipo de funciones, como la medicina, la exploración, manipulación de objetos peligrosos o, como vimos en el caso de Amazon y una reciente competición, la logística automatizada.

Pero conseguir que un brazo robótico pueda coger objetos de todo tipo sin que estén colocados en una posición predeterminada o sin conocerlos previamente es algo realmente complejo y que se ha estudiado durante años. Una respuesta podría estar en la investigación de un equipo de Google, que ha utilizado un grupo de brazos robóticos para ‘entrenarlos’ usando redes neuronales convolucionales, una rama de la inteligencia artificial que con un tipo de red de neuronas artificiales es especialmente interesante en visión artificial.

Al igual que otras multinacionales, Google tiene también un interés especial en la robótica y la inteligencia artificial, y ha buscado solucionar las dificultades del agarre de objetos con un sistema que, simulando la coordinación humana entre el ojo y la mano, tras 3.000 horas de práctica y casi 800.000 intentos de agarre, ha permitido mejorar ampliamente la situación.

Inicialmente los brazos robóticos fallaban el 34% de las veces a la hora de coger objetos, pero ahora se ha rebajado a un 18%, una cifra que muestra una importante mejora, aunque todavía queda lejos de un sistema confiable y seguro. En todo caso el sistema seguirá mejorando y podría llevar a Google a usar el sistema a gran escala en sistemas automáticos.