Nvidia avanza un modelo de reproducción de imágenes para reducir los tiempos de entrenamiento de inteligencia artificial

Los beneficios de este trabajo podrían permitir que la capacitación en red requiera menos datos etiquetados, se ha apuntado desde la compañía.

Los investigadores de Nvidia han usado un par de redes adversas generativas (GAN) junto al sistema de aprendizaje sin supervisión para crear una red de traducción de imagen a imagen que podría permitir reducir los tiempos de entrenamiento de la inteligencia artificial (IA).

En una publicación en el blog, la compañía ha explicado cómo se capacitan sus GAN en diferentes conjuntos de datos, permitiendo la generación de imágenes pasando la representación de la imagen de una GAN a la siguiente.

“El uso de GAN no es novedoso en el deep learning, pero la investigación de Nvidia ha producido resultados mucho más avanzados de lo que se ha visto hasta ahora”, ha subrayado Kimberly Powell, vicepresidenta de Healthcare & AI Business Development de Nvidia.

Los beneficios de este trabajo podrían permitir que la capacitación en red requiera menos datos etiquetados, según la compañía.

“En los coches sin conductor, los datos de entrenamiento se pueden capturar una vez y luego simularlos en una variedad de condiciones virtuales, por ejemplo, para estimar la conducción en condiciones atmosféricas de sol, niebla, nieve, lluvia o por la noche”, ha explicado Powell.

Nvidia ha intentado llevar su hardware a dispositivos periféricos y usar la inteligencia artificial como vehículo para ello.

La semana pasada, el fabricante anunció que había llegado a un acuerdo con GE Healthcare para actualizar 500.000 dispositivos de imágenes médicas desplegadas en todo el mundo con Revolution Frontier CT, lo que permitirá obtener mejores imágenes en los hospitales.