Globant presenta su visión sobre el futuro de la Inteligencia Artificial

Globant presenta su visión sobre el futuro de la Inteligencia Artificial

“RevolutionAI: El futuro de la Inteligencia Artificial” abarca mitos, dominios, modelos de construcción, riesgos y regulación de la tecnología más de moda.

Durante la presentación “RevolutionAI: El futuro de la Inteligencia Artificial” de Globant, el equipo de expertos formado por Juan José López Murphy, jefe de ciencia de datos e Inteligencia Artificial en Globant; Gonzalo Zarza, CDO en LaLiga Tech; Fede Constantino, jefe de producto y plataformas para Europa en Globant X y José María San José, Experto en IA de Globant, nos han ofrecido la visión de la compañía sobre aspectos fundamentales que se deben de tener en cuenta a la hora de construir modelos de iInteligencia Artificial y aplicarlos en casos de uso reales.

Para comenzar la presentación, este mismo equipo de expertos de Globant ha definido la Inteligencia Artificial como un área para crear ordenadores y máquinas que ejecutan tareas que normalmente requerirían inteligencia humana para razonar, aprender y actuar o que involucra datos cuya escala excede lo que los humanos pueden analizar.

Una vez definido el concepto de Inteligencia Artificial, y aunque sostienen que las definiciones son muy diversas, dependiendo del uso que se le vaya a dar a dicha Inteligencia Artificial, Juan José López Murphy ha comenzado su presentación deshaciendo los mitos sobre la IA y relatando la realidad actual de esta tecnología.

IA: Mitos vs Realidad

En los últimos años, la Inteligencia Artificial (IA) se ha vuelto cada vez más presente en nuestro día a día, pero muchos mitos aún circulan sobre esta tecnología. Uno de los más comunes es que la IA reemplazará la creatividad y el pensamiento humano. López Murphy ha explicado que, en realidad, la IA ha sido desarrollada para mejorar las capacidades humanas y optimizar procesos cotidianos.

Otro de los mitos más comunes es que la IA es 100% precisa. Pero la realidad es que, todavía, se necesita de la intervención humana para verificar la precisión y el contexto. Aunque los modelos de IA pueden aprender y mejorar en función de su entrenamiento y los conjuntos de datos utilizados para entrenarlos, su eficacia depende en última instancia de la habilidad humana para supervisar y controlar su funcionamiento. Es importante comprender que la IA no se desarrolla por sí sola sin el soporte humano.

Otro mito es que solo las grandes compañías pueden utilizar la IA. Sin embargo, las herramientas de IA se lanzan y desarrollan constantemente, lo que facilita el acceso y reduce los costes. Esto significa que grandes, medianas y pequeñas organizaciones por igual, se pueden aprovechar las ventajas de la IA. Además, la IA tiene amplias aplicaciones en diferentes unidades de negocio, lo que contradice el mito de que solo es aplicable a tareas repetitivas y automatizadas. En resumen, es importante comprender la realidad de la IA para aprovechar al máximo su potencial y evitar caer en mitos infundados.

¿Qué hacer para humanizar la IA?

La investigación en IA está explorando diferentes dominios para replicar la inteligencia humana y desarrollar aplicaciones que permitan a los ordenadores interactuar de manera más natural y efectiva con el mundo.

Uno de los dominios es el aspecto sensorial, donde se está trabajando en desarrollar la capacidad de los ordenadores para interactuar con el mundo mediante la visión, la audición, el tacto, el gusto y el olfato. De esta manera, se busca que la IA sea capaz de interactuar de forma más natural y humana con el entorno.

Globant presenta su visión sobre el futuro de la Inteligencia Artificial
Dominios de la Inteligencia Artificial, según Globant.

Otro dominio en el que se está trabajando es el sentido de la secuencia. Esto implica la capacidad de anticipar y predecir, modelando causa-efecto para entender las implicaciones de las acciones. Se están utilizando técnicas como la optimización lineal, la simulación y la robótica para lograr esto. Además, se está trabajando en el sentido del todo, donde se busca formar a la IA para que pueda ver las partes dispares de un sistema y así planificar y optimizar de manera más efectiva.

Finalmente, también se está trabajando en el dominio de la lógica formal, donde se está desarrollando código para enseñar a un ordenador a llevar a cabo operaciones lógicas complejas, de manera que pueda ser racional y utilizar la lógica para tomar decisiones.

IA Generativa

López Murphy ha continuado su presentación hablando sobre la capa de Inteligencia Artificial generativa, que es capaz de devolver al mundo en su mismo dominio lo que está pasando. Es decir, ya no se trata solamente de procesar información y tomar decisiones, sino de generar materiales concretos que otros humanos o máquinas pueden construir.

Esta capa generativa se relaciona con herramientas como ChatGPT, Machine Learning y Dall-E, y se utiliza para describir imágenes, contar historias o hablar en lugar de simplemente interactuar con el mundo. Es una nueva forma de interactuar con la Inteligencia Artificial y se espera que tenga un gran impacto en el futuro.

Modelos de IA Generativa

Respecto a la idea de IA generativa y cómo esta capa generativa puede crear materiales concretos en diferentes dominios, incluyendo texto, audio, imagen y código, López Murphy ha continuado su explicación explicando que, dentro del ámbito del texto, la IA generativa puede generar texto a partir de instrucciones, resúmenes y recomendaciones de restaurantes. En el ámbito del audio, puede generar voces de cualquier persona en cualquier idioma, lo que se ha utilizado en campañas políticas y en accesibilidad.

En cambio, en el ámbito de la imagen, la IA generativa puede crear imágenes realistas en 2D y 3D a partir de descripciones, incluso en el contexto del gaming. Además, las IA generativas pueden generar código a partir de instrucciones, lo que puede tener un gran impacto en la capacidad de aprendizaje y optimización de nuestro funcionamiento.

Conceptos principales de IA Generativa

En cuanto a los principales conceptos de la Inteligencia Artificial Generativa, López Murphy ha hablado sobre del aprendizaje autosupervisado, que permite a los modelos aprender a partir de los datos que hay en internet, incluyendo los datos que no están catalogados o limpios.

Por otro lado, el uso de modelos de cimentación, que son suficientemente generalistas y pueden ser utilizados en diferentes proyectos o casos de uso. El tercer concepto trata del aprendizaje por refuerzo de retroalimentación humana, que permite al modelo recibir una evaluación de la respuesta que ha dado, con el fin de refinar su proceso de aprendizaje.

Finalmente, se habla del concepto de prompt engineering, que se refiere a la manera de interactuar con el modelo de texto para obtener diferentes resultados según lo que se le pida y cómo se le pida. Además, el prompt engineering permite una interacción más natural con los modelos de texto, lo que hace que sean más útiles en diferentes situaciones.

En general, estos conceptos permiten a los modelos de IA Generativa aprender de manera autónoma y refinarse a medida que reciben feedback de las personas. Sin embargo, desde Globant también reconocen que estos avances tecnológicos tienen el potencial de ser peligrosos si se utilizan para cosas ilegales o que no deberían usarse. Por lo tanto, es importante ser conscientes de los riesgos y utilizar la tecnología de manera responsable.

Globant presenta su visión sobre el futuro de la Inteligencia Artificial
Juan José López Murphy, jefe de ciencia de datos e Inteligencia Artificial en Globant

Modelos de Construcción

López Murphy también ha hecho referencia a los diferentes tipos de modelos de construcción que existen, y destaca la importancia de entender que los modelos generativos son solo la punta del iceberg y que hay otros modelos anteriores que permitieron su evolución.

Aunque los modelos generativos pueden ser fascinantes y tener muchas capacidades, hay otros modelos estadísticos o de machine learning que son más efectivos en ciertos contextos de negocios, como el análisis de tablas de datos para encontrar relaciones. Es importante tener criterio de expertise al elegir qué modelo utilizar, y no basarse solo en lo llamativo o popular en el momento, ya que esto puede generar más problemas que beneficios.

Aplicaciones de la IA Generativa

En cuanto a las aplicaciones de la IA Generativa, López Murphy ha desgranado los diferentes tipos de modelos de IA y sus capacidades. Los modelos tradicionales tienen como entrada una tabla de datos y su salida es un valor, lo que permite hacer pronósticos, predicciones y clasificaciones. Los modelos de deep learning tienen la capacidad de procesar imágenes, audios, textos, entre otros, y su salida sigue siendo un valor, pero con un mayor grado de precisión. Por último, los modelos generativos tienen la capacidad de transformar cualquier tipo de entrada en cualquier tipo de salida, lo que les da un gran poder y diferenciación, pero su uso debe ser considerado cuidadosamente, ya que puede generar más dolor que efectividad si no se necesita crear algún tipo de modalidad de enlace con el mundo sensorial.

Riesgos del IA

Como parte final de su intervención, López Murphy ha querido explicar los riesgos que puede conllevar la utilización de la Inteligencia Artificial generativa. Estos riesgos se traducen en sesgos, burbujas y dinámicas de poder; Exposición legal; Rug-Pulls; Datos antiguos, alucinación, no recuperación, pérdida del sentido; Costes y dependencia; y Fosos injustificados.

Sobre los riesgos asociados a la Inteligencia Artificial generativa, existe el riesgo de sesgos, burbujas y dinámicas de poder que pueden tener graves consecuencias. Estos modelos tienden a privilegiar ciertos resultados en función de características que no deberían ser consideradas, como género, edad, etnia, religión, entre otras. Además, el uso de este tipo de modelos puede llevar a la creación de burbujas de información y reducir nuestra experiencia del mundo, ya que los contenidos y recomendaciones se adaptan a lo que el algoritmo cree que queremos ver. Por lo que puede conducir a una polarización cada vez mayor de los temas y a un desequilibrio de poder en favor de las grandes organizaciones que utilizan estos algoritmos.

En cuanto al riesgo de exposición legal, existe la posibilidad de que los algoritmos tengan un impacto negativo en la privacidad y el equilibrio de poder entre las organizaciones y las personas. López Murphy, ha mencionado un ejemplo de una obra de arte en un cómic que no pudo ser patentada en Estados Unidos porque se considera que fue generada por un algoritmo, lo que plantea preguntas sobre la propiedad intelectual y la autoría. Finalmente, se discute el problema de la replicación de estilo y la posible violación de derechos de autor y de propiedad intelectual que pueden surgir de esto.

Globant presenta su visión sobre el futuro de la Inteligencia Artificial
Los Riesgos de la Inteligencia Artificial Generativa, según Globant.

López Murphy también habla del riesgo de “rug-pulls” en proyectos en los que la dependencia excesiva de una entidad externa puede ser problemática, como en el caso de empresas que dependen de modelos de minería o código que luego dejan de existir o se tienen que adaptar a nuevas entidades. Esta dependencia también ocurre en casos en los que el acceso a una aplicación puede desaparecer repentinamente debido a problemas regulatorios o de saturación de redes.

Uno de los riesgos más llamativos es el riesgo de alucinación, al que López Murphy se ha referido como la posibilidad de que los modelos de Inteligencia Artificial generativa creen cosas que no existen, ya sea en lenguaje natural o en la cita de publicaciones científicas. Esto puede llevar a la propagación de información falsa y a confusiones en la investigación. Se enfatiza la importancia de verificar siempre las fuentes y recursos utilizados en la IA generativa.

Por otro lado, López Murphy también ha hablado sobre los riesgos de costes y dependencia de modelos de Inteligencia Artificial como ChatGPT. Estos riesgos son la posibilidad de que la entidad externa que controla el modelo decida subir los precios o cambiar las condiciones, lo que podría afectar el desarrollo de proyectos. Varios casos de startups que se montaron sobre una versión anterior de ChatGPT, pero que dejaron de ser viables cuando OpenAI lanzó una versión más nueva con un precio mucho más bajo. Por lo tanto, es importante entender las dependencias y alternativas al utilizar estos modelos.

Por último, López Murphy nos ha explicado el riesgo de fosos injustificados, es decir, el peligro de basar la ventaja competitiva de una empresa en tecnologías como la IA sin tener una razón clara y justificada para ello. El valor diferencial de una empresa no puede depender únicamente de la implementación de una tecnología como la IA, ya que los competidores pueden replicarse fácilmente. En lugar de eso, se debe usar la IA donde realmente pueda marcar la diferencia y aportar valor único a los clientes.

Preocupaciones de Globant

En cuanto a las preocupaciones relacionadas con la Inteligencia Artificial y su impacto en la sociedad, López Murphy, apoyado por el grupo de expertos de Globant, ha indicado como primera de las dos grandes preocupaciones, la generación de deepfakes, que son artefactos falsos que pueden ser indistinguibles de la realidad, lo que puede conducir a la desinformación y a la manipulación de la opinión pública.

La segunda preocupación está relacionada con el efecto social que podría tener, como la adaptación a burbujas personales que anularían nuestra capacidad de interactuar con los demás y de manejar la frustración.

Como solución,el equipo de expertos de Globant habla de la creciente necesidad de educar a la gente sobre cómo lidiar con la información que reciben en línea, ya que cada vez es más difícil saber qué información es verdadera y cuál no. López Murphy sugiere que en lugar de frenar el desarrollo de la IA, debemos reorientar su uso y proporcionar herramientas para que la gente aprenda a verificar la información y a lidiar con los datos y la información de manera efectiva.

¿Necesidad de Regular la IA?

Ante las recientes regulaciones europeas que pretender limitar el uso de la Inteligencia Artificial, el equipo especializado en IA de Globant considera que hay que educar más que regular. Desde su perspectiva personal, López Murphy, ha declarado: “ Lo que yo creo que sí hay que regular es un principio de responsabilidad. Es decir, cualquiera que disponible es el algoritmo es responsable por las consecuencias del algoritmo. Si yo como empresa digo que es el algoritmo el que decidió no darte acceso a este servicio de salud. La empresa no se hace responsable, no existe responsabilidad en el algoritmo, existe responsabilidad en quien lo usa y lo de quien lo despliega. Y eso si, hace falta regularlo, porque eso da claridad a reglas de juego para que las empresas tengan sentido.”