Cornerstone: “Saber qué es y cómo funciona la IA va a ser tan necesario como saber matemáticas”

A veces no nos damos cuenta pero ya no hay prácticamente nada que no funcione sin un ordenador. Eso implica que, en breve, no habrá casi nada que no funcione sin un componente de IA mayor o menor. Conocer qué es y cómo funciona la IA es esencial para José Rodríguez.

Experto en privacidad de datos, José Rodríguez nos descubre cómo la evolución de la Inteligencia Artificial (IA) pasa necesariamente por dotarle de criterios éticos. Una ética que debemos aplicar no sólo a la utilización de las herramientas de IA sino también al mismo desarrollo de estas soluciones. Conversamos con el Data Protection Officer de Cornerstone  On Demand de cómo la IA, poco a poco, será un elemento cotidiano en nuestros días y cómo, por eso mismo, es necesario conocer qué es y cómo funciona la IA.

-La Inteligencia Artificial está de moda, sin duda. De hecho, ha sido la responsable de resucitar a Lola Flores y su poderío en un anuncio de cervezas. Pero, más allá de estos usos lúdicos, ¿qué es la IA? ¿Cómo se lo explicaría usted a mi madre, por ejemplo?

LA IA en general a lo que hace referencia es a la automatización de tareas. Desmitificando un poco el anuncio, la IA utilizada para su realización no deja de ser una automatización de tareas, automatizar la simulación de una persona…

Si yo tuviera que explicar qué es la IA para que pudiera entendernos cualquier persona diría que es como un niño. Para conseguir esta automatización, a la IA hay que enseñarle y, como en el caso de un niño, para enseñarle hay dos grandes estrategias: una es decirle lo que tiene que hacer, haz esto, no hagas esto; que en IA es lo que llamaríamos un sistema de reglas o un sistema experto, o bien, la segunda estrategia es mostrarle ejemplos, el llamado aprendizaje automático a partir de datos.

Y la gran revolución que se está viviendo en el ámbito de la IA en estos últimos años pertenece a la segunda estrategia, donde se ha mejorado mucho. Si tomamos el ejemplo del anuncio de Lola Flores, los datos que le mostramos para que aprenda son los vídeos que ya existen de la artista. A la IA se le dice coge estos videos y haz uno nuevo pero que sea igual.

Esa es justamente la idea de dar ejemplos de lo que existe a la IA y decirle aprende a hacer lo mismo, aprende a repetir esto que has visto.

La importancia de los datos

-Entonces, una vez más, vemos que la base de la IA son los datos, la información que proporcionemos al sistema para que aprenda… Lo importante entonces es que esos datos sean de calidad, ¿verdad?

Efectivamente porque la IA lo que va a aprender es a repetir patrones. Por lo tanto, y esto ha pasado, si a una IA se le enseñan fotos de animales o de personas de un cierto tipo y luego le enseñas, imaginemos, fotos de personas con un color de piel diferente a lo mejor no las reconoce como personas.

Un ejemplo de ello bastante desagradable de hace unos años fue el desarrollo de una webcam, cuando éstas empezaron a ser capaces de reconocer las caras del usuario y utilizar esta información para enfocar mejor, ajustar la luz, etc. Pues bien, resultó que todas las pruebas, todo el aprendizaje lo habían hecho con personas de raza blanca. ¿Qué pasó? Que lanzaron la webcam al mercado y funcionaba muy bien si no tenías la piel de color oscuro ya que en ese caso no te reconocía.

Es un ejemplo desafortunado pero muy claro de qué ocurre si utilizamos los datos incorrectos o incompletos para entrenar estos programas.

-Además de su aplicación en, este caso, en el área de la publicidad… ¿Qué puede ahora mismo ofrecernos la utilización de IA y en qué ámbitos?

Yo creo que el ámbito más gráfico hoy en día de los beneficios que puede ofrecer la IA es el de la salud, en particular, en el diagnóstico médico.

Ya se están consiguiendo sistemas que han aprendido a partir de diagnósticos existentes, pueden producir mejores diagnósticos, mejores por que son más rápidos y a la vez porque son más precisos. En enfermedades en las que la prevención o la detección temprana son esenciales como puede ser el cáncer, imagina el beneficio…

-En ese sentido, en el caso de Cornerstone, ustedes aplican IA en el área de los RRHH. ¿Qué beneficios se obtienen?

En los RRHH, la IA va a provocar cambios muy interesantes en dos grandes áreas: primero, en los propios procesos de recursos humanos (selección de personal, formación, evolución de carrera) y, en segundo lugar, en el trabajo del día a día de las distintas profesiones… La IA también va a cambiar la manera de trabajar.

Los departamentos de RRHH van a tener que adaptarse a gestionar empleados que cada vez más van a tener que utilizar IA…

Las ventajas, más eficacia, eficiencia y automatización. ¿Las barreras? Que hay que aprender a utilizar todo esto, a vivir con ello…

Una nueva forma de trabajar

-Sabe que son muchos los que precisamente ven en la IA un peligro precisamente en el área de los recursos humanos y el empleo. Definitivamente, ¿la IA puede acabar con muchos de los empleos que hoy conocemos?

Sería ilusorio negar que la IA no va a generar una transformación y que, efectivamente, en esa transformación de determinados empleos van a desaparecer porque no van a ser necesarios, otros se van a transformar y van a realizarse de manera distinta pero también es cierto que se van a crear muchos empleos nuevos.

La proporción de cada uno de estos cambios va a ser una cuestión sobre todo de política a nivel de cada país es algo que aún no sabemos.

Yo evidentemente prefiero ser optimista y pensar que al final los avances van a compensar los aspectos menos positivos.

Pero sería mentir decir que no va a haber ninguna destrucción de empleo… Pero es que además es algo que ha ocurrido ya muchas veces a lo largo de la historia con tecnologías nuevas. Lo importante de verdad es que sepamos gestionarlo de manera adecuada.

-Según Gartner, solo el 17% de las organizaciones usan soluciones basadas en inteligencia artificial en su función de recursos humanos en la actualidad y solo otro 30% lo hará para 2022. Si son tantas las ventajas, ¿por qué cree que no son más las compañías que están apostando por la IA en los RRHH? ¿Qué otras barreras existen, además del miedo o desconocimiento?

Lo primero es que todos, los responsables de RRHH también, vamos a tener que aprender qué es la IA y cómo utilizarla porque vamos a convivir con ella en nuestro día a día.

También, es esencial, que aprendamos cuáles son los límites porque, por ejemplo, hacer un deep fake es muy fácil. Cada día vemos más. Por eso vamos a tener que aprender a reconocer un deep fake cuando lo vemos. Imagina un discurso de un gobernante y no saber si realmente lo ha hecho él o no. Es esencial que la sociedad sepa discernir entre algo real y algo que no lo es.

Otro ejemplo, este en el área de RRHH, imaginemos que tenemos una herramienta de IA que nos ayuda en la selección de personal y nos ayuda a clasificar los candidatos y a elegir al mejor. Si un día esa herramienta, por la razón que sea, no nos recomienda el mejor candidato, cómo hacemos para darnos cuenta, cómo hacemos para saber que el algoritmo necesita una actualización.

-¿Es Cornerstone Innovation Lab una iniciativa precisamente para acabar con esas barreras?

Es una iniciativa tecnológica para acelerar el desarrollo de estas herramientas de IA y, a la vez, es una iniciativa para incorporar los diferentes aspectos de protección de datos y ética en el desarrollo y en la utilización de dichas herramientas.

Insisto mucho en el tema de la utilización porque esto es como quien conduce un coche… Hay muchos coches y muchas formas de conducir, por eso es necesario establecer las normas de conducción, velocidad, dónde ceder el paso, etc. Y en la IA ocurre lo mismo.

-En esa línea, en la de establecer una ética para la IA, no sé si conoce la serie Black Mirror pero anuncios como el de Microsoft que ha registrado una patente diseñada para crear chatbots que te permitan hablar con personas fallecidas, nos recuerdan un poco a la serie. ¿Qué vamos a llegar a ver con la aplicación de la IA?

La IA, como toda herramienta, se puede utilizar de buenas maneras y de malas maneras y además esto se puede hacer a propósito pero también puede ocurrir sin querer.

Es decir que el riesgo no es que alguien malintencionado utilice la IA de una determinada manera sino que, también, sin darnos cuenta tengamos un sistema que discrimine y no lo habíamos pensado, como hablábamos antes.

Como decíamos, la IA es como un niño aprendiendo a hacer cosas y por eso mismo a la IA como a un niño le vas a intentar hacer aprender lo que está bien y lo que está mal… Pero como en el caso de un niño, el niño no tiene estos conceptos, los aprende siguiendo tu ejemplo.

Así pues cuando hablamos de ética en IA estamos hablando de dos cosas: una es que lo es que vamos a considerar que está bien y qué está mal, cómo sabemos que está bien o mal, y la segunda es cómo hacemos que la IA lo aprenda o, en todo caso, como vamos a poder monitorizar ese algoritmo, ese proceso para que, en caso de que empiece a desviarse, cómo podemos detectarlo y corregirlo.

Por eso cuando hablamos de ética dentro del Cornerstone Innovation Lab de lo que hablamos es de cómo incorporar estas nociones de ética al desarrollo de algoritmos y, a la vez, a la utilización de estos algoritmos.

Y ahí es donde la protección de datos y la leyes que la regulan van a tener un rol muy importante porque estas leyes ya incorporan nociones de lo que está bien y lo que está mal, de discriminación y al mismo tiempo nociones de automatización en la toma de decisiones.

Por ejemplo, la ley de protección de datos establece que no se pueden tomar decisiones automáticas excepto en ciertos casos precisos y establece toda una serie de obligaciones alrededor de esa toma de decisiones automáticas como es explicar cómo se toman esas decisiones, qué criterios se utilizan, etc.

Con lo cual empezamos a ver aparecer en las prácticas profesionales, en la I+D y en la legislación estas nociones de ética y el hecho de incorporar estos parámetros desde el principio en el desarrollo de este tipo de sistemas y herramientas de IA.

-La Unión Europea está precisamente intentando regular la aplicación de la IA. Ha hecho públicos los principios que deberían seguirse y entre ellos, por ejemplo, menciona la robustez, seguridad, transparencia. ¿Qué le parecen?

La iniciativa de la Unión Europea (UE) es un muy buen primer paso. Decir que necesitamos regular la IA es algo con lo que todos estamos de acuerdo, el problema es cómo hacerlo.

Si se siguen principios como los que está estableciendo la UE, el riesgo de tener un sistema que discrimine o que no funcione bien es mucho menor.

Yo tal vez habría dado algo más de énfasis a esta separación tan clara entre la construcción de los sistemas y su utilización. En el caso de la UE, los principios se aplican a la vez a las dos fases. Yo tengo un enfoque más separado porque también es lógico al yo trabajar más en la parte de la construcción de esas herramientas y nuestros clientes en la de utilización. Son dos fases complementarias pero distintas y creo que habría que verlo así.

La formación, clave

-De todos modos, entiendo que esto es solamente el inicio y que regular sobre alto tan nuevo, implicará que esa regulación o esos principios deban estar en constante revisión…

Por supuesto, esto acaba de empezar. La informática, como la conocemos hoy en día, existe en la práctica desde los años 60 y eso históricamente es ayer. La IA de la que estamos hablando ahora que es el aprendizaje automático y el aprendizaje máquina, conceptualmente existe desde hace mucho tiempo pero en la práctica existe desde la década pasada y eso es hoy por la tarde.

Estamos al inicio y además, a caminar se aprende andando y ahí es donde nos encontramos, estamos empezando a andar. Nos caeremos varias veces, de hecho, ya nos hemos caído alguna y lo importante es aprender rápidamente para caernos lo menos posible y que nadie se rompa una pierna.

-Además de establecer esos principios y tratar de desarrollar una IA ética, comentaba usted la importancia de “formar” a la sociedad en IA. ¿Cree que puede llegar el día en el que, incluso, sea una materia lectiva dentro de los colegios?

Creo que es muy probable y, además creo que es necesario. Ya en muchos colegios o institutos se está empezando a enseñar programación y, en breve, yo creo que también veremos cómo se enseña sobre IA. Va a ser tan importante como saber de matemáticas. Porque es el mundo en el que nos movemos…

A veces no nos damos cuenta pero ya no hay prácticamente nada que no funcione sin un ordenador… Eso implica que, en breve, no habrá casi nada que no funcione sin un componente de IA mayor o menor… Y deberemos conocerla para entender la realidad en la que vivimos.