Los equipos de inteligencia artificial son poco inclusivos con mujeres, personas LGBT+ y minorías raciales

Un estudio de IBM pone de relieve las diferencias existentes a nivel ético entre las intenciones de las organizaciones y las acciones que llevan a cabo.

¿Están las compañías cerca de alcanzar una inteligencia artificial ética? ¿Quién es el principal responsable de este cometido?

En Europa, las propias empresas señalan a ejecutivos no técnicos. Un estudio del Institute for Business Value de IBM evidencia un cambio en los roles de los responsables a la hora liderar y llevar a cabo esta ética de la inteligencia artificial.

Un 30 % de los interpelados cree que esta función recae en el CEO. Y un 64 % cita al director ejecutivo o a otro directivo de primer nivel como grandes influyentes en la estrategia ética de su organización.

Casi tres cuartas partes de los altos ejecutivos consideran que construir una inteligencia artificial confiable es un diferenciador estratégico para competir con sus rivales. De hecho, más de la mitad de los encuestados en Europa explica que ya han empezado a incorporar la ética de la inteligencia artificial en su enfoque global de ética empresarial.

Pero, a pesar de que existe un interés por mejorar, queda un largo camino por recorrer entre lo que son meras intenciones y las acciones ejecutadas.

El 68 % de las empresas a nivel global reconoce que es importante contar con un lugar de trabajo diverso e inclusivo para evitar sesgos en la inteligencia artificial. Sin embargo, los equipos de inteligencia artificiales son menos diversos que la plantilla en general. En concreto, son 5,5 veces menos inclusivos para las mujeres, 4 veces menos inclusivos para personas LGBT+ y 1,7 veces menos inclusivos en términos raciales.

“A medida que muchas empresas utilizan hoy en día algoritmos de inteligencia artificial en su negocio, se enfrentan potencialmente a crecientes demandas internas y externas para diseñar estos algoritmos de forma que sean justos, seguros y dignos de confianza. Sin embargo, ha habido poco progreso dentro de la industria en la incorporación de la ética de la inteligencia artificial en sus prácticas”, comenta Jesús Mantas, Global Managing Partner de IBM Consulting.

“La creación de una inteligencia artificial confiable es un imperativo empresarial y una expectativa de la sociedad, no sólo una cuestión de compliance“, añade. “En este sentido, las empresas pueden implementar un modelo de gobernanza e integrar los principios éticos en todo el ciclo de vida de la inteligencia artificial”.

Para tener éxito, deben apostar por un enfoque multifuncional y colaborativo, establecer una gobernanza organizativa y de ciclo de vida de la inteligencia artificial y buscar la colaboración más allá de la propia estructura, con socios tecnológicos, académicos o startups.