Un servicio de IBM permitirá detectar automáticamente sesgos de la IA

Con él, las empresas serán capaces de capturar “resultados potencialmente injustos a medida que se producen”.

La inteligencia artificial (IA) está empezando a resolver problemas, pero las soluciones que se basan en esta tecnología todavía no están pulidas del todo.

En este sentido, para aumentar la transparencia alrededor de la IA o, como ella misma explica, para fomentar “la apertura de la ‘caja negra’ de la inteligencia artificial”, IBM ha decidido lanzar nuevas soluciones que incrementan la visibilidad de las empresas respecto a su aplicación y las acciones que permite tomar.

En primer lugar, ha anunciado un servicio de software disponible en IBM Cloud que es capaz de detectar sesgos de manera automática y en tiempo de ejecución en los modelos de IA y que aporta explicaciones sobre las decisiones a las que se llega, mostrando los factores que las determinan, la confianza en la recomendación y también los factores de dicha confianza.

“Es decir”, explica el Gigante Azul, “captura resultados potencialmente injustos a medida que se producen”.

“Estamos facilitando a las empresas que utilizan la IA una mayor transparencia y control para afrontar el riesgo potencial de una toma de decisiones errónea”, cuenta David Kenny, vicepresidente sénior de Soluciones Cognitivas de IBM.

El servicio es capaz asimismo de aconsejar datos que se pueden añadir al modelo para reducir los sesgos detectados.

Esto funciona con modelos construidos con Watson, Tensorflow, SparkML, AWS SageMaker y AzureML.

A mayores, IBM ha introducido el kit de herramientas AI Fairness 360 para la comunidad open source, que combina algoritmos, códigos y tutoriales y se encuentra asimismo orientado a reducir los sesgos de la IA. Esto es, para integrar mecanismos de identificación en la propia construcción y aplicación de modelos de aprendizaje automático.