Europa retoma la tarea de Asimov

InnovaciónRegulaciónSeguridadTransformación Digital

La Comisión Europea acaba de publicar un borrador donde recoge los principios éticos que se deben contemplar en el desarrollo de una inteligencia artificial confiable.

La Unión Europea no quiere que ningún HAL se haga con el control de la nave. El desarrollo de la inteligencia artificial es imparable y sus posibilidades son enormes. Sin embargo, también puede conllevar riesgos, tal y como han advertido personalidades como Elon Musk, CEO de Tesla y SpaceX, o el físico Stephen Hawking.

La Comisión Europea quiere evitar que su avance nos pille desprevenidos, por lo que acaba de publicar el primer borrador de los principios éticos que deben regir la inteligencia artificial para que sea digna de confianza.

El texto ha sido elaborado por un grupo de 52 expertos independientes procedentes de la empresa privada, el ámbito académico y la sociedad civil, denominado AI HLEG (Grupo de Expertos en Inteligencia Artificial de Alto Nivel, en sus siglas en ingles).

Este grupo reconoce el enorme impacto positivo que ya tiene la inteligencia artificial, tanto comercial como socialmente. Y admite que es una tecnología transformadora y disruptiva. Pero advierte que es importante garantizar “una comprensión y compromiso con la creación de una inteligencia artificial confiable”.

EL AI HLEG parte de dos premisas. La primera es que esta tecnología “debe respetar los derechos fundamentales, las regulaciones aplicables y los principios fundamentales, asegurando el ‘propósito ético’”. La segunda es que “la inteligencia artificial debe ser técnicamente robusta y confiable”.

Sin embargo, los expertos señalan que, aún con las mejores intenciones, su uso puede acarrear un daño involuntario, por lo que consideran pertinente desarrollar un marco para hacer que la inteligencia artificial sea confiable, ofreciendo algunas orientaciones.

El borrador articula los derechos fundamentales y el conjunto de principios y valores que apoyan los propósitos éticos de la IA, que entroncan con las tres leyes de la robótica formuladas por Isaac Asimov.

El texto remarca que hay que asegurarse de que la inteligencia artificial esté centrada en el ser humano y reflejar los derechos fundamentales, los valores sociales y unos principios éticos basado en hacer el bien, no hacer daño, mantener la autonomía de los humanos, asegurar la justicia y que sus decisiones sean explicables.

Además, hace hincapié en que debe prestar especial atención a las situaciones que impliquen a los grupos más vulnerables, como los niños, personas con discapacidad, minorías, así como en situaciones de asimetría de poder o información, como entre empleadores y empleados o entre empresas y los consumidores.

Los expertos también proponen métodos para ayudar a desarrollar e implementar una inteligencia artificial de confianza. Indican que hay que tener en cuenta los requisitos de confiabilidad desde la primera fase de diseño, considerando el principio de responsabilidad –capacidad de rendir cuentas-, el respeto de la autonomía humana, un diseño pensado para todos, un adecuado uso de los datos, respeto de la privacidad y que se trate de una tecnología robusta, segura y transparente.

Asimismo, el documento aconseja que las empresas cuenten con códigos deontológicos sobre el uso de inteligencia artificial, contemplando la diversidad en los equipos humanos encargados de desarrollar y probar las aplicaciones de esta tecnología.

Ahora se abre un plazo en el que el grupo de expertos recibirá sugerencias para mejorar el texto antes de la redacción de la versión definitiva. La publicación del documento final está prevista para marzo de 2019.

Lea también :
Leer la biografía del autor  Ocultar la biografía del autor