La base para una IA responsable: tres claves a tener en cuenta

RegulaciónSupervisión
La base para una IA responsable: tres claves a tener en cuenta

Javier Diaz, vicepresidente senior de EMEA y director general de OneTrust España, explica en esta tribuna los pasos cruciales que debe tomar la IA para una innovación responsable.

Con el aumento vertiginoso del uso de la IA, siguen surgiendo preguntas sobre cómo seguir unas prácticas éticas y responsables. Coincidiendo con el reciente nombramiento de España como presidente del Consejo de la Unión Europea, Madrid desempeñará un papel clave a la hora de dar forma a la regulación sobre la IA y de crear marcos de gobernanza digital fiables. El país tendrá una influencia significativa en el desarrollo de marcos que permitan el crecimiento de la innovación y que pongan a las personas y a las comunidades en el centro de la transformación digital.

La primera regulación exhaustiva del mundo en materia de IA, la Ley de IA de la UE, ocupa un lugar preponderante en estas conversaciones. Esta ley podría llegar a ser un estándar global, por lo que de esta forma se convertiría en una legislación crucial y muy debatida. El objetivo principal de esta ley será promover la confianza, la transparencia y la responsabilidad en el desarrollo de la IA y, al mismo tiempo, garantizar los derechos fundamentales y la seguridad.

Pero no se trata solo de legislar, asegurar el cumplimiento o evitar sanciones. Al apoyar la innovación responsable, las empresas podrán impulsar sus iniciativas de IA al mismo tiempo que protegen nuestra sociedad, seguridad y economía. En la práctica, esto implica que las empresas tendrán la responsabilidad fundamental de garantizar que sus productos son seguros antes de su implementación o publicación.

En este sentido, las empresas deben establecer una base que minimice los riesgos relacionados con las tecnologías de IA y de aprendizaje automático, y promuevan el uso responsable de la IA:

1. Define tu equipo

Como la IA se basa en datos, los profesionales de la privacidad se encuentran en una posición única para asumir el timón de la IA responsable en su organización y conciliar la innovación de la IA con la privacidad de los usuarios. Sin embargo, el desarrollo y el uso de la IA requieren la unión de diferentes roles para comprender, mitigar y administrar los diversos riesgos que puedan surgir.
El Marco de Trabajo de Gestión de Riesgos sobre la IA (RMF por sus siglas en inglés), publicado por el Instituto Nacional Estadounidense de Estándares y Tecnología (NIST), destaca las ventajas de atajar los riesgos de la IA junto con otros riesgos críticos; un enfoque así «daría lugar a un resultado más integrado y una mayor eficiencia organizativa». Además, la estructura de gobernanza que surgirá al unir las diferentes partes interesadas de tu empresa garantizará que se adopte un enfoque sistemático en cuanto a las decisiones relacionadas con la IA. Copyright © 2023 OneTrust LLC. Información confidencial y de propiedad exclusiva.

2. Desarrolla un inventario de IA

Haz una lista de todos los productos, funciones, procesos y proyectos relacionados con la IA y el aprendizaje automático, tanto si son internos como de fuentes externas. Desde el punto de vista de un programa de gestión de riesgos de TI o de privacidad, puedes aprovechar tus inventarios o mapas de datos existentes. También puedes comenzar por llevar a cabo un registro de actividades de tratamiento que incluya el tratamiento de información personal, además de la tecnología de IA y aprendizaje automático. La localización de datos también puede ayudar a determinar cómo van a interactuar tus sistemas de IA con diferentes categorías de datos.

3. Haz que tus objetivos se ajusten a un marco

El RMF sobre la IA del NIST tiene como objetivo proporcionar a las organizaciones que desarrollan sistemas y tecnologías de IA un marco práctico y adaptable para medir posibles daños y para proteger de ellos a las personas y a la sociedad. Comparar tus esfuerzos con un marco puede ayudarte a comprender cómo ampliar las estructuras de gobernanza o cómo crear nuevas. Por ejemplo, las preguntas sobre los riesgos de la IA se pueden integrar en los flujos de trabajo de los usuarios y en las evaluaciones existent es, que pueden tomar la forma de evaluaciones de impacto en la privacidad (EIP) o de evaluaciones de proveedores. Las políticas, los procesos y la formación también se pueden actualizar para incluir el enfoque de la IA en la organización cuando sea necesario.

En definitiva, la creación de un equipo dedicado e interfuncional, el desarrollo del inventario de IA y la adopción de un marco en el que estructurar los esfuerzos pueden minimizar los riesgos relacionados con el uso de la IA y, al mismo tiempo, garantizar que la innovación en IA siga siendo sinónimo de seguridad, confianza y protección de los derechos para todo el mundo.

Autor
Saber más 
Saber más 

Últimos Whitepapers