La base para una IA responsable: tres claves a tener en cuenta

Con el aumento vertiginoso del uso de la IA, siguen surgiendo preguntas sobre cómo seguir unas prácticas éticas y responsables. Coincidiendo con el reciente nombramiento de España como presidente del Consejo de la Unión Europea, Madrid desempeñará un papel clave a la hora de dar forma a la regulación sobre la IA y de crear marcos de gobernanza digital fiables. El país tendrá una influencia significativa en el desarrollo de marcos que permitan el crecimiento de la innovación y que pongan a las personas y a las comunidades en el centro de la transformación digital.

La primera regulación exhaustiva del mundo en materia de IA, la Ley de IA de la UE, ocupa un lugar preponderante en estas conversaciones. Esta ley podría llegar a ser un estándar global, por lo que de esta forma se convertiría en una legislación crucial y muy debatida. El objetivo principal de esta ley será promover la confianza, la transparencia y la responsabilidad en el desarrollo de la IA y, al mismo tiempo, garantizar los derechos fundamentales y la seguridad.

Pero no se trata solo de legislar, asegurar el cumplimiento o evitar sanciones. Al apoyar la innovación responsable, las empresas podrán impulsar sus iniciativas de IA al mismo tiempo que protegen nuestra sociedad, seguridad y economía. En la práctica, esto implica que las empresas tendrán la responsabilidad fundamental de garantizar que sus productos son seguros antes de su implementación o publicación.

En este sentido, las empresas deben establecer una base que minimice los riesgos relacionados con las tecnologías de IA y de aprendizaje automático, y promuevan el uso responsable de la IA:

1. Define tu equipo

Como la IA se basa en datos, los profesionales de la privacidad se encuentran en una posición única para asumir el timón de la IA responsable en su organización y conciliar la innovación de la IA con la privacidad de los usuarios. Sin embargo, el desarrollo y el uso de la IA requieren la unión de diferentes roles para comprender, mitigar y administrar los diversos riesgos que puedan surgir.
El Marco de Trabajo de Gestión de Riesgos sobre la IA (RMF por sus siglas en inglés), publicado por el Instituto Nacional Estadounidense de Estándares y Tecnología (NIST), destaca las ventajas de atajar los riesgos de la IA junto con otros riesgos críticos; un enfoque así «daría lugar a un resultado más integrado y una mayor eficiencia organizativa». Además, la estructura de gobernanza que surgirá al unir las diferentes partes interesadas de tu empresa garantizará que se adopte un enfoque sistemático en cuanto a las decisiones relacionadas con la IA. Copyright © 2023 OneTrust LLC. Información confidencial y de propiedad exclusiva.

2. Desarrolla un inventario de IA

Haz una lista de todos los productos, funciones, procesos y proyectos relacionados con la IA y el aprendizaje automático, tanto si son internos como de fuentes externas. Desde el punto de vista de un programa de gestión de riesgos de TI o de privacidad, puedes aprovechar tus inventarios o mapas de datos existentes. También puedes comenzar por llevar a cabo un registro de actividades de tratamiento que incluya el tratamiento de información personal, además de la tecnología de IA y aprendizaje automático. La localización de datos también puede ayudar a determinar cómo van a interactuar tus sistemas de IA con diferentes categorías de datos.

3. Haz que tus objetivos se ajusten a un marco

El RMF sobre la IA del NIST tiene como objetivo proporcionar a las organizaciones que desarrollan sistemas y tecnologías de IA un marco práctico y adaptable para medir posibles daños y para proteger de ellos a las personas y a la sociedad. Comparar tus esfuerzos con un marco puede ayudarte a comprender cómo ampliar las estructuras de gobernanza o cómo crear nuevas. Por ejemplo, las preguntas sobre los riesgos de la IA se pueden integrar en los flujos de trabajo de los usuarios y en las evaluaciones existent es, que pueden tomar la forma de evaluaciones de impacto en la privacidad (EIP) o de evaluaciones de proveedores. Las políticas, los procesos y la formación también se pueden actualizar para incluir el enfoque de la IA en la organización cuando sea necesario.

En definitiva, la creación de un equipo dedicado e interfuncional, el desarrollo del inventario de IA y la adopción de un marco en el que estructurar los esfuerzos pueden minimizar los riesgos relacionados con el uso de la IA y, al mismo tiempo, garantizar que la innovación en IA siga siendo sinónimo de seguridad, confianza y protección de los derechos para todo el mundo.

Firma invitada

Nombres destacados del sector TIC opinan sobre las principales tendencias de la industria.

Recent Posts

Hospitales inteligentes, hospitales del presente

En esta tribuna, Miguel Barahona, Sales Director de Getronics, explica cómo las soluciones digitales están…

2 semanas ago

¿Por qué los MSSP adoptan soluciones SASE unificadas?

En esta tribuna, Guillermo Sato, Channel Manager Fortinet España y Portugal, explica la relevancia de…

3 semanas ago

Si la formación anual en ciberseguridad no funciona, ¿cuál es la alternativa?

En esta tribuna, Neil Thacker, CISO para EMEA en Netskope, aborda la creciente importancia de…

3 semanas ago

Copias de seguridad: un escudo ideal contra las ciberamenazas a tu empresa

En esta tribuna, Miguel López, Director General de Barracuda Networks, explica la necesidad de tener…

1 mes ago

El futuro de la banca: optimización de la gestión del efectivo para los cajeros

En esta tribuna Gaetano Ziri, Innovation Manager de Auriga, destaca la necesidad de reducir los…

2 meses ago

la IA irrumpe entre las principales tendencias en Identidad Digital

Marc Sabadí, Identity Innovation Lead, Mitek Systems, nos explica en esta tribuna cómo la inteligencia…

2 meses ago