3 puntos a tener en cuenta para la confianza digital en la era de la IA

ISACA pone el ojo en la madurez organizacional, la formación de talento humano y la certificación de terceros.

Mientras Europa avanza en su Ley de Inteligencia Artificial (IA) para establecer un ecosistema de confianza, la asociación profesional ISACA introduce el marco holístico DTEF (Digital Trust Ecosystem Framework) que entrega prácticas, actividades, controles y métricas para evaluar la fiabilidad en torno a la IA dentro de las empresas.

Teniendo en cuenta que el campo de la IA es amplio, sus expertos consideran que requiere un enfoque integral que abarque auditorías, ciberseguridad y privacidad. Y que, además, ponga a las personas en el centro.

En concreto, sus profesionales creen que las compañías deben considerar tres factores para abordar los desafíos de la tecnología de inteligencia artificial. Estos son: la madurez organizacional, el talento humano y la certificación de terceros.

Para conseguir una implementación beneficiosa de la IA, las organizaciones deben alcanzar un nivel específico de madurez en ciberseguridad. ISACA anima a las empresas a considerar su resiliencia ante los riesgos resultantes de la adopción de la IA y demostrar la solidez de sus procesos. Por ejemplo, con la certificación CMMI.

Contratar profesionales con los conocimientos técnicos necesarios es un problema común. La solución puede estar en las certificaciones, que permiten a los profesionales tecnológicos en activo actualizar sus habilidades para nuevos roles. Aquí ISACA sugiere que el papel de las certificaciones sea reconocido por los reguladores y apoyar las inversiones en formación.

Por último, fabricantes y desarrolladores tienen que ofrecer garantías tangibles para favorecer la confianza en la seguridad de los productos de IA. Esto pasa por marcas de calidad y sellos que certifiquen dicha seguridad para productos y servicios.