Los expertos advierten sobre Shadow AI o el uso no autorizado de inteligencia artificial en las empresas

Palo Alto Networks alerta sobre los riesgos de la IA en la empresa. Por ejemplo, 7 de cada 10 aplicaciones son susceptibles a ataques de “jailbreak”.
Getting your Trinity Audio player ready...
|
La inteligencia artificial (IA) es la tecnología de moda. Su presencia se deja notar en el día a día de ciudadanos y empresas tras la popularización especialmente de las aplicaciones de IA generativa.
Un estudio de Palo Alto Networks habla de “crecimiento sin precedentes” en el uso de este tipo aplicaciones. Cifra en un 890 % el incremento en el volumen de tráfico.
Destaca el lanzamiento del modelo de razonamiento DeepSeek-R1 el pasado mes de enero. En apenas dos meses se produjo un aumento del tráfico del 1800 %.
La media de aplicaciones de IA generativa en las organizaciones a día de hoy es de 66, según el “2025 State of GenAI Report” de Palo Alto Networks.
Este informe no sólo detecta beneficios en productividad por el avance de esta innovación, sino que también advierte sobre los riesgos asociados de ciberseguridad. En este sentido, explica que la rápida expansión de las herramientas de IA es, en ciertos casos, “descontrolada”.
Durante el primer trimestre de 2025, los incidentes de pérdida de datos relacionados con la IA generativa se multiplicaron por 2,5. Ya suponen un 14 % del total de los incidentes.
Otra preocupación al alza es Shadow AI, esto es, el uso de soluciones de IA por parte de empleados sin que exista una supervisión real del departamento de TI. Las empresas se relacionan con una media de 6,6 aplicaciones de IA generativa de alto riesgo, según los expertos, sin que exista un marco de control claro.
El resultado es un problema de visibilidad que perjudica el cumplimiento normativo y la confidencialidad de la información corporativa.
Además, al menos 7 de cada 10 aplicaciones evaluadas son susceptibles a ataques de tipo jailbreak, lo que puede derivar en respuestas ofensivas o discriminatorias, con contenido autolesivo o instrucciones sobre actividades fuera de la legalidad.
Ante esta situación, la recomendación pasa por controlar el uso de la IA generativa a través de políticas de acceso condicional. También se aconseja aplicar arquitecturas Zero Trust, inspección de contenido en tiempo real y políticas centralizadas de seguridad.
Aplicaciones más populares
La investigación de Palo Alto Networks revela que la gran mayoría (83,8 %) de las interacciones con la IA generativa tiene que ver con plataformas de asistencia a la escritura, agentes conversacionales, buscadores corporativos y entornos de desarrollo.
El asistente de escritura más popular es Grammarly, que aglutina un 39 % del tráfico. Mientras tanto, en agentes de IA lidera Microsoft. Prácticamente la mitad (49 %) de las empresas usan Microsoft Copilot o Copilot Studio.
En España, las soluciones de IA generativa más extendidas son: Microsoft 365 Copilot (24,1 %), Microsoft PowerApps (23,9 %) y el ChatGPT de OpenAI (23,4 %).
Por sectores, los que más recurren a la IA generativa para cuestiones de desarrollo son el tecnológico y el industrial. Juntos generan el 39 % de las actividades de codificación, lo que plantea riesgos por la posible ejecución de código malicioso, fugas de propiedad intelectual o problemas legales y éticos.