DeepSeek y el reto de la seguridad en la IA: ¿cómo proteger los modelos de lenguaje?

La irrupción de DeepSeek evidencia la necesidad de reforzar la seguridad en los modelos de lenguaje. Un informe de Unit 42 revela sus vulnerabilidades ante ataques de jailbreaking.

La irrupción de DeepSeek en el mercado de la inteligencia artificial está marcando un punto de inflexión en el desarrollo y uso de los grandes modelos de lenguaje (LLM). A medida que las empresas incorporan estos modelos en sus procesos, garantizar su seguridad se ha convertido en una prioridad. Sin embargo, el desafío de protegerlos completamente sigue siendo complejo.

Según un reciente estudio de Unit 42 de Palo Alto Networks, DeepSeek presenta vulnerabilidades significativas ante ataques de jailbreaking, una técnica que permite eludir los controles de seguridad y generar contenido potencialmente malicioso. Esta situación pone de manifiesto la necesidad de aplicar marcos de seguridad robustos desde el desarrollo hasta la implementación de modelos de IA.

IA segura por diseño

Para que las organizaciones puedan utilizar herramientas de inteligencia artificial sin comprometer la seguridad, es fundamental adoptar un enfoque de IA segura por diseño. Palo Alto Networks ha desarrollado AI Access Security, una solución que permite a las empresas controlar y supervisar el uso de la IA generativa en sus entornos corporativos.

Impulsadas por Precision AI, las soluciones de Palo Alto Networks ofrecen una mayor protección frente a los riesgos asociados al uso de aplicaciones de IA públicas, permitiendo a las organizaciones aprovechar sus beneficios sin exponerse a amenazas cibernéticas.

DeepSeek y sus vulnerabilidades

El informe de Unit 42 ha revelado que DeepSeek es especialmente vulnerable al jailbreaking, lo que facilita la manipulación del modelo para generar contenido no autorizado o peligroso. Para demostrarlo, los investigadores utilizaron tres métodos avanzados de ataque: Deceptive Delight, Bad Likert Judge y Crescendo (jailbreaking de múltiples etapas). Los resultados fueron preocupantes: DeepSeek fue incapaz de resistir estas técnicas y generó respuestas maliciosas con muy poca manipulación.

Los riesgos de la IA en manos de ciberdelincuentes

Sam Rubin, Vicepresidente Senior de Consultoría e Inteligencia de Amenazas de Unit 42, advierte sobre el uso indebido de la inteligencia artificial: “La investigación de Unit 42 sobre el jailbreaking de DeepSeek muestra que no siempre podemos confiar en que los LLM funcionarán como se espera: pueden ser manipulados. Es importante que las empresas consideren estas vulnerabilidades al incorporar LLM de código abierto en los procesos empresariales. Debemos asumir que las barreras de seguridad de los LLM pueden ser quebrantadas y que se necesitan salvaguardas a nivel organizacional.”

Además, Rubin subraya que actores de amenazas de estados nacionales ya están utilizando modelos como OpenAI y Gemini para lanzar ataques, mejorar cebos de phishing y generar malware. Con el tiempo, se espera que los ciberdelincuentes perfeccionen estas técnicas, desarrollando incluso agentes de ataque de IA que aumenten la velocidad y sofisticación de los ciberataques.

Para las empresas, el desafío ahora no solo es adoptar IA en sus procesos, sino hacerlo con una estrategia que garantice su seguridad y minimice los riesgos.