WormGPT, el “primo” malo de ChatGPT

Los ciberdelincuentes recurren a la inteligencia artificial para lanzar ataques de ‘phishing’ que resulten más convicentes.

La inteligencia artificial se ha erigido como la gran tendencia tecnológica de la actualidad. La popularidad de ChatGPT así lo ha conseguido. Usuarios y empresas han empezado a probar los beneficios de los chatbots y la inteligencia artificial generativa para obtener respuestas rápidas, ahorrar tiempo, centrarse en tareas de valor y potenciar su productividad.

Pero este avance llega acompañado de algunas sombras. Entre ellas destaca el propio uso que los ciberdelincuentes hacen de la innovación tecnológica.

Tal y como explican desde la compañía se seguridad Panda Security, “el problema no son tanto las aplicaciones legítimas como sus primas hermanas, algo más oscuras“, que carecen de límites a nivel ético.

Es el caso de WormGPT, un modelo de transformador generativo preentrenado que ha sido fabricado directamente para causar el mal. Se trata de una herramienta de pago que ha sido entrenada con diversas fuentes relacionadas con malware y que genera texto que parece escrito por un ser humano.

Ahí se encuentra su peligro. Los criminales pueden utilizarlo para crear correos electrónicos más convincentes, sin los típicos fallos gramaticales ni las señales incriminatorias que solían acompañar a muchas campañas de phishing y ataques de compromiso BEC.

Como es fácil de usar, personas sin experiencia pueden recurrir a esta herramienta para lanzar ataques masivos personalizados en cuestión de unos minutos.

Panda Security también advierte sobre interfaces similares a ChatGPT que han sido diseñadas con el objetivo de engañar a los usuarios y hacerse con información sensible.

“No nos extraña la velocidad a la que han surgido y se han hecho conocidas este tipo de herramientas maliciosas, era cuestión de tiempo y ha sido rápido”, declara Hervé Lambert, Global Consumer Operations Manager de Panda Security.

“La principal diferencia con el modelo original”, explica, “es que aquí sí se pueden crear -o más bien solicitar la creación– códigos maliciosos”, porque estas herramientas carecen de regulación y de “los filtros de seguridad pertinentes”.

Combatir la inteligencia artificial con inteligencia artificial es prácticamente una obligación para las empresas en este nuevo contexto”, propone como respuesta Lambert. “Y por supuesto, la regulación internacional juega aquí un papel crucial: debe poner puertas a este enorme campo para controlar las malas hierbas y permitir el florecimiento de los hermosos avances que estamos aún por ver”.