La inteligencia artificial se ha erigido como la gran tendencia tecnológica de la actualidad. La popularidad de ChatGPT así lo ha conseguido. Usuarios y empresas han empezado a probar los beneficios de los chatbots y la inteligencia artificial generativa para obtener respuestas rápidas, ahorrar tiempo, centrarse en tareas de valor y potenciar su productividad.
Pero este avance llega acompañado de algunas sombras. Entre ellas destaca el propio uso que los ciberdelincuentes hacen de la innovación tecnológica.
Tal y como explican desde la compañía se seguridad Panda Security, “el problema no son tanto las aplicaciones legítimas como sus primas hermanas, algo más oscuras“, que carecen de límites a nivel ético.
Es el caso de WormGPT, un modelo de transformador generativo preentrenado que ha sido fabricado directamente para causar el mal. Se trata de una herramienta de pago que ha sido entrenada con diversas fuentes relacionadas con malware y que genera texto que parece escrito por un ser humano.
Ahí se encuentra su peligro. Los criminales pueden utilizarlo para crear correos electrónicos más convincentes, sin los típicos fallos gramaticales ni las señales incriminatorias que solían acompañar a muchas campañas de phishing y ataques de compromiso BEC.
Como es fácil de usar, personas sin experiencia pueden recurrir a esta herramienta para lanzar ataques masivos personalizados en cuestión de unos minutos.
Panda Security también advierte sobre interfaces similares a ChatGPT que han sido diseñadas con el objetivo de engañar a los usuarios y hacerse con información sensible.
“No nos extraña la velocidad a la que han surgido y se han hecho conocidas este tipo de herramientas maliciosas, era cuestión de tiempo y ha sido rápido”, declara Hervé Lambert, Global Consumer Operations Manager de Panda Security.
“La principal diferencia con el modelo original”, explica, “es que aquí sí se pueden crear -o más bien solicitar la creación– códigos maliciosos”, porque estas herramientas carecen de regulación y de “los filtros de seguridad pertinentes”.
“Combatir la inteligencia artificial con inteligencia artificial es prácticamente una obligación para las empresas en este nuevo contexto”, propone como respuesta Lambert. “Y por supuesto, la regulación internacional juega aquí un papel crucial: debe poner puertas a este enorme campo para controlar las malas hierbas y permitir el florecimiento de los hermosos avances que estamos aún por ver”.
Los operadores de telefonía dedicarán más de 17.000 millones de dólares en seguridad de red…
Asistimos al evento WSO2 Oxygenate Spain 2025, donde el fabricante de software basado en código…
Un estudio de Hostinger desvela que más de un 35 % de los españoles realiza…
Infoblox revela una conexión entre ciberataques a WordPress y redes TDS asociadas al actor malicioso…
Según un estudio de Proofpoint, el 35 % carece de medidas básicas de ciberseguridad.
Las expectativas salariales de los profesionales y la competencia con otras empresas explican estos problemas…