Categories: Seguridad

WormGPT, el “primo” malo de ChatGPT

La inteligencia artificial se ha erigido como la gran tendencia tecnológica de la actualidad. La popularidad de ChatGPT así lo ha conseguido. Usuarios y empresas han empezado a probar los beneficios de los chatbots y la inteligencia artificial generativa para obtener respuestas rápidas, ahorrar tiempo, centrarse en tareas de valor y potenciar su productividad.

Pero este avance llega acompañado de algunas sombras. Entre ellas destaca el propio uso que los ciberdelincuentes hacen de la innovación tecnológica.

Tal y como explican desde la compañía se seguridad Panda Security, “el problema no son tanto las aplicaciones legítimas como sus primas hermanas, algo más oscuras“, que carecen de límites a nivel ético.

Es el caso de WormGPT, un modelo de transformador generativo preentrenado que ha sido fabricado directamente para causar el mal. Se trata de una herramienta de pago que ha sido entrenada con diversas fuentes relacionadas con malware y que genera texto que parece escrito por un ser humano.

Ahí se encuentra su peligro. Los criminales pueden utilizarlo para crear correos electrónicos más convincentes, sin los típicos fallos gramaticales ni las señales incriminatorias que solían acompañar a muchas campañas de phishing y ataques de compromiso BEC.

Como es fácil de usar, personas sin experiencia pueden recurrir a esta herramienta para lanzar ataques masivos personalizados en cuestión de unos minutos.

Panda Security también advierte sobre interfaces similares a ChatGPT que han sido diseñadas con el objetivo de engañar a los usuarios y hacerse con información sensible.

“No nos extraña la velocidad a la que han surgido y se han hecho conocidas este tipo de herramientas maliciosas, era cuestión de tiempo y ha sido rápido”, declara Hervé Lambert, Global Consumer Operations Manager de Panda Security.

“La principal diferencia con el modelo original”, explica, “es que aquí sí se pueden crear -o más bien solicitar la creación– códigos maliciosos”, porque estas herramientas carecen de regulación y de “los filtros de seguridad pertinentes”.

Combatir la inteligencia artificial con inteligencia artificial es prácticamente una obligación para las empresas en este nuevo contexto”, propone como respuesta Lambert. “Y por supuesto, la regulación internacional juega aquí un papel crucial: debe poner puertas a este enorme campo para controlar las malas hierbas y permitir el florecimiento de los hermosos avances que estamos aún por ver”.

Mónica Tilves

Licenciada en Xornalismo por la Universidad de Santiago de Compostela en la especialidad de Periodismo Electrónico y Multimedia. Apasionada de los gadgets, la fotografía digital, el diseño web y el arte. Tras un primer contacto con el mundo de la prensa escrita y con la suficiencia investigadora debajo del brazo, me decanto por los medios online. Cubro la actualidad informativa en Silicon Week desde 2011, además de colaborar en otras publicaciones del grupo NetMediaEurope en España como Silicon News. Ahora en Silicon.es.

Recent Posts

Apenas un 3,5% de los jóvenes optarán por estudios de tecnología

Sólo un 3,5% de los jóvenes estudiantes de ESO y Bachillerato se plantean optar por…

16 horas ago

El año arrancó con una caída en los envíos de ‘smartphones’ en Europa

Las cinco marcas que lideran en el Viejo Continente son, por este orden: Samsung, Apple,…

2 días ago

Hewlett Packard Enterprise introduce nuevos switches

Entre ellos, el smart switch HPE Aruba Networking CX 10040 con DPU de AMD.

2 días ago

AWS Summit Madrid celebra su décimo aniversario

El recinto ferial de IFEMA acogerá el evento el próximo 11 de junio.

2 días ago

Opera Neon, un navegador agéntico que “opera, colabora y construye”

La última creación de Opera aborda varias tareas a la vez, comprende la intención de…

2 días ago

NetApp incrementa sus ingresos y sus ganancias anuales

La compañía ha presentado los resultados correspondientes al cuarto trimestre y su año fiscal 2025.

2 días ago