Categories: Seguridad

WormGPT, el “primo” malo de ChatGPT

La inteligencia artificial se ha erigido como la gran tendencia tecnológica de la actualidad. La popularidad de ChatGPT así lo ha conseguido. Usuarios y empresas han empezado a probar los beneficios de los chatbots y la inteligencia artificial generativa para obtener respuestas rápidas, ahorrar tiempo, centrarse en tareas de valor y potenciar su productividad.

Pero este avance llega acompañado de algunas sombras. Entre ellas destaca el propio uso que los ciberdelincuentes hacen de la innovación tecnológica.

Tal y como explican desde la compañía se seguridad Panda Security, “el problema no son tanto las aplicaciones legítimas como sus primas hermanas, algo más oscuras“, que carecen de límites a nivel ético.

Es el caso de WormGPT, un modelo de transformador generativo preentrenado que ha sido fabricado directamente para causar el mal. Se trata de una herramienta de pago que ha sido entrenada con diversas fuentes relacionadas con malware y que genera texto que parece escrito por un ser humano.

Ahí se encuentra su peligro. Los criminales pueden utilizarlo para crear correos electrónicos más convincentes, sin los típicos fallos gramaticales ni las señales incriminatorias que solían acompañar a muchas campañas de phishing y ataques de compromiso BEC.

Como es fácil de usar, personas sin experiencia pueden recurrir a esta herramienta para lanzar ataques masivos personalizados en cuestión de unos minutos.

Panda Security también advierte sobre interfaces similares a ChatGPT que han sido diseñadas con el objetivo de engañar a los usuarios y hacerse con información sensible.

“No nos extraña la velocidad a la que han surgido y se han hecho conocidas este tipo de herramientas maliciosas, era cuestión de tiempo y ha sido rápido”, declara Hervé Lambert, Global Consumer Operations Manager de Panda Security.

“La principal diferencia con el modelo original”, explica, “es que aquí sí se pueden crear -o más bien solicitar la creación– códigos maliciosos”, porque estas herramientas carecen de regulación y de “los filtros de seguridad pertinentes”.

Combatir la inteligencia artificial con inteligencia artificial es prácticamente una obligación para las empresas en este nuevo contexto”, propone como respuesta Lambert. “Y por supuesto, la regulación internacional juega aquí un papel crucial: debe poner puertas a este enorme campo para controlar las malas hierbas y permitir el florecimiento de los hermosos avances que estamos aún por ver”.

Mónica Tilves

Licenciada en Xornalismo por la Universidad de Santiago de Compostela en la especialidad de Periodismo Electrónico y Multimedia. Apasionada de los gadgets, la fotografía digital, el diseño web y el arte. Tras un primer contacto con el mundo de la prensa escrita y con la suficiencia investigadora debajo del brazo, me decanto por los medios online. Cubro la actualidad informativa en Silicon Week desde 2011, además de colaborar en otras publicaciones del grupo NetMediaEurope en España como Silicon News. Ahora en Silicon.es.

Recent Posts

Qualcomm presenta sus resultados trimestrales

La compañía suma tres trimestres consecutivo de ingresos récord en su negocio de QCT Automotive.

23 mins ago

Así impacta la IA generativa en el mercado de tecnología jurídica

La firma de investigación Gartner observa que este tipo de inteligencia artificial "tiene un enorme…

21 horas ago

Los ingresos por servicios empresariales y de TI crecerán este año menos de un 5 %

La consultora IDC calcula que aumentarán un 4,7 % para alcanzar la cifra de 1,28…

22 horas ago

El mercado ‘smartphone’ logra crecer a doble dígito

Samsung recuperó el liderato durante el primer trimestre tras alcanzar los 60 millones de unidades…

22 horas ago

PayPal anuncia resultados financieros con mejorías en ingresos y ganancias

Sus ingresos netos se elevan hasta los 7.700 millones de dólares, mientras que su beneficio…

23 horas ago