7 formas en las que la IA condicionará el panorama de ciberseguridad en 2024

La inteligencia artificial seguirá marcando con fuerza la evolución del mercado empresarial durante los próximos meses.

La inteligencia artificial (IA) y la ciberseguridad son dos áreas tecnológicas que permanecerán muy vinculadas a lo largo de 2024.

La IA, por un lado, potencia las soluciones de protección para combatir un panorama de amenazas en constante crecimiento. Pero, por el otro, sus capacidades pueden ser aprovechadas por los propios delincuentes para impulsar sus ataques.

F5 ha publicado una lista con diez previsiones sobre qué dará de sí el mundo de la ciberseguridad este año y, de ellas, siete están vinculadas directamente con la inteligencia artificial.

Para empezar, esta compañía destaca que “la IA generativa conversará con las víctimas de phishing. Es decir, los ciberdelincuentes se enfocarán en traducir mensajes y comunicarse con sus víctimas en diferentes idiomas para desvincularse de los típicos fallos que ayudaban a detectar campañas de phishing. También se esforzarán en incorporar datos que están disponibles públicamente y que otorgarán un halo de realismo a sus estafas.

“Gracias a la IA generativa y utilizando la modalidad de phishing as-a-service, los grupos del cibercrimen organizado podrán magnificar sus ataques tanto en tamaño como en eficacia”, adelanta José Carlos Huertas, ingeniero de soluciones sénior en F5.

Otra previsión es que “la IA generativa permitirá utilizar información en tiempo real en ataques web”, ya que los grandes modelos de lenguaje (LLM) permitirán dirigir secuencias de procedimientos mientras se llevan a cabo los ataques y reaccionar en función de las defensas encontradas. Los atacantes tendrán la oportunidad de incorporar ideas que ofrecen los sistemas de IA para probar alternativas de entrada.

Huertas cree que “pronto veremos cómo los LLM van a poder diversificar las cadenas de ataque favoreciendo la actividad de los ciberdelincuentes”.

La existencia de “grandes modelos de lenguaje con filtraciones” es un desafío que las organizaciones tendrán que afrontar, dado que ya existen formas de engañar a los LLM para hacerse con sus datos de entrenamiento.

El desarrollo acelerado de modelos propietarios también conlleva un riesgo de exposición por la falta de rigurosidad y una posible configuración irregular de los controles.

“En 2024 veremos fallos espectaculares en las herramientas impulsadas por GenAI, como filtraciones masivas de PII (información personal de identificación), técnicas novedosas para obtener acceso no autorizado y ataques de denegación de servicio”, apuestan desde F5.

Aquí entran también las “vulnerabilidades generativas”, en tanto que “los LLM van a crear una avalancha de código vulnerable difícil de proteger”.

Entre las posibilidades de la IA se encuentra la escritura de código personalizado. Los asistentes inteligentes trabajan con tal rapidez que dificultan la revisión posterior. Además, dependiendo de la fecha de creación del LLM, cabe la posibilidad de que se ignoren problemas de seguridad actuales.

En esta relación entre inteligencia artificial y seguridad, F5 tiene otros miedos, como que “el crimen organizado utilizará IA generativa con cuentas falsas”, “los Estados nación utilizarán IA generativa para desinformar”, y “el ‘hacktivismo’ crecerá gracias a la IA generativa y a otros avances tecnológicos”.

Este tipo de IA tiene habilidad para generar contenido por su cuenta, con una apariencia similar a la de los textos, imágenes o vídeos creados por un ser humano. Y, por tanto, difíciles de distinguir. Esto abre las puertas al fraude y otro tipo de tácticas de ciberdelincuencia, incluyendo relleno de credenciales y manipulación de los mercados.

Los internautas se vuelven más vulnerables frente a la difusión de fake news. El que así lo desee puede hacer realidad contenido creíble y dirigir campañas de manera automatizada. Con la celebración en 2024 de eventos masivos con repercusión internacional como las elecciones presidenciales en Estados Unidos o los Juegos Olímpicos de París, o incluso los conflictos políticos en curso, el riesgo crece.

Del mismo modo, “se espera que la actividad hacktivista relacionada con los principales acontecimientos globales crezca a medida que la capacidad de computación siga volviéndose más asequible y fácil de usar”, indica José Carlos Huertas, ya sea por el avance de la IA o la disponibilidad de smartphones y otros dispositivos informáticos.

El pronóstico apunta a ofensivas más destructivas, como desconfiguraciones de páginas web y la alteración de infraestructuras críticas.

Ataques al edge, living-off-the-land y matriz de pobreza

Pero no todo es inteligencia artificial. F5 visualiza asimismo un futuro lleno de “ataques al edge, basándose en el hecho de que el 75 % de los datos empresariales se generarán y procesarán más allá de los límites tradicionales de centros de datos y cloud computing.

Desde la manipulación física a los fallos en el software y las APIs, son varios los desafíos de gestión relacionados con el paradigma del edge computing.

Por otro lado, la complejidad de los entornos tecnológicos dificultará la monitorización justo en un momento en el que “los ciberdelincuentes mejorarán sus capacidades para ataques tipo living-off-the-land”. Estos ataques LOTL aprovechan software legítimo de los sistemas para colarse en la red empresarial.

Finalmente, Huertas muestra preocupación sobre el efecto de las tendencias de arquitectura sobre la “línea de pobreza en ciberseguridad” o “el nivel de conocimiento, autoridad y, sobre todo, de presupuesto necesarios para lograr el mínimo indispensable de controles”.

En su opinión, se pasará de una línea a “una matriz de pobreza compuesta de diferentes dimensiones, e incluso las empresas con recursos tendrán dificultades para poder abordar todas ellas”.