Ciberriesgos asociados al uso de la inteligencia artificial ChatGPT

Difusión de información falsa, suplantación de identidades, deep fakes, mejorar código de malware… la IA también tiene aplicaciones potencialmente peligrosas y delictivas.

La utilización cada vez más habitual de herramientas de inteligencia artificial (IA) conversacional, como la popular ChatGPT, suponen la posibilidad de riesgos potenciales muy diversos. Desde la automatización de algunas tareas que puede llevar a poner en peligro algunos puestos laborales uso malintencionado que puede derivarse de estas herramientas.

Desde Panda Security han llamado la atención sobre cómo los ciberdelincuentes pueden aprovechar las malas prácticas en cuanto al uso de estas herramientas de IA. En el caso de ChatGPT se trata de un modelo de lenguaje que ha recibido como entrenamiento una gran cantidad de datos de texto, siendo capaz de generar respuestas similares a las que ofrecería un operador humano a preguntas efectuadas en lenguaje natural, algo de gran utilidad por ejemplo como chatbot capaz de ofrecer asistencia a clientes y usuarios.

Esta vía podría utilizarse para la difusión de información falsa que podrían afectar a los mercados financieros o a través de redes sociales a los medios de comunicación y la opinión pública. Sería un paso más allá de la manipulación informativa que se detectó años atrás con motivo de las elecciones presidenciales en Estados Unidos.

Ya se han difundido casos de éxito en los que a través de IA se han mejorado porciones de código en programas. Esto permitiría a los ciber delincuentes mejorar el código de virus y malware para acceder a equipos ajenos.

Al ser capaz de mantener conversaciones casi indistinguibles de las que se tendría con una persona real mediante IA podrían suplantar se identidades o generar identidades falsas, convincentes en su interacción, a través de las que llevar a cabo distintas acciones delictivas, desde estafas hasta abuso de menores. Además los idiomas no supondrían una barrera puesto que una vez generado el modelo conversacional la propia IA sería capaz de traducir las frases.

Por último la aplicación de la IA a los deepfakes mejoraría la generación de fotografías, vídeos y audios en los que la apariencia, movimientos y voz de personas reales sería imitada de una manera completamente convincente. Este aspecto resalta VALL-E, herramienta recientemente creada por Microsoft capaz de sintetizar texto dando como resultado una voz capaz de imitar la de una persona real con apenas un clip de audio de tres segundos de duración.