Categories: Seguridad

Ciberriesgos asociados al uso de la inteligencia artificial ChatGPT

La utilización cada vez más habitual de herramientas de inteligencia artificial (IA) conversacional, como la popular ChatGPT, suponen la posibilidad de riesgos potenciales muy diversos. Desde la automatización de algunas tareas que puede llevar a poner en peligro algunos puestos laborales uso malintencionado que puede derivarse de estas herramientas.

Desde Panda Security han llamado la atención sobre cómo los ciberdelincuentes pueden aprovechar las malas prácticas en cuanto al uso de estas herramientas de IA. En el caso de ChatGPT se trata de un modelo de lenguaje que ha recibido como entrenamiento una gran cantidad de datos de texto, siendo capaz de generar respuestas similares a las que ofrecería un operador humano a preguntas efectuadas en lenguaje natural, algo de gran utilidad por ejemplo como chatbot capaz de ofrecer asistencia a clientes y usuarios.

Esta vía podría utilizarse para la difusión de información falsa que podrían afectar a los mercados financieros o a través de redes sociales a los medios de comunicación y la opinión pública. Sería un paso más allá de la manipulación informativa que se detectó años atrás con motivo de las elecciones presidenciales en Estados Unidos.

Ya se han difundido casos de éxito en los que a través de IA se han mejorado porciones de código en programas. Esto permitiría a los ciber delincuentes mejorar el código de virus y malware para acceder a equipos ajenos.

Al ser capaz de mantener conversaciones casi indistinguibles de las que se tendría con una persona real mediante IA podrían suplantar se identidades o generar identidades falsas, convincentes en su interacción, a través de las que llevar a cabo distintas acciones delictivas, desde estafas hasta abuso de menores. Además los idiomas no supondrían una barrera puesto que una vez generado el modelo conversacional la propia IA sería capaz de traducir las frases.

Por último la aplicación de la IA a los deepfakes mejoraría la generación de fotografías, vídeos y audios en los que la apariencia, movimientos y voz de personas reales sería imitada de una manera completamente convincente. Este aspecto resalta VALL-E, herramienta recientemente creada por Microsoft capaz de sintetizar texto dando como resultado una voz capaz de imitar la de una persona real con apenas un clip de audio de tres segundos de duración.

Antonio Rentero

Recent Posts

El nivel C: los más acosados, según Unit 42

El informe de ransomware y extorsión 2023 de Unit 42 revela que el 70% de…

11 mins ago

Inteligencia artificial y analítica de datos, herramientas clave para lograr una industria alimentaria más eficiente en F4F Expo Foodtech

El congreso Food 4 Future World Summit es un claro ejemplo de cómo la tecnología…

14 horas ago

Así es la situación del comercio electrónico en Latinoamérica

En 2011 apenas el 39 % de la población latinoamericana recurría a los bancos para…

14 horas ago

Vodafone, amenazada por el imparable crecimiento de Digi

Vodafone ha reconocido en varias ocasiones que su estrategia es la de centrarse en ofrecer…

16 horas ago

Huawei y Funding Box ayudan a empresas emergentes con el programa Cloud Start-Up España

Los beneficios del programa incluyen acceso a experiencia tecnológica y créditos Huawei Cloud de hasta…

17 horas ago

Granada, sede de un nuevo centro de investigación y desarrollo de proyectos de inteligencia artificial

El centro de ADIA Lab se convertirá en un polo de atracción para empresas de…

18 horas ago