Categories: Seguridad

Ciberriesgos asociados al uso de la inteligencia artificial ChatGPT

La utilización cada vez más habitual de herramientas de inteligencia artificial (IA) conversacional, como la popular ChatGPT, suponen la posibilidad de riesgos potenciales muy diversos. Desde la automatización de algunas tareas que puede llevar a poner en peligro algunos puestos laborales uso malintencionado que puede derivarse de estas herramientas.

Desde Panda Security han llamado la atención sobre cómo los ciberdelincuentes pueden aprovechar las malas prácticas en cuanto al uso de estas herramientas de IA. En el caso de ChatGPT se trata de un modelo de lenguaje que ha recibido como entrenamiento una gran cantidad de datos de texto, siendo capaz de generar respuestas similares a las que ofrecería un operador humano a preguntas efectuadas en lenguaje natural, algo de gran utilidad por ejemplo como chatbot capaz de ofrecer asistencia a clientes y usuarios.

Esta vía podría utilizarse para la difusión de información falsa que podrían afectar a los mercados financieros o a través de redes sociales a los medios de comunicación y la opinión pública. Sería un paso más allá de la manipulación informativa que se detectó años atrás con motivo de las elecciones presidenciales en Estados Unidos.

Ya se han difundido casos de éxito en los que a través de IA se han mejorado porciones de código en programas. Esto permitiría a los ciber delincuentes mejorar el código de virus y malware para acceder a equipos ajenos.

Al ser capaz de mantener conversaciones casi indistinguibles de las que se tendría con una persona real mediante IA podrían suplantar se identidades o generar identidades falsas, convincentes en su interacción, a través de las que llevar a cabo distintas acciones delictivas, desde estafas hasta abuso de menores. Además los idiomas no supondrían una barrera puesto que una vez generado el modelo conversacional la propia IA sería capaz de traducir las frases.

Por último la aplicación de la IA a los deepfakes mejoraría la generación de fotografías, vídeos y audios en los que la apariencia, movimientos y voz de personas reales sería imitada de una manera completamente convincente. Este aspecto resalta VALL-E, herramienta recientemente creada por Microsoft capaz de sintetizar texto dando como resultado una voz capaz de imitar la de una persona real con apenas un clip de audio de tres segundos de duración.

Antonio Rentero

Recent Posts

HPE Aruba Networking anuncia nuevos puntos de acceso WiFi 7

Sus soluciones son capaces de utiliza por completo las bandas de 5 y 6 GHz,…

37 mins ago

Lenovo ahonda en la era de la inteligencia artificial con tres PC ThinkCentre M75

Introduce los ordenadores ThinkCentre M75t Gen 5, ThinkCentre M75s Gen 5 y ThinkCentre M75q Gen…

1 hora ago

CrowdStrike Falcon XDR incluirá los servicios de IA de NVIDIA

CrowdStrike y NVIDIA se unen para prevenir problemas con la creación de modelos de seguridad…

2 horas ago

Hitachi Vantara anuncia la disponibilidad de Virtual Storage Platform One

Se trata de una solución para el almacenamiento unificado en la nube híbrida que incluye…

3 horas ago

Grupo Econocom confirma su previsión de ingresos anuales

Para todo el año 2024 espera registrar un crecimiento de entre el 3 y el…

3 horas ago

DXC Technology elige nuevo presidente para España y Portugal

Alfonso García Muriel, que hasta ahora se desempeñaba como director de negocio, sustituye a Juan…

4 horas ago