Tecnología para desenmascarar los deepfakes

Los deepfakes cada vez son más difíciles de descubrir, por lo que se están desarrollando varias tecnologías que permiten detectarlos automáticamente.

Los deepfakes han dejado de ser un juego inocente y para el entretenimiento y se están convirtiendo en una auténtica amenaza.

Este tipo de vídeos se usan para desinformar, con fines pornográficos, para dañar la imagen de una marca o de una persona…  Pero los ciberdelincuentes están dando un paso más allá y ya estamos viendo nuevas aplicaciones que amenazan la seguridad.

Esta misma semana, el FBI ha emitido un aviso informando acerca del uso de datos personales robados y deepfakes por parte de ciberdelincuentes, con el fin de presentarse como candidatos viables a puestos de trabajo en remoto. El objetivo no es otro que ser contratados y así poder robar datos financieros o patentes de la empresa, acceder a credenciales de clientes y a las bases de datos de la compañía, etc.

Aunque los deepfakes todavía presentan anomalías que pueden ayudar a detectarlos, la calidad que han alcanzado hace que sea difícil descubrirlos si no estamos prevenidos. Por eso, es fundamental contar con herramientas tecnológicas que ayuden a desenmascararlos automáticamente.

Por ejemplo, Microsoft lanzó en 2020 su Microsoft Video Authenticator, una plataforma inteligente para la detección de deepfakes en fotos y vídeos. Amnistía Internacional también pone a disposición de todos los usuarios una herramienta de análisis inverso de vídeos que permite detectar si las imágenes de un vídeo han sido utilizadas antes. Y disponemos de otras herramientas, como InVID, extensión de navegación especializada en analizar los vídeos; Montage, que permite analizar y etiquetar vídeos de YouTube; o Truepic, una plataforma de verificación de fotos y vídeos.

A todas estas iniciativas viene a sumarse ahora un nuevo proyecto, desarrollado por investigadores del grupo K-riptography and Information Security for Open Networks (KISON) y del Communication Networks & Social Change (CNSC), pertenecientes al Internet Interdisciplinary Institute (IN3) de la Universitat Oberta de Catalunya (UOC). Se trata de la iniciativa DISSIMILAR, fruto de la colaboración de la UOC con la Universidad Tecnológica de Varsovia (Polonia) y la Universidad de Okayama (Japón).

Este proyecto persigue el desarrollo de herramientas tecnológicas que ayuden a los usuarios a distinguir de automáticamente entre contenido multimedia original y alterado, usando para ello técnicas de ocultación de datos e inteligencia artificial.

“El proyecto tiene un objetivo doble. Por un lado, proporcionar a los creadores de contenido herramientas para identificar con marcas de agua sus creaciones, con lo que se consigue que cualquier modificación sea fácilmente detectable. Por otro, dotar a los usuarios de las redes sociales de herramientas basadas en procesamiento de señales de última generación y métodos de aprendizaje automático para detectar contenido digital falso”, detalla David Megías, investigador líder de KISON y director del IN3.

Desde la UOC se explica que las marcas de agua digitales son un conjunto de técnicas, de la rama de la ocultación de datos, que consisten en incrustar información imperceptible en el archivo original para poder verificar fácil y automáticamente un documento multimedia. “Pueden servir para indicar la legitimidad de un contenido, por ejemplo, verificar que un vídeo o una fotografía ha sido distribuido por una agencia de noticias oficial. También se pueden utilizar como marca de autentificación, que se eliminaría en caso de modificación del contenido, o para trazar el origen de los datos. Es decir, para saber si una fuente de información —por ejemplo, una cuenta de Twitter— está distribuyendo contenido falso”, especifica Megías.

DISSIMILAR también empleará técnicas de análisis forense de contenidos digitales. El objetivo es utilizar la tecnología de procesamiento de señales para detectar distorsiones intrínsecas producidas por los dispositivos y programas que se utilizan al crear o modificar cualquier documento audiovisual. Dichas manipulaciones producen alteraciones, como ruidos del sensor o distorsiones ópticas, que se pueden identificar con modelos de aprendizaje automático.

“La idea es que la combinación de todas estas herramientas mejore los resultados en comparación con el uso de soluciones de un solo tipo”, puntualiza el investigador.