A fondo: Los ‘deepfakes’ van más allá del entretenimiento. Y ya son peligrosos

CiberguerraCiberpoderInnovaciónMarketingRegulaciónSeguridadSocial Media

En los últimos años estamos asistiendo al ‘boom’ de los deepfakes, montajes de vídeo en los que se cambia la cara del protagonista. ¿Cuáles suelen ser sus objetivos? ¿Cómo podemos neutralizarlos?

El término deepfake procede de la unión de ‘deep learning’, una de las ramas de la inteligencia artificial, y ‘fake’, ya que se trata de contenidos falsos. Se denominan así porque se valen de la tecnología deep learning para manipular de manera realista tanto vídeos como clips de audio.

“Los deepfakes son la continuación avanzada de los montajes de imágenes, fotos, vídeos y audios que se han utilizado desde tiempos ancestrales para engañar o hacer creer algo a la gente con un objetivo determinado”, declara Octavio Rojas, profesor de ESIC en Publicidad y Relaciones Públicas.

Estos vídeos falsos pueden tener diferentes propósitos. “Los objetivos de los deepfakes pueden ser muy variados: manipulación política, dañar la imagen de una marca o de una persona, intenciones humorísticas, artísticos, etc.”, comenta Isaac Moriel, politólogo experto en gestión de la información.

Hay vídeos que sólo buscan entretenimiento. “Hay de todo un poco, tanto usuarios que lo hacen por el simple hecho de que les resulta divertido hasta empresas que lo monetizan a través de la viralidad”, detalla Moriel. Por ejemplo, un montaje con los principales líderes de los partidos políticos españoles como personajes de la serie ‘Equipo A’ ha tenido gran difusión en los últimos días.

David Varona, profesor del departamento de Comunicación y Educación de la Universidad Loyola, también recuerda que el programa ‘El intermedio’, de laSexta, utiliza esta técnica para simular entrevistas o conversaciones falsas con personajes políticos como Donald Trump o Esperanza Aguirre. “No pasa de ser una parodia en un estadio más avanzado de lo que se ha hecho en otros momentos”, anota.

También podría tener aplicaciones en la industria cinematográfica o en televisión, para sustituir a actores o presentadores. “En la película ‘Rogue One’ de la saga Star Wars, el rostro de la princesa Leia está desarrollado a partir de la cara de la actriz Carrie Fisher cuando era joven y superpuesto a la actriz actual. En el episodio VII, ‘El último Jedí’, también se usa esta tecnología para recrear el personaje de la princesa Leia”, detalla Moriel.

Varona indica que, gracias a esta tecnología, la industria cinematográfica “puede utilizar a actores ya muertos; inventar actores que no existan, con el consiguiente ahorro en caché; o jugar con estos efectos dentro del propio guión”.

Algunos de los deepfakes que más repercusión tienen son los que buscan desinformar respecto a políticos, marcas o productos, aunque su porcentaje es mínimo. “Recientemente, se han usado abundantemente en política, para hacer que políticos digan cosas que no han dicho o aparezcan bebidos o incluso enfermos”, comenta David Alandete, conferenciante de Thinking Heads, corresponsal en Estados Unidos del diario ABC y autor del libro ‘Fake news: La nueva arma de destrucción masiva’. Por ejemplo, tuvo gran difusión un vídeo en el que se veía a Barack Obama insultando a Donald Trump, empleando la voz de un actor. Dicho vídeo trataba de mostrar el potencial manipular de los deepfakes.

Asimismo, Moriel se refiere a un vídeo desarrollado por una agencia de publicidad en el que aparecía Mark Zuckerberg haciendo afirmaciones que realmente no había pronunciado y donde se insinuaba que tenía el control de datos robados a millones de personas. “Este caso, da la impresión de que se buscaba obtener notoriedad para la agencia, con la excusa de visibilizar el potencial problema de los deepfakes”, explica.

Sin embargo, Alandete cree que “ese no es su uso más pernicioso, ya que los políticos suelen tener grandes equipos de comunicación que pueden desmentirlo”. Además, Moriel indica que “los bulos o noticias falsas menos elaboradas son muy efectivos y no requieren tanta complejidad ni tantos recursos”.

Alandete opina que “los vídeos falsos son más peligrosos cuando se usan para extorsionar a ciudadanos de a pie, manipulando imágenes suyas y pidiéndoles dinero a cambio de no distribuirlos a sus amigos y familiares”.

En cualquier caso, la triste realidad es que la mayoría de los deepfakes son simple pornografía. “Son vídeos a los que cambian las caras por los rostros de personas famosas o de exparejas. En el caso de las famosas, suele tratarse de trabajos bien hechos, que se distribuyen a través de páginas web que cobran por descargarlos”, detalla Moriel. Por ejemplo, Gal Gadot, Cara Delevigne y Katy Perry, entre otras, han sido víctimas de deepfakes de contenido pornográfico. Según indica Varona, se estima que el 95% de los deepfakes son pornográficos. “El objetivo está claro: monetizar”, recalca.

Un negocio suculento

Uno de los motivos que impulsa los deepfakes es que ofrecen un negocio muy interesante. Paula Herrero, periodista y profesora del departamento de Comunicación y Educación de la Universidad Loyola, cita los resultados de un estudio realizado por la empresa holandesa Deeptrace sobre el impacto de las deepfakes. “Revela que en los dos últimos años se ha incrementado exponencialmente el número de afectados por estos contenidos en un 100%. En su mayoría implican a mujeres y son de contenido pornográfico. El informe afirma que las principales páginas web que alojan estos contenidos -porno fake- superan los 134 millones de visualizaciones”, especifica.

En el caso de los contenidos pornográficos, el lucro es evidente. Pero también hay otras formas de explotar económicamente esta tecnología. “En general, el negocio del engaño es claramente lucrativo. Pensemos en las empresas de comunicación que han nacido al albur de la mentira y que viven de orquestar campañas de desinformación y diseñar estrategias de propaganda que pretenden confundir y desestabilizar a los ciudadanos”, comenta Herrero.

Tampoco podemos olvidarnos del negocio en torno a los datos y la información que ceden los usuarios de apps y webs. “En China, la app para móviles Zao ganó popularidad viral debido a sus sorprendentes resultados de deepfakes a partir de una única imagen estática que subían los usuarios. Esta aplicación generó controversia por sus draconianos términos de uso y el miedo a que pudiera obtener millones de rostros gratuitamente para objetivos no declarados de control social, tal como ocurrió con FaceApp. También hay aplicaciones a bajo costo para hacer tu propio vídeo deepfake y aplicaciones gratuitas de inteligencia artificial que permiten crear fotos de perfil de personas que no existen, que se utilizan para crear perfiles falsos con objetivos diversos”, advierte Rojas.

“Parece que nos encontramos ante un modelo de negocio que imita al fast food. Es decir, consumimos formatos, aplicaciones y tecnologías pasajeras, la mayor parte de las veces efímeras, de manera frenética y por un precio tan asequible que el aval son nuestros datos o la cesión de los derechos de nuestras imágenes más íntimas”, lamenta Herrero.

¿Cómo evitar los engaños?

Varona afirma que “si el vídeo falso reproduce el mismo texto -diálogo- que el original, es muy difícil distinguirlo, porque la transformación de los rostros es casi perfecta”. Sin embargo, señala que “en los vídeos en que se hace a una persona decir algo que no ha dicho, es más fácil, porque la inteligencia artificial todavía no es tan perfecta como para que no se aprecien anomalías en el movimiento de los labios, que es el punto más crítico”. No obstante, asegura que “para un ojo poco entrenado y para una persona que recibe un vídeo de este tipo con la guardia baja, es fácil creer que el contenido es real”.

Además, Rojas explica que “la tecnología pública actual aún es un poco tosca y no soportaría un zoom, porque no tendría los pliegues o las arrugas del rostro real, de tal forma que en los deepfakes actuales se difumina todo el rostro y se pone el sujeto a una cierta distancia para reducir las posibilidades de ser detectado”. Aunque también reconoce que ya hay programas privados que han avanzado o resuelto esos problemas “y que se están utilizando en la actualidad sin que lo sepa el gran público”, por lo que “será cuestión de poco tiempo que se pueda utilizar de manera masiva con todo tipo de objetivos, tanto buenos como preocupantemente malos”.

Moriel también apunta que “existen algunos indicios que nos deben hacer dudar cuando vemos un video”, como la frecuencia de parpadeo de los ojos, los movimientos de la boca -si son naturales y están sincronizados con el sonido-, la tonalidad o la iluminación en el pelo, “ya que es complicado lograr que tenga una textura natural”. Pero reconoce que “es complicado, y cada vez lo va a ser más”.

De este modo, cree que “la mejor forma de combatirlos es con el sentido común y la educación”. “Hay que suprimir ese instinto de compartir las cosas sin contrastar antes. Disponemos de más fuentes de información que antes en toda la historia. Nunca ha sido tan barato contrastarla. Cuando se recibe una información que resulta demasiado insólita o inverosímil, debería pensarse si realmente la fuente que la ha remitido es fiable. Y en caso de dudas, recurrir a fuentes fiables para comprobar la veracidad de dicha información”, añade.

Igualmente, Varona aconseja dudar de los contenidos que nos parezcan sospechosos. “Si se ve un vídeo en el que alguien dice algo extraño, conviene plantearse que puede estar trucado”, comenta. El efecto perverso de estos deepfakes es que pueden hacer que acabemos dudando incluso de los contenidos reales. De este modo, una información verídica puede no ser creída. Por ejemplo, esa es la estrategia que sigue Donald Trump, tildando de fake news todas las informaciones que lo incriminan.

Tecnología para combatirlos

A la par que mejora la tecnología para crear deepfakes, también empiezan a aparecer herramientas para detectarlos. “Tenemos el análisis inverso de vídeos, que utiliza una tecnología desarrollada en su día por Google para localizar los patrones matemáticos que definen una imagen. Aplicado a vídeos, permite detectar si las imágenes han sido utilizadas antes y detectar así un uso fraudulento”, precisa Varona. Se puede probar en páginas como la habilitada por Amnistía Internacional.

También se refiere a herramientas como InVID -extensión de navegación especializada en analizar los vídeos-, la aplicación Frame to Frame -que analiza cada imagen de los vídeos de YouTube y es capaz de localizar manipulaciones- o Montage.

Además, Google anunció en septiembre su colaboración en el benchmark FaceForensics, aportando miles de deepfakes realizados por la compañía, con el fin de apoyar la investigación para el desarrollo de herramientas de detección. Y Google News ha incluido una serie de herramientas para enseñar a los internautas a verificar contenidos.

Rojas también señala que “en Estados Unidos hay soluciones como Truepic, que están ayudando a diferentes sectores e instituciones a distinguir imágenes verdaderas de montajes”. Y recalca que tanto la Interpol como Facebook, Google o Amazon cuentan con herramientas de reconocimiento facial y de imágenes, por lo que cree que éstas se podrían extender a los deepfakes. “Se podría ajustar la tecnología para que todas las imágenes y los vídeos que se suban a una red social o se indexen en una plataforma web pasen filtros de veracidad, tanto de audio como de vídeo y fotos estáticas, pero sería un gran desembolso económico y una alteración de los procesos que las firmas tecnológicas no parece que querrían asumir”, declara.

Sin embargo, neutralizar los deepfakes no es tan fácil. “Creo que los medios técnicos tienen importantes limitaciones para esta batalla. Hay que tener en cuenta que es muy complicado para un sistema de inteligencia artificial distinguir la sátira o la ficción de una noticia falsa. Además, la tecnología va a hacer más accesible y más realista cada vez este tipo de contenidos”, anota Moriel.

De este modo, la mejor manera de frenarlos es mediante la intervención humana.  Herrero afirma que las redes sociales “están tomando medidas” para detectar los deepfakes. Por ejemplo, señala que “YouTube cuenta con más de 10.000 expertos para vigilar los vídeos de su plataforma”. Igualmente, indica que la red social Tik Tok “acaba de anunciar el refuerzo de su plantilla con moderadores ante las acusaciones de haber permitido alojar vídeos del Estado Islámico con propaganda terrorista entre emoticonos de corazones y canciones que triunfan entre estos usuarios”.

Asimismo, puntualiza que Facebook, propietario de Instagram, “comenzó el pasado verano a permitir denunciar contenidos para que el Consorcio Internacional de Fact Checkers (IFCN) los verificara”. Además, en la sección ‘Ayuda para editores y medios’ de Facebook podemos ver la lista de verificación que utilizan los expertos para decidir si un contenido es falso o no lo es.

Por otro lado, Moriel incide en la responsabilidad de quienes difunden este tipo de contenidos falsos. “Los medios de comunicación se supone que cuentan con periodistas, que deben verificar las informaciones que reciben contrastándolas con fuentes fiables. Me parece increíble que, a estas alturas, todavía existan medios que transmiten noticias falsas. No sé si pensar que sólo se preocupan en obtener visitas, si simplemente es falta de profesionalidad por indolencia o si hay voluntad de manipular. Y no sé cuál de los cuál de los tres casos me parecería más grave”, comenta.

Lea también :
  • AFondo
  • Deep Learning
  • IA
  • Reportajes
Leer la biografía del autor  Ocultar la biografía del autor