Los deepfakes requieren una cultura de desconfianza y pensamiento crítico

Gestión de la seguridadInteligencia ArtificialSeguridad

James Tucker, responsable internacional de CISOs en Zscaler, explica en esta tribuna cómo los deepfakes representan una amenaza creciente de fraude y desinformación, y por qué es necesario fomentar el pensamiento crítico.

Los deepfakes basados en inteligencia artificial (IA) han demostrado ser una herramienta de engaño eficaz en el último año, evolucionando desde el spoofing de correos electrónicos rudimentarios hasta técnicas de phishing altamente sofisticadas que utilizan audio y vídeo manipulados. Los orígenes de los deepfakes se remontan a las vulnerabilidades inherentes de la tecnología de correo electrónico, como la falta de mecanismos sólidos para verificar la identidad del remitente. Este problema ha allanado el camino para que los atacantes exploten nuevas tecnologías, como la IA, combinándolas con tácticas tradicionales de ingeniería social para llevar a cabo ataques cada vez más peligrosos.

Los deepfakes vienen en dos formatos principales: estafas de audio y vídeo. Mientras que la manipulación de audio existe desde hace más de una década, evolucionando recientemente hacia llamadas telefónicas falsas, los vídeos falsos y deepfakes generados por IA, creados a partir de fragmentos de vídeo disponibles públicamente, se han vuelto mucho más destacados. Un problema clave es que generar mensajes artificiales es fácilmente accesible para las personas, independientemente del nivel de conocimientos técnicos, gracias a herramientas de IA que realizan gran parte del trabajo. Esta democratización de la tecnología de deepfake representa una seria amenaza, ya que las herramientas para crear falsificaciones convincentes están ahora en manos de personas que podrían no comprender plenamente las implicaciones éticas de su uso.

El potencial de daño de los deepfakes

Las consecuencias de los deepfakes van más allá de la desinformación o de engañar a personas para que realicen pagos. Estos ataques minan la confianza en contextos personales y profesionales, base de la interacción humana. Cuando la realidad y la ficción se confunden, el tejido social se desmorona. Por ejemplo, un gerente que usa IA para crear un informe en vídeo, aunque basado en datos reales, puede generar incomodidad al socavar la autenticidad de la comunicación.

La pérdida de confianza no se limita a casos inofensivos. Los deepfakes pueden causar graves daños reputacionales, como imágenes manipuladas o contenido explícito no consensuado, que ya han generado disputas legales e indignación social. Su rápida difusión en redes amplifica el impacto, fomentando una cultura de miedo e incertidumbre.

El impacto psicológico

Los deepfakes pueden tener graves consecuencias psicológicas para la sociedad y los individuos. La difusión de contenido pornográfico falso, por ejemplo, atenta contra la dignidad y privacidad de las personas, dejando cicatrices emocionales duraderas. El contenido político manipulado genera desconfianza hacia figuras públicas e instituciones, socavando los procesos democráticos y desencadenando una crisis social de confianza: si las palabras de un político pueden falsificarse, ¿en quién se puede confiar? ¿Cómo podemos detectar o probar que algo es falso?

La generación más joven está particularmente en riesgo. A medida que sus vidas están cada vez más controladas por pantallas y hábitos de redes sociales, este grupo objetivo puede enfrentar problemas con la autenticidad y la confianza. En un mundo donde la realidad puede distorsionarse fácilmente, el riesgo de aislamiento social y problemas de salud mental aumenta alarmantemente.

¿Cómo combatir los deepfakes?

En respuesta a la creciente presencia de los deepfakes, se están realizando esfuerzos significativos para usar la IA no solo en su creación, sino también en la detección de contenido creado artificialmente. En los próximos años, es probable que aumente el número de empresas que desarrollen tecnologías de IA específicamente diseñadas para detectar deepfakes. Además, se esperan medidas regulatorias, particularmente dentro de la Unión Europea, que establezcan estándares y salvaguardias contra el uso malicioso de esta tecnología.

Las marcas de agua digitales son una posible herramienta para autenticar contenido, pero solo representan el inicio de un enfoque más amplio. Es necesario un sistema multifacético que combine la verificación mediante IA con identificadores personales, como palabras clave únicas, similar a la autenticación de doble factor usada para proteger contraseñas. Mientras estas tecnologías maduran, la educación es clave: enseñar a reconocer deepfakes debe ser parte esencial de programas académicos y profesionales para preparar mejor a la sociedad ante este desafío.

¿Qué nos depara el futuro?

El próximo año, la proliferación de deepfakes probablemente generará más confusión y desconfianza. A medida que la sociedad enfrente estos desafíos, las discusiones sobre regulación y protección serán más importantes. A largo plazo, es probable que las personas usen herramientas de IA para detectar deepfakes en dispositivos personales, fomentando una cultura de precaución y pensamiento crítico, especialmente antes de compartir contenido en redes sociales. A medida que la tecnología evoluciona, también debe hacerlo la respuesta de la sociedad. Combatir los deepfakes requiere vigilancia e innovación, ya que las consecuencias de la inacción son graves. La confianza, una vez perdida, es difícil de recuperar, y el principio de zero trust ya ha demostrado su eficacia para restablecer la confianza en las interacciones digitales.

Autor
Saber más 
Saber más 

Últimos Whitepapers