Los ciberdelincuentes recurren al ‘deepfake’ para postularse a puestos de trabajo y perjudicar a las empresas una vez contratados

Esto se traduce en “tener la llave de claves empresariales y documentos personales para luego utilizar a su antojo”, tal y como advierte Panda Security.

Protegerse de las acciones de los ciberdelincuentes es una de las prioridades de las compañías, para evitar pérdidas económicas, de datos y de credibilidad.

Los avances tecnológicos permiten reforzar mejor la infraestructura empresarial. Pero estos avances, como la inteligencia artificial y el aprendizaje automático, también están al alcance de los propios criminales, que ya están aprovechando estas herramientas para lanzar ataques más peligrosos. Esto incluye el robo de identidades.

La irrupción de los deepfakes con las simulaciones virtuales de personas está complicando mucho la situación. Además de utilizar esta táctica para jugar al despiste en campañas de desinformación, ahora los ciberdelincuentes recurren a los deepfakes para ser contratados y así, terminar introduciéndose en la empresa que quieren atacar.

La española Panda Security advierte sobre el creciente uso de la tecnología deepfake en entrevistas para ofertas de trabajo en remoto. A veces se utilizan vídeos y en otras ocasiones, audios, que imitan a terceras personas y dan sensación de realidad.

“Parece inverosímil, pero son casos reales”, señala sobre esta situación Hervé Lambert, Global Consumer Operations Manager de Panda Security.

“Esta gran apuesta por fomentar el trabajo en remoto ha hecho que los hackers encuentren nuevas formas de cometer ciberdelitos. En este caso no es que quieran el trabajo como tal”, explica, “sino que una vez a través del deepfake han conseguido el puesto, ya están dentro de la empresa. Lo que se traduce en tener la llave de claves empresariales y documentos personales para luego utilizar a su antojo”.

Esto “normalmente acaba en forma de chantaje para sacar algo de rédito económico de ello”, apunta Lambert.

Este experto recomienda “implementar estrategias y métodos de protección efectivos, porque el uso de los deepfake puede traducirse en delitos graves”, llegando “hasta la manipulación de pruebas en procesos penales y la producción de pornografía no consentida”.