Los deep fake, o imágenes que simulan el rostro de personas reales (o su voz) se han convertido en una herramienta que utilizan los ciber delincuentes para acceder a sistemas corporativos lo que ocasiona que las empresas deban desarrollar sistemas de seguridad capaz de hacerles frente.
Y ante el uso de inteligencia artificial y herramientas de aprendizaje profundo (machine learning) se generan archivos de imagen, audio o vídeo haces de suplantar la identidad de personas autorizadas acceder a sistemas quebrantando la seguridad. Esto nos convierte en una herramienta atractiva para los ciber delincuentes al permitirles no solo el acceso a información sensible sino también adoptar la identidad de empleados, ejecutivos o clientes manipulando la comunicación.
Esto puede dar lugar, además de a fraudes y estafas por simulación de personalidad, a extorsiones por la generación de imágenes fraudulentas pero con apariencia de realidad, o incluso servir para generar crisis reputacionales a trabajadores y empresas. Lo más preocupante es que los propios sujetos que resultan afectados por estos vídeos deep fake son quienes proporcionan y el material de base para generarlos debido a la habitual proliferación de imágenes que todo el mundo publica en sus redes sociales.
Para luchar contra la amenaza que suponen estos deep fake puede tomarse algunas precauciones como las siguientes:
Bienvenido a un nuevo episodio del podcast semanal Silicon Pulse, un espacio en el que…
Durante 2023 su equipo de respuesta ante incidentes atendió un 24 % más de casos…
Extreme Labs ya ha dado su primer fruto: Extreme AI Expert, una solución que se…
Anuncia la adquisición de esta compañía por 6.400 millones de dólares coincidiendo con la publicación…
Sus ingresos han crecido un 27 % para acercarse a los 36.500 millones de dólares…
Durante el primer trimestre de 2024 acumuló 1.500 millones de euros, de los que 1.350…