El uso de identidades falsas mediante deepfakes en tiempo real durante entrevistas laborales es ya una realidad en aumento. Así lo alerta una nueva investigación de Unit 42, la unidad de ciberinteligencia de Palo Alto Networks, el líder global en ciberseguridad, que demuestra lo fácil que resulta hoy crear una identidad falsa y convincente con inteligencia artificial. Una técnica que, además, está siendo utilizada por trabajadores TI vinculados al régimen de Corea del Norte en campañas de infiltración remota en empresas internacionales.
En su experimento, un analista de Unit 42 sin experiencia en manipulación de imágenes y con conocimientos limitados sobre tecnología deepfake generó una identidad sintética funcional en apenas 70 minutos, utilizando imágenes generadas por IA a través de plataformas como thispersondoesnotexist.org, un software gratuito y un ordenador doméstico. El informe demuestra que el mayor reto no fue la creación del rostro, sino configurar una cámara virtual para simular una videollamada en tiempo real.
Imagen 1. Deepfake funcional creado en 70 minutos con herramientas gratuitas y sin experiencia previa
En la misma investigación, los expertos de Unit 42 replicaron el proceso utilizando un equipo más potente y técnicas más avanzadas, lo que permitió generar un deepfake de mayor calidad y realismo.
Imagen 2. Versión mejorada del deepfake, generada con mayor resolución y potencia de procesamiento.
No obstante, la amenaza no se limita al laboratorio. El informe recoge casos reales, como el de una empresa tecnológica en Polonia que detectó similitudes entre dos candidatos distintos y sospechó que se trataba de la misma persona operando con identidades separadas, o entrevistas en las que los candidatos mostraban vídeos sintéticos, utilizando fondos virtuales idénticos entre distintos perfiles.
Imagen 3. Comparativa de dos entrevistados mediante deepfake, mostrados en paralelo. Fuente: Daniel Grek Sánchez Castellanos y Bettina Liporazzi
A lo largo del informe, Unit 42 conecta estos hallazgos con las tácticas, técnicas y procedimientos (TTPs) previamente atribuidos a los trabajadores TI de Corea del Norte. Ya en 2023, el equipo documentó cómo estos operativos creaban perfiles sintéticos respaldados por datos personales robados, lo que dificultaba su detección en procesos de verificación tradicionales.
Cómo detectar una identidad sintética
A pesar de su creciente sofisticación, las técnicas de deepfake en tiempo real aún presentan limitaciones que pueden servir como señales de alerta. La investigación de Unit 42 identifica varios recursos útiles durante una entrevista en vídeo: pedir al candidato que mueva la cabeza bruscamente, pase la mano por delante del rostro o realice expresiones faciales marcadas puede generar errores visuales detectables.
También se han observado desajustes más sutiles, como desfases entre el audio y el movimiento de los labios, problemas de iluminación en los bordes del rostro o fallos al superponer elementos como gafas o manos.
El informe propone una respuesta coordinada entre los departamentos de Recursos Humanos y Ciberseguridad para reducir los riesgos asociados a estas suplantaciones:
El informe completo está disponible en el blog de Unit 42 de Palo Alto Networks, donde se incluyen vídeos demostrativos del proceso de creación de deepfakes, así como ejemplos visuales de identidades sintéticas y manipulaciones faciales.