Empleo

¡Alerta!. Las entrevistas laborales están siendo saboteadas por deepfakes: Descubre cómo protegerte

Versión mejorada del deepfake, generada con mayor resolución y potencia de procesamiento
Redacción | Lunes 28 de abril de 2025
El uso de identidades falsas mediante deepfakes en entrevistas laborales es un problema creciente, según un informe de Unit 42. La creación de estas identidades sintéticas es fácil y rápida, incluso para principiantes. Se recomienda a las empresas implementar medidas de verificación y capacitación para detectar posibles suplantaciones durante el proceso de selección.

El aumento en el uso de identidades falsas mediante deepfakes en tiempo real durante las entrevistas laborales se ha convertido en una realidad preocupante. Esta situación es señalada por una nueva investigación de Unit 42, la unidad de ciberinteligencia de Palo Alto Networks, líder mundial en ciberseguridad, que evidencia lo sencillo que resulta crear una identidad falsa y creíble utilizando inteligencia artificial. Además, esta técnica está siendo empleada por trabajadores del sector TI asociados con el régimen de Corea del Norte en campañas de infiltración remota en empresas internacionales.

En un experimento llevado a cabo por un analista de Unit 42, quien no contaba con experiencia en manipulación de imágenes y tenía conocimientos limitados sobre la tecnología deepfake, se logró generar una identidad sintética funcional en tan solo 70 minutos. Para ello, utilizó imágenes generadas por IA a través de plataformas como thispersondoesnotexist.org, un software gratuito y un ordenador doméstico. El informe revela que el mayor desafío no fue la creación del rostro, sino la configuración de una cámara virtual para simular una videollamada en tiempo real.

Los expertos de Unit 42 replicaron el proceso utilizando un equipo más avanzado y técnicas superiores, lo que resultó en la generación de un deepfake con mayor calidad y realismo. Sin embargo, la amenaza va más allá del laboratorio. El informe documenta casos reales, como el de una empresa tecnológica en Polonia, que notó similitudes entre dos candidatos diferentes y sospechó que eran la misma persona operando bajo identidades distintas. También se mencionan entrevistas donde los candidatos presentaron vídeos sintéticos, utilizando fondos virtuales idénticos entre varios perfiles.

A lo largo del informe, Unit 42 relaciona estos hallazgos con las tácticas, técnicas y procedimientos (TTPs) previamente atribuidos a los trabajadores TI de Corea del Norte. En 2023, el equipo ya había documentado cómo estos operativos elaboraban perfiles sintéticos respaldados por datos personales robados, complicando su detección en procesos tradicionales de verificación.

Cómo detectar una identidad sintética: A pesar del avance en sofisticación, las técnicas de deepfake en tiempo real aún presentan limitaciones que pueden servir como indicadores. La investigación realizada por Unit 42 señala varios recursos útiles durante una entrevista por vídeo: solicitar al candidato que mueva la cabeza bruscamente, pase la mano frente al rostro o realice expresiones faciales marcadas puede provocar errores visuales detectables. También se han identificado desajustes más sutiles, como desfases entre el audio y el movimiento labial, problemas de iluminación alrededor del rostro o fallos al superponer elementos como gafas o manos.

El informe sugiere una respuesta coordinada entre los departamentos de Recursos Humanos y Ciberseguridad para mitigar los riesgos asociados a estas suplantaciones:

    • Solicitar la activación de cámara durante todas las entrevistas (con consentimiento para grabar).
    • Verificar documentos utilizando herramientas adecuadas y exigir pruebas de vida en tiempo real (como mostrar un documento y realizar gestos específicos).
    • Analizar la procedencia de las IPs e identificar el uso de VPNs o cámaras virtuales.
    • Establecer verificaciones adicionales antes de otorgar accesos sensibles.
    • Capacitar a los equipos de selección para reconocer signos de manipulación facial o comportamientos sospechosos.

El informe completo lo teneis en el blog de Unit 42, parte de Palo Alto Networks, donde se incluyen vídeos demostrativos sobre el proceso de creación de deepfakes así como ejemplos visuales relacionados con identidades sintéticas y manipulaciones faciales.

TEMAS RELACIONADOS:


Noticias relacionadas