Deepfakes, currículums generados por IA y perfiles falsos en LinkedIn: así están engañando a empresas para conseguir empleos remotos.
La inteligencia artificial está cambiando la forma en que trabajamos. Pero también está abriendo la puerta a nuevas formas de fraude. En los últimos meses, empresas de todo el mundo han detectado un fenómeno preocupante: personas que no existen están solicitando trabajos remotos usando herramientas de IA para construir perfiles totalmente falsos.
Y no se trata de errores inocentes. Detrás hay redes organizadas que usan esta tecnología para obtener empleos, robar información sensible, instalar malware e incluso, según autoridades estadounidenses, financiar programas nucleares en países como Corea del Norte.
Todo comienza con un perfil que parece legítimo: un currículum bien hecho, una foto profesional, incluso un portafolio en línea. Pero nada es real. Medios como CBS News han documentado casos donde la imagen del candidato es generada por IA, el currículum es inventado, y la entrevista por videollamada se hace con filtros deepfake para simular una identidad falsa.
En uno de los casos más llamativos, la empresa de ciberseguridad Vidoc Security notó que un candidato evitaba mover sus manos frente a la cámara, lo cual levantó sospechas. Luego descubrieron que estaba usando un software que alteraba su rostro en tiempo real.
De acuerdo con la firma de análisis Gartner, se estima que para 2028 uno de cada cuatro candidatos a empleo será falso. Y lo más alarmante: el Departamento de Justicia de los Estados Unidos ha identificado operaciones de hackers norcoreanos que utilizan identidades falsas para conseguir trabajos remotos en empresas estadounidenses.
Algunas compañías han decidido ponerse serias y tomar precauciones: Solicitan entrevistas presenciales o con videollamadas supervisadas, revisan si los perfiles de LinkedIn son nuevos o sin conexiones reales, hacen preguntas culturales o situacionales que un perfil falso difícilmente sabría responder. En casos extremos, cubren viáticos para que los finalistas hagan un día completo de prueba en oficinas. Vidoc Security, por ejemplo, ahora no contrata a nadie sin verlo en persona primero.
Varios medios respaldan estos hallazgos. The Week reportó que las empresas están recibiendo una avalancha de postulaciones falsas con identidades fabricadas por IA. Moneywise advirtió que muchas de estas estafas buscan obtener acceso a datos corporativos. Fortune documentó casos en los que se usaron deepfakes para pasar entrevistas de trabajo. Forbes llamó la atención sobre el riesgo de que incluso los reclutadores puedan ser engañados si no toman medidas.
🚩 Señales de alerta para detectar un candidato falso
- Perfil de LinkedIn muy reciente o sin conexiones reales
- Sitio web personal con poca información verificable
- Entrevistas por video donde el rostro se ve artificial o los gestos no coinciden con el audio
- Respuestas demasiado genéricas o sacadas de un guión
Expertos consultados coinciden en que este tipo de fraude va a seguir creciendo conforme la IA se vuelva más accesible. La tecnología avanza rápido, y muchas empresas todavía no tienen protocolos para detectar estos engaños. [HDSPM]


