El mercado laboral está lleno de inteligencia artificial, sin importar hacia dónde se mire. Los postulantes la usan para esquivar los sistemas de seguimiento de candidatos (ATS) con la esperanza de que una persona revise sus currículums. Quienes toman decisiones de contratación también recurren a esta tecnología para analizar los cientos —y, en algunos casos, miles— de solicitudes que reciben por cada vacante. Y los estafadores no se quedan atrás: también aprovechan esta herramienta.
Tofu, una startup con sede en Toronto, busca ponerle un freno a esta situación. Usa inteligencia artificial para verificar la identidad de los postulantes a partir de los metadatos de sus perfiles públicos en redes sociales. La empresa, que tiene dos años, dejó de ser una bolsa de talentos en septiembre y empezó a utilizar aprendizaje automático para analizar la antigüedad de las cuentas, la actividad en publicaciones y "me gusta", e incluso la cantidad de contactos en LinkedIn.
A mediados de diciembre, Tofu anunció que sumará su sistema de detección de fraude en postulantes a Gem, una plataforma de contratación que combina sistemas ATS e inteligencia artificial para ayudar a las empresas durante todo el proceso de búsqueda, selección y contratación. También comunicó el cierre de su ronda inicial de financiación, por US$ 5 millones, liderada por Slow Ventures. El capital les servirá para ampliar tanto su equipo como su base de clientes.
"El área de recursos humanos siempre estuvo liderada por las personas", dijo Jason Zoltak, cofundador y director ejecutivo de Tofu. "Estamos muy comprometidos con el desarrollo de la identidad corporativa", agregó.

"Hay muchísimo talento excelente en el mercado", sostuvo Steve Bartel, cofundador y director ejecutivo de Gem, "pero la realidad es que, si bien el volumen de solicitudes aumentó considerablemente, eso no se tradujo necesariamente en calidad". Entre esas solicitudes hay personas calificadas que fueron despedidas, pero también bots generados con inteligencia artificial.
Crear un perfil laboral falso nunca fue tan rápido ni tan fácil. En apenas 70 minutos, un usuario sin experiencia en IA puede armar una identidad falsa y hacerse pasar por una persona real durante una entrevista con un reclutador o alguien a cargo de la contratación. Para 2028, la firma de investigación y asesoría Gartner estima que el 25 % de quienes se postulen a un empleo no serán personas reales, impulsado por el avance de los deepfakes y los clones de voz.
"Entender quién es real y quién es falso es algo muy importante", afirmó Sam Lessin, socio general de Slow Ventures e inversor principal en la ronda inicial de capital de Tofu.
Está creciendo una industria dedicada a detectar fraudes, con empresas como Tofu a la cabeza. Plataformas de verificación de antecedentes como Checkr, Certn y First Advantage ya usan inteligencia artificial para identificar estafadores, desde señales de identidades falsas hasta pruebas de drogas adulteradas. Greenhouse, una de las plataformas más utilizadas por compañías tecnológicas, aplica IA para filtrar postulantes que son spam o bots. Por su parte, los agentes de IA de Workday asisten a los equipos de recursos humanos con tareas administrativas. (Una demanda contra la empresa sostiene que el sistema que usa para filtrar candidatos discrimina a personas mayores de 40 años).
Pero Tofu es de las pocas que analizan metadatos públicos en redes sociales —como la antigüedad del perfil, la actividad o la cantidad de contactos— para lograrlo. Su software revisa cuentas en plataformas como Instagram, TikTok, Foursquare y hasta MySpace, con el objetivo de confirmar que quien se postula es realmente quien dice ser. A las empresas les entrega un informe con una lista de perfiles que probablemente sean falsos. Un candidato falso típico, explicó Zoltak a Forbes a comienzos de este año, podría tener una cuenta de LinkedIn con unos cuatro meses de antigüedad y apenas dos o tres contactos.
Para Micah Rosenbloom, inversor en Founder Collective, el sistema se parece mucho a los mecanismos tradicionales de verificación de identidad que aplican las empresas reguladas. "Es como KYC, pero la 'C' significa candidatos", explicó.

Hay distintos tipos de fraude que preocupan a reclutadores, gerentes de contratación y responsables de estrategia de personal, según Steve Bartel, cofundador de Gem, y Jason Zoltak, de Tofu. En su versión más leve, postulantes desesperados recurren a software de inteligencia artificial para inscribirse de manera masiva en búsquedas laborales, adaptando sus currículums a las descripciones de cada puesto. Aunque la intención suele ser legítima —lograr que una persona revise su perfil antes de llegar a una oferta formal—, estas herramientas muchas veces distorsionan la experiencia laboral real del candidato.
Pero también hay prácticas más graves. Algunas personas hacen polyworking: trabajan en secreto en varios empleos de tiempo completo al mismo tiempo. Otras directamente roban perfiles activos de LinkedIn —sin foto ni historial claro— para postularse, y luego se presentan a entrevistas, ya sea presenciales o por videollamada, haciéndose pasar por esas personas. En los casos más peligrosos, los postulantes creados con IA pueden ser actores maliciosos que intentan robar información de clientes o secretos comerciales.
El Departamento de Justicia de EE.UU. ya acusó a varios empleados que ayudaron a trabajadores de IT norcoreanos a "trabajar" en remoto, para luego usar esos sueldos con el objetivo de financiar al ejército de su país.
*Con información de Forbes US.