Desbloquea el Editor’s Digest de forma gratuita
Roula Khalaf, Editora del FT, selecciona sus historias favoritas en este boletín semanal.
Los alarmistas de la inteligencia artificial advierten que el aprendizaje automático terminará destruyendo la humanidad, o al menos hará que los humanos sean redundantes. Pero ¿qué tal si la verdadera preocupación era más mundana, que las herramientas de IA simplemente no hagan un buen trabajo?
Eso es lo que sintió Hilke Schellmann, una reportera y profesora de la Universidad de Nueva York, después de pasar cinco años investigando herramientas que ahora son ampliamente utilizadas por los empleadores en la contratación, despido y gestión. Los bots cada vez dictan qué anuncios de trabajo vemos en línea, qué CVs leen los reclutadores, qué solicitantes llegan a una entrevista final y qué empleados reciben una promoción, bono o aviso de redundancia. Pero en este mundo donde los algoritmos “definen quiénes somos, dónde destacamos y dónde luchamos… ¿qué sucede si los algoritmos se equivocan?” pregunta Schellmann en The Algorithm, un relato de sus hallazgos.
Los reclutadores y gerentes tienen muchas razones para recurrir a la inteligencia artificial: para cribar pilas imposiblemente grandes de CVs y cubrir vacantes más rápido; para ayudarlos a identificar a personas talentosas, incluso cuando provienen de un entorno atípico; para tomar decisiones más justas, eliminando el sesgo humano; o para hacer un seguimiento del rendimiento e identificar al personal problemático.
Herramientas de cribado de CV por posibles sesgos tienen en riesgo filtrar candidatos de ciertos códigos postales, una receta para la discriminación racial.
Pero la experiencia de Schellmann sugiere que muchos de los sistemas en el mercado pueden hacer más daño que bien. Por ejemplo, prueba software de entrevistas en video que la encuentra como un ajuste cercano para un rol, incluso cuando reemplaza sus respuestas originales y plausibles con la frase repetida “Amo el trabajo en equipo” o habla completamente en alemán.
Habla con expertos que han auditado herramientas de cribado de CV en busca de posibles sesgos, y las encontró con la probabilidad de filtrar candidatos de ciertos códigos postales, una receta para la discriminación racial; a favorecer a ciertas nacionalidades; o a considerar que el gusto por actividades dominadas por hombres, como el béisbol, sea un indicador de éxito. También están los casos de alto rendimiento seleccionados para redundancia o automáticamente excluidos de la competencia por puestos para los que estaban calificados, simplemente porque les fue mal en juegos en línea aparentemente irrelevantes utilizados para puntuar a los candidatos.
Después de jugar algunos, Schellmann es escéptica de que los juegos de emparejamiento de alta velocidad o las pruebas de personalidad ayudarán a los reclutadores a identificar a las personas más propensas a fracasar o destacarse en un puesto. Los juegos también serían aún más difíciles para cualquier persona que estuviera distraída por niños, o tuviera una discapacidad que el software no reconociera.
Pero muchos de los problemas que encuentra Schellmann no son intrínsecamente sobre el uso de la IA. Los desarrolladores no pueden diseñar buenos test de contratación si los reclutadores no entienden por qué algunos empleados funcionan mejor que otros. Si un sistema está diseñado principalmente para llenar una vacante rápidamente, no seleccionará al mejor candidato.
Schellmann descubre que, a menos que los desarrolladores intervengan, las plataformas laborales muestran más anuncios a los candidatos (generalmente hombres) que son más agresivos al responder a los reclutadores y solicitar puestos directivos independientemente de la experiencia. Los problemas también surgen porque los gerentes confían ciegamente en herramientas que solo estaban destinadas a informar el juicio humano, a veces bajo la creencia equivocada de que los protegerá de desafíos legales.
El aprendizaje automático puede amplificar los sesgos existentes de maneras difíciles de detectar, incluso cuando los desarrolladores están alerta. Los algoritmos identifican patrones entre personas que lo hicieron bien o mal en el pasado, sin capacidad para entender si las características que observan son significativas. Y cuando los algoritmos se equivocan, a veces a gran escala, puede resultar increíblemente difícil para las personas saber por qué, buscar reparación o incluso encontrar a un humano con quien hablar.
El libro de Schellmann es una advertencia para cualquiera que pensara que la IA eliminaría el sesgo humano en la contratación.
Posiblemente la sección más útil del libro de Schellmann es un apéndice que brinda consejos para buscadores de empleo (utilizar viñetas y evitar los ampersands en tu CV para que sea legible por las máquinas) y para las personas cuyos empleadores los están vigilando (mantener los correos electrónicos positivos). Pero también tiene sugerencias para los reguladores, sobre cómo asegurarse de que las herramientas de IA sean probadas antes de llegar al mercado.
Como mínimo, los legisladores podrían exigir transparencia en los datos utilizados para entrenar los modelos de IA, y reportes técnicos sobre su eficacia, argumenta. Idealmente, las agencias gubernamentales mismas deberían evaluar las herramientas utilizadas en áreas sensibles como política, calificación crediticia o vigilancia en el lugar de trabajo.
En ausencia de dicha reforma, el libro de Schellmann es una advertencia para cualquiera que pensara que la IA eliminaría el sesgo humano en la contratación, y una guía esencial para quienes buscan empleo.
The Algorithm: How AI Can Hijack Your Career and Steal Your Future por Hilke Schellmann Hurst £22/Hachette Books $30, 336 páginas
Únete a nuestro grupo de libros en línea en Facebook en FT Books Café y suscríbete a nuestro podcast Life and Art donde sea que escuches