La Inteligencia Artificial utilizada para la contratación laboral muestra sesgos raciales con resultados preocupantes

Dibenedetto, Chase. «AI Shows Clear Racial Bias When Used for Job Recruiting, New Tests Reveal». Mashable SEA | Latest Entertainment & Trending, 8 de marzo de 2024. https://sea.mashable.com/tech/31577/ai-shows-clear-racial-bias-when-used-for-job-recruiting-new-tests-reveal.


El uso de inteligencia artificial (IA) en la contratación laboral ha sido objeto de preocupación debido a los sesgos raciales evidentes que muestra, como revelan nuevas pruebas.

Un experimento reciente realizado por Bloomberg pone de manifiesto que la tecnología de IA, específicamente GPT-3.5, exhibe sesgos raciales en la contratación laboral. El método del estudio consistió en asignar sistemáticamente nombres asociados con grupos raciales y étnicos específicos a currículums de igual calificación. La tarea de la IA era clasificar estos currículums para varias vacantes laborales.

Los resultados son preocupantes: GPT-3.5 mostró una clara preferencia por nombres de ciertos grupos demográficos, incumpliendo los estándares habituales en cuanto a discriminación laboral. Se destacan dos preocupaciones principales: la tendencia de la IA a estereotipar nombres femeninos en roles tradicionalmente dominados por mujeres, y su inclinación a elegir candidatas negras un 36% menos para posiciones técnicas.

Ante estos hallazgos, OpenAI afirmó que estos resultados no reflejan el uso típico de su software por parte de sus clientes, muchos de los cuales refinan las respuestas para reducir el sesgo. Sin embargo, la investigación, respaldada por las opiniones de más de 30 expertos en diversos campos, subraya los importantes problemas éticos de depender en gran medida de la IA sin abordar sus sesgos inherentes.