La semana pasada, el organismo de control de datos del Reino Unido reveló sus planes para investigar si el uso de la IA en la contratación da lugar a problemas de parcialidad.

La Oficina del Comisionado de Información (ICO) dijo que llevaría a cabo la investigación tras las acusaciones de que el software de contratación automatizado estaba discriminando a los grupos minoritarios al descartarlos del proceso de contratación.

El comisario de información del Reino Unido, John Edwards, estudiará el impacto que las herramientas de IA para la selección de candidatos a un puesto de trabajo podrían tener «en grupos de personas que podrían no haber participado en el desarrollo de la herramienta, como personas neurodiversas o pertenecientes a minorías étnicas».

Las empresas y los reclutadores pueden utilizar la IA para facilitar el proceso de contratación. Sin embargo, desde hace tiempo existe la preocupación de que algunas personas puedan ser ignoradas debido a los sesgos incorporados en esta tecnología.

En 2018, se reveló que Amazon tuvo que desechar su herramienta de contratación de IA due to allegations that it was discriminating against candidates based on their gender.

La herramienta de contratación califica a los posibles candidatos con cinco estrellas, de forma similar a como se califican los productos de Amazon. Sin embargo, debido en parte a la falta de mujeres en la industria tecnológica, el desarrollo de la herramienta se basó principalmente en las solicitudes de empleo de los hombres. Por lo tanto, se entrenó para preferir a los candidatos masculinos, y penalizó las solicitudes con palabras como «mujer» y «mujeres».

Amazon mantuvo que la herramienta no se utilizaba para contratar para puestos de trabajo en la empresa, pero admitió que los reclutadores miraban sus recomendaciones. Finalmente, la empresa se deshizo de la herramienta.

Según Natalie Cramp, directora general de la consultora de ciencia de datos Profusion, la forma de evitar este tipo de descuidos es aumentar la comprensión pública de las causas fundamentales de los sesgos.

«Lo que hay que hacer es comprender mejor cómo los datos que se utilizan para los algoritmos pueden ser en sí mismos sesgados y el peligro de que los algoritmos mal diseñados magnifiquen estos sesgos. En última instancia, un algoritmo es una visión subjetiva en código, no objetiva».

Necesitamos que la gente tenga una comprensión más fundamental de la IA. Principalmente, no es infalible: sus resultados son tan buenos como los datos que utiliza y las personas que los crean».
– NATALIE CRAMP

Cramp acogió con satisfacción la decisión del ICO de investigar los algoritmos potencialmente discriminatorios, y la calificó de «bienvenida y tardía».

Dijo que las organizaciones necesitan más formación y educación para verificar los datos que utilizan y cuestionar los resultados de cualquier algoritmo. «Debería haber directrices de buenas prácticas en todo el sector que garanticen que la supervisión humana sigue siendo un componente clave de la IA. Debería haber una transparencia absoluta en el uso de los algoritmos».

También recomendó que las empresas mantuvieran la diversidad de sus equipos y no «confiaran en un solo equipo o individuo para crear y gestionar estos algoritmos».

«Si los científicos de datos que crean estos algoritmos y supervisan los datos que se utilizan provienen de formaciones y experiencias más diversas, es mucho más probable que puedan identificar los sesgos en la fase de diseño.»

Hay investigadores que estudian cómo podría aprovecharse la IA para una contratación sin prejuicios. Kolawole Adebayo, investigador del centro Adapt para contenidos digitales de la Fundación Científica de Irlanda, está estudiando eliminar los prejuicios a través de diferentes flujos de trabajo de RRHH utilizando técnicas de procesamiento del lenguaje natural.

Su proyecto pretende implantar modelos de IA capaces de comprender el contenido de los documentos de RRHH para extraer y eliminar la información que puede dar lugar a sesgos inconscientes y discriminación en las fases de atracción y selección de personal.

A principios de este año, Adebayo dijo que el proyecto aprovechará la IA para evaluar la idoneidad de un candidato en función de sus habilidades. «El sesgo en la contratación puede llevar a una discriminación indebida de los candidatos de calidad de los grupos desfavorecidos o minoritarios, como las mujeres, las personas de color y los de la comunidad LGBTIQ», advirtió.

Según Cramp, la investigación del ICO por sí sola no abordará los problemas sociales que conducen a prácticas de contratación desiguales, y no se puede culpar a la tecnología.

«Necesitamos que la gente tenga una comprensión más fundamental de la IA. Principalmente, no es infalible: sus resultados son tan buenos como los datos que utiliza y las personas que los crean», dijo.

«Las salvaguardias obligatorias, las normas de diseño, la supervisión humana y el derecho a cuestionar e interrogar los resultados son esenciales para el futuro de la IA. Sin esta red de seguridad, la gente perderá rápidamente la confianza en la IA y con ello se irá el enorme potencial que tiene para revolucionar y mejorar todas nuestras vidas.»

10 cosas que necesitas saber directamente en tu bandeja de entrada cada día de la semana. Inscríbase en el Resumen diario El resumen de Silicon Republic de las noticias esenciales de ciencia y tecnología.