Los investigadores del centro Adapt de la Fundación Científica de Irlanda afirman que pueden reducir el sesgo de género en la IA del lenguaje natural con más eficacia que los métodos actuales.

Los algoritmos de aprendizaje automático se basan en los datos de entrenamiento que reciben, pero puede haber sesgos humanos en los datos lingüísticos. Estos sesgos pueden alterar el funcionamiento de un modelo de lenguaje natural, lo que hace que se cometan constantemente los mismos errores o suposiciones.

Mitigar el sesgo en el procesamiento del lenguaje natural requiere grandes cantidades de datos de entrenamiento equilibrados en cuanto al género, lo que aumenta el coste y el tiempo de entrega de un modelo.

Sin embargo, un equipo del centro de investigación Adapt para la tecnología de contenidos digitales impulsada por la IA ha aprovechado modelos lingüísticos de aprendizaje profundo preformados para facilitar esta tarea.

Afirman que este nuevo enfoque de investigación acelera la eficacia y, por tanto, podría hacer que el desarrollo de modelos lingüísticos de IA fuera más asequible y llevara menos tiempo.

«Desde la búsqueda de una pareja romántica hasta la consecución del trabajo soñado, la inteligencia artificial desempeña un papel más importante que nunca en la configuración de nuestras vidas», afirma la ingeniera de investigación de Adapt Nishtha Jain, que dirigió la investigación.

«Esta es la razón por la que nosotros, como investigadores, tenemos que garantizar que la tecnología sea más inclusiva desde un punto de vista ético y sociopolítico. Nuestra investigación es un paso en la dirección de hacer que la tecnología de IA sea más inclusiva independientemente del género de cada uno.»

El nuevo enfoque de Adapt para desarrollar esta tecnología está diseñado para funcionar en múltiples idiomas con cambios mínimos en forma de heurística. Para probar esta afirmación, la investigación se ensayó con el español, que tiene una gran cantidad de datos disponibles, y el serbio, que es una lengua con pocos recursos. El equipo afirma haber obtenido resultados positivos.

La investigación se ha realizado en colaboración con Microsoft y el Imperial College de Londres y se presentará en una conferencia de la Asociación Europea de Recursos Lingüísticos a finales de este mes.

Los sesgos en la IA siguen siendo una preocupación a la hora de desarrollar nuevo software. El mes pasado, Google dijo que un análisis preliminar de sutext-to-image system Imagen codifican una serie de «prejuicios sociales y culturales» al generar imágenes de actividades, eventos y objetos.

10 cosas que necesitas saber directamente en tu bandeja de entrada cada día de la semana. Inscríbase en el Resumen diario El resumen de Silicon Republic de las noticias esenciales de ciencia y tecnología.