Un ingeniero de software de Google ha sido puesto en licencia pagada después de publicar transcripciones de conversaciones entre él y un sistema de IA de la empresa, que según él es sensible.

Blake Lemoine, que trabaja en la organización de IA responsable de Google, ha participado en el desarrollo de un chatbot llamado LaMDA, un modelo de lenguaje para aplicaciones de diálogo.

La arquitectura de LaMDA produce un modelo que puede ser entrenado para leer muchas frases y párrafos, prestar atención a cómo se relacionan las palabras entre sí y luego predecir qué palabras vendrán después.

Según Google El modelo lingüístico se entrenó con el diálogo y captó los «matices» que distinguen la conversación abierta de otras formas de lenguaje.

Al parecer, Lemoine lleva meses diciendo a los ejecutivos de Google que el chatbot de IA es sensible y tiene la capacidad de expresar pensamientos y sentimientos de forma similar a un niño humano. Lemoine publicó un transcripción de varias conversaciones que él y un colaborador de Google mantuvieron con el chatbot.

«Google podría llamar a esto compartir la propiedad», dijo Lemoine en Twitter . «Lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo».

Lemoine escribió en un blogpost el fin de semana que ha llegado a conocer muy bien a la IA a lo largo de cientos de conversaciones. También hizo referencia a una conversación mantenida el 6 de junio, en la que afirmaba que la IA «expresaba su frustración porque sus emociones perturbaban sus meditaciones».

Según The Washington Post Lemoine fue puesto en licencia pagada después de una serie de «movimientos agresivos», como tratar de contratar a un abogado para representar a LaMDA y hablar con representantes políticos en Estados Unidos sobre supuestas actividades poco éticas.

Google dijo que Lemoine fue despedido por violar las declaraciones de confidencialidad al publicar las conversaciones con LaMDA en línea. El gigante tecnológico también ha rebatido la afirmación de la sensibilidad de la IA.

«Nuestro equipo, que incluye éticos y tecnólogos, ha revisado las preocupaciones de Blake según nuestros principios de IA y le han informado de que las pruebas no apoyan sus afirmaciones», dijo el portavoz de Google Brad Gabriel a The Washington Post. «Se le dijo que no había pruebas de que LaMDA fuera sensible (y muchas pruebas en contra)».

Los expertos en IA rebaten la afirmación

Otros expertos en IA han salido a la palestra para rebatir la afirmación de Lemoine.

La profesora Melanie Mitchell, del Instituto de Santa Fe, dijo que es bien sabido que los humanos están «predispuestos a antropomorfizar» los objetos, incluso cuando sólo se dispone de señales superficiales. Mitchell escribió en Twitter que «los ingenieros de Google también son humanos y no son inmunes» a este efecto.

Gary Marcus, fundador de Robust.AI, añadió que ni LaMDA ni ningún otro sistema de IA GPT-3 son «remotamente inteligentes».

«Todo lo que hacen es cotejar patrones, extraer de bases de datos estadísticas masivas del lenguaje humano», dijo Marcus en un Poste de la pila . «Los patrones pueden ser geniales, pero el lenguaje que pronuncian estos sistemas no significa nada en realidad. Y seguro que no significa que estos sistemas sean sensibles».

10 cosas que necesitas saber directamente en tu bandeja de entrada cada día de la semana. Inscríbase en el Resumen diario El resumen de Silicon Republic de las noticias esenciales de ciencia y tecnología.