Las imágenes creadas por un modelo de IA de texto a imagen llamado DALL-E Mini han aparecido recientemente en Internet.

A pesar del nombre similar, esta herramienta de IA no está relacionada con el modelo DALL-E desarrollado por OpenAI.

En 2021, OpenAI creó DALL-E, un modelo de IA capaz de generar imágenes a partir de simples descripciones de texto. Una segunda versión llamada Se presentó DALL-E 2 en abril, que según OpenAI puede generar imágenes más realistas y precisas «con una resolución cuatro veces mayor».

Mientras DALL-E llamaba la atención, se desarrolló otro proyecto para intentar reproducir los resultados de esta IA con una arquitectura más pequeña.

Creado por el ingeniero de aprendizaje automático Boris Dayma, DALL-E Mini es un modelo de IA de código abierto inspirado en la tecnología de OpenAI que puede crear imágenes a partir de indicaciones de texto.

El modelo se entrena observando millones de imágenes de Internet con sus leyendas asociadas. Con el tiempo, el modelo aprendió a dibujar una imagen a partir de la indicación del texto.

Aunque esto es similar a cómo se entrenaron los modelos de OpenAI, hay diferencias significativas tanto en la calidad como en la escala.

Dayma dijo que el primer modelo DALL-E Mini era 27 veces más pequeño que el DALL-E original. Además, DALL-E se entrenó con 250 millones de pares de imágenes y textos, mientras que DALL-E Mini solo utilizó 15 millones de pares.

Sin embargo, a diferencia del modelo de OpenAI, DALL-E Mini está disponible para el público. Esto ha provocado una oleada de comedic y extraño imágenes que se propagan por Internet.

Preocupación por los prejuicios y las imágenes ofensivas

OpenAI ha dicho que su modelo de conversión de texto a imagen aún no está abierto al público, ya que está probando las limitaciones y capacidades del modelo para «desarrollar y desplegar la IA de forma responsable».

El mes pasado, Google Research también reveló un competidor de DALL-E llamado Imagen. El equipo de Google detrás del modelo dijo que tenía un «grado de fotorrealismo sin precedentes» y un profundo nivel de comprensión del lenguaje.

Pero añadió que un análisis preliminar sugería que el modelo codifica una serie de «prejuicios sociales y culturales» a la hora de generar imágenes de actividades, eventos y objetos.

También se ha planteado la preocupación de que este tipo de tecnología pueda ayudar a difundir desinformación en línea mediante el uso de imágenes falsas que parezcan auténticas.

Aunque las imágenes generadas por DALL-E Mini no son tan realistas como los modelos de IA más potentes, sigue existiendo el riesgo de que se creen imágenes sesgadas y ofensivas.

«Aunque las capacidades de los modelos de generación de imágenes son impresionantes, también pueden reforzar o exacerbar los prejuicios sociales», dice DALL-E Mini en su Página de Caras Abrazadas .

«Aunque el alcance y la naturaleza de los sesgos del modelo DALL-E Mini aún no se han documentado por completo, dado que el modelo se entrenó con datos no filtrados de Internet, puede generar imágenes que contengan estereotipos contra grupos minoritarios.

«El trabajo para analizar la naturaleza y el alcance de estas limitaciones está en curso y se documentará con más detalle en la ficha del modelo DALL-E Mini».

10 cosas que necesitas saber directamente en tu bandeja de entrada cada día de la semana. Inscríbase en el Resumen diario El resumen de Silicon Republic de las noticias esenciales de ciencia y tecnología.