Las herramientas de conversión de texto a imagen son cada vez más populares, y Meta es el último en hacerlo con una nueva herramienta de IA que está desarrollando, llamada Make-A-Scene.

Capaz de generar una imagen a partir de indicaciones de texto, el último proyecto de investigación de Meta lleva la tecnología un paso más allá al aceptar bocetos del usuario para dirigir la IA antes de crear la imagen final.

Los bocetos de forma libre, que pueden ser desde un cactus solitario en un desierto de noche hasta una cebra montando en bicicleta, acompañarán a las indicaciones de texto para ayudar a la IA a determinar cómo visualiza el usuario el producto final.

Al mostrar ayer (14 de julio) en su sitio web el programa Make-A-Scene, Meta puso como ejemplo la pintura de una cebra montando en bicicleta.

«[El resultado] podría no reflejar exactamente lo que imaginaste; la bicicleta podría estar de lado, o la cebra podría ser demasiado grande o pequeña», escribió.

«Con Make-A-Scene, esto ya no es así. Demuestra cómo la gente puede usar tanto el texto como los dibujos sencillos para transmitir sus visiones con mayor especificidad usando una variedad de elementos.»

La moda de la conversión de texto en imagen

La tecnología de IA de texto a imagen ha ido creciendo en popularidad, sobre todo desde que el modelo de código abierto DALL-E mini empezó a arrasar en Internet en los últimos meses. Se inspira en el modelo original de DALL-E desarrollado por OpenAI, aunque no están conectados.

OpenAI creó DALL-E en 2021 como un modelo de IA capaz de generar imágenes a partir de simples descripciones de texto. Una segunda versión llamada DALL-E 2 se presentó en abril, que según OpenAI puede generar imágenes más realistas y precisas «con una resolución cuatro veces mayor».

Google también entró en escena con su propio modelo de conversión de texto en imagen en mayo. El gigante de las búsquedas afirma que su Modelo de Imagen AI tiene un «grado de fotorrealismo sin precedentes» y un profundo nivel de comprensión del lenguaje.

Compartió ejemplos de imágenes que el modelo de IA ha creado: desde un simpático corgi en una casa hecha de sushi hasta un pulpo alienígena leyendo un periódico.

Destinado tanto a artistas adultos como a niños, Meta’s Make-A-Scene trata de diferenciarse del espacio de la aglomeración con la pretensión de obtener resultados más «matizados» gracias a los bocetos del usuario. Sin embargo, los usuarios también pueden optar por generar imágenes utilizando sólo indicaciones de texto.

«El modelo se centra en el aprendizaje de los aspectos clave de las imágenes que probablemente sean más importantes para el creador, como los objetos o los animales», explica Meta.

Meta ha sido se ha centrado mucho en la IA últimamente , as it prepares to develop technologies to accompany its foray into the metaverse. It has been developing concepts such as universal speech translation, AI that can learn like a human and a more conversational AI assistant.

En diciembre de 2021, la empresa reveló que había desarrollado una tecnología que puede animar figuras de aspecto humano en los dibujos de los niños con la esperanza de construir una IA que pueda «entender el mundo desde un punto de vista humano».

10 cosas que necesitas saber directamente en tu bandeja de entrada cada día de la semana. Inscríbase en el Resumen diario El resumen de Silicon Republic de las noticias esenciales de ciencia y tecnología.