El gigante del software Adobe ha estado trabajando en formas de ayudar a sus usuarios a identificar la historia completa de los contenidos digitales y su procedencia.

En 2019, Adobe anunció por primera vez la Iniciativa de Autenticidad de Contenidos (CAI), un grupo intersectorial diseñado para abordar la desinformación digital y la autenticidad de los contenidos. La CAI ha crecido hasta contar con unos 750 miembros, con colaboradores como The New York Times, Twitter, Truepic, Qualcomm, Witness, CBC y la BBC.

En el último paso para ayudar a autenticar los contenidos digitales, el CAI ha publicado un conjunto de herramientas de código abierto para ayudar a los desarrolladores a «integrar la procedencia de los contenidos» en proyectos web, móviles o de escritorio.

Las tres herramientas disponibles incluyen un SDK de JavaScript y un SDK de Rust. Estas herramientas están diseñadas para permitir a los desarrolladores crear funciones de visualización de credenciales de contenido en los navegadores, o hacer aplicaciones personalizadas para ordenadores de sobremesa y móviles que puedan crear, verificar y mostrar credenciales de contenido. También hay una herramienta que permite a los desarrolladores utilizar su línea de comandos para explorar los detalles del contenido.

«La participación activa en las comunidades de código abierto permite a CAI capacitar a los desarrolladores de todo el mundo para crear soluciones interoperables, nativas de sus aplicaciones, que ayudarán a avanzar en la adopción de la procedencia de los contenidos en una amplia gama de casos de uso», dijo el director senior de CAI, Andy Parsons, en un comunicado. entrada del blog . «Estamos deseando ver lo que la comunidad construye con estas materias primas».

La norma subyacente de estas herramientas proviene de C2PA cuyo objetivo es hacer frente a la prevalencia de la información engañosa en línea mediante el desarrollo de normas técnicas. Algunas de las organizaciones que participan en la C2PA son Intel, Microsoft, Sony y Arm.

Cómo hacer frente a los deepfakes

Uno de los principales objetivos del CAI es hacer frente a la propagación de la desinformación digital, facilitando el acceso al historial de los contenidos para ver cuándo y cómo se crearon. Un área en la que esto podría ayudar es en el aumento de las imágenes falsas.

Los deepfakes utilizan una forma de inteligencia artificial para combinar y superponer imágenes y vídeos existentes para crear imágenes falsas de personas o hacer que parezca que una persona ha dicho o hecho algo que no ha hecho.

Una investigación realizada en marzo descubrió más de 1.000 perfiles de LinkedIn que utilizaban lo que parecía ser Imágenes faciales generadas por la IA .

Últimamente también se ha producido una oleada de imágenes generadas por la IA que se extienden por Internet desde DALL-E Mini un modelo de IA de código abierto inspirado en la tecnología de OpenAI que puede crear imágenes a partir de indicaciones de texto.

Aunque DALL-E Mini no crea imágenes realistas, el Modelo OpenAI DALL-E 2 junto con su Google competitor Imagen se ha demostrado que crea imágenes muy realistas generadas por la IA a partir de mensajes de texto, lo que hace temer que esta tecnología pueda utilizarse para difundir información errónea en Internet.

La Comisión Europea también está tomando medidas para hacer frente a la desinformación en línea. Según un documento de la UE visto por Reuters , tech companies such as Google, Meta and Twitter will have to take steps to counter deepfake content and fake accounts, or risk fines.

10 cosas que necesitas saber directamente en tu bandeja de entrada cada día de la semana. Inscríbase en el Resumen diario El resumen de Silicon Republic de las noticias esenciales de ciencia y tecnología.