El gigante tecnológico estadounidense, Meta, ha anunciado que a partir de mayo de 2024, identificará en sus redes sociales audios, imágenes y vídeos generados por inteligencia artificial (IA). Esta medida afectará a plataformas de renombre global como Facebook, Instagram y Threads.
Según Monika Bickert, vicepresidenta de contenido de Meta, la empresa planea etiquetar a partir de mayo de 2024 contenido generado por IA. La etiqueta «Made with AI«, que ya se utiliza en imágenes fotorrealistas, se aplicará a un mayor número de contenidos de video, audio e imágenes.
Para llevar a cabo esta tarea, se detectarán los contenidos que presenten «indicadores de imagen de IA conformes a las normas de la industria» o aquellos para los cuales las personas indiquen que están subiendo contenidos generados por IA. Este nuevo sistema se empezará a implantar a partir del 1 de mayo de 2024.
Este anuncio forma parte de un cambio más amplio en la forma en que el grupo californiano tratará los contenidos creados con la IA. Meta ha consultado con su junta de supervisión y concluyó que la transparencia y un mayor contexto son ahora la mejor manera de tratar los contenidos manipulados por IA.
Según Meta, este nuevo enfoque reduce el riesgo de restringir innecesariamente la libertad de expresión. En lugar de eliminar los contenidos generados por IA, como se hacía anteriormente, ahora se agregarán «etiquetas y contexto» a estos contenidos.
No obstante, Meta ha aclarado que cualquier contenido, ya sea creado por un humano o una IA, que viole sus reglas «contra la interferencia en procesos electorales, la intimidación, el acoso, la violencia (…) o cualquier otra política en nuestras normas comunitarias» será retirado de la plataforma.
Para detectar contenidos generados por IA que sean falsos o engañosos, Meta confiará en una red de «aproximadamente 100 verificadores de datos independientes». Esta medida es parte de los esfuerzos de la empresa matriz de Facebook para luchar contra la desinformación.
Otros gigantes tecnológicos como Microsoft, Google y OpenAI han asumido compromisos similares. Existe el temor de que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación o la información errónea. Este temor se ve agravado por el hecho de que hay varias elecciones importantes en todo el mundo este año, especialmente en Estados Unidos.
Más allá de las citas electorales, el desarrollo de programas de IA generativa ha llevado a la producción de un flujo de contenido degradante, según muchos expertos y reguladores. Un ejemplo notable de esto son las falsas imágenes (conocidas como «deepfakes») pornográficas de mujeres famosas. Este fenómeno, sin embargo, no se limita a las celebridades y también afecta a personas anónimas.
En resumen, Meta está tomando medidas para hacer frente a los desafíos planteados por los contenidos generados por IA. Al etiquetar estos contenidos y proporcionar mayor contexto, la empresa espera aumentar la transparencia y minimizar la desinformación, al tiempo que respeta la libertad de expresión de sus usuarios.