Meta planea una política de contenido generado por IA menos punitiva

La política actualizada de Meta sobre contenido generado por IA para Facebook, Instagram y Threads enfatiza la transparencia sobre la eliminación de contenido

Meta anunció una actualización de su política de etiquetado de IA, ampliando su definición de «medios manipulados» para ir más allá de los videos generados por IA, para incluir ahora audio e imágenes engañosas en Facebook, Instagram y Threads.

Una característica importante de la nueva política es su sensibilidad a la percepción de que restringe la libertad de expresión. En lugar de adoptar el enfoque de eliminar el contenido problemático, Meta simplemente lo etiqueta. Meta introdujo dos etiquetas, «Hecho con IA» e «Imaginado con IA», para dejar claro qué contenido se creó o modificó con IA.

Nuevas etiquetas de advertencia

El contenido generado por IA se basará en la identificación de las señales de autoría y autoinformación de la IA:

“Our ‘Made with AI’ labels on AI-generated video, audio, and images will be based on our detection of industry-shared signals of AI images or people self-disclosing that they’re uploading AI-generated content”

«Nuestras etiquetas ‘Hecho con IA’ en videos, audio e imágenes generados por IA se basarán en nuestra detección de señales compartidas por la industria de imágenes de IA o personas que revelan por sí mismas que están subiendo contenido generado por IA».

El contenido que sea significativamente engañoso puede recibir etiquetas más destacadas para que los usuarios puedan comprenderlo mejor.

El contenido dañino que viole los Estándares comunitarios, como el contenido que incite a la violencia, la interferencia electoral, la intimidación o el acoso, calificará para su eliminación, independientemente de si es generado por humanos o por IA.

Motivo de la política actualizada de Meta

La política original de etiquetado de IA se creó en 2020 y, debido al estado de la tecnología, se definió estrictamente para abordar videos engañosos (del tipo que mostraba a figuras públicas diciendo cosas que nunca dijeron). La Junta de Supervisión del Meta reconoció que la tecnología ha avanzado al punto que se necesita una nueva política En consecuencia, la nueva política se expande para abordar ahora el audio y las imágenes generados por IA, además de los videos.

Basado en comentarios de usuarios

El proceso de Meta para actualizar sus reglas parece haber anticipado el rechazo de todos lados. Su nueva política se basa en amplios comentarios de una amplia gama de partes interesadas y aportaciones del público en general. La nueva política también tiene la flexibilidad de flexibilizarse si es necesario.

Meta explica:

“In Spring 2023, we began reevaluating our policies to see if we needed a new approach to keep pace with rapid advances… We completed consultations with over 120 stakeholders in 34 countries in every major region of the world. Overall, we heard broad support for labeling AI-generated content and strong support for a more prominent label in high-risk scenarios. Many stakeholders were receptive to the concept of people self-disclosing content as AI-generated.

…We also conducted public opinion research with more than 23,000 respondents in 13 countries and asked people how social media companies, such as Meta, should approach AI-generated content on their platforms. A large majority (82%) favor warning labels for AI-generated content that depicts people saying things they did not say.

…And the Oversight Board noted their recommendations were informed by consultations with civil-society organizations, academics, inter-governmental organizations and other experts.”

“En la primavera de 2023, comenzamos a reevaluar nuestras políticas para ver si necesitábamos un nuevo enfoque para seguir el ritmo de los rápidos avances… Completamos consultas con más de 120 partes interesadas en 34 países en todas las regiones importantes del mundo. En general, escuchamos un amplio apoyo para etiquetar el contenido generado por IA y un fuerte apoyo para una etiqueta más destacada en escenarios de alto riesgo. Muchas partes interesadas se mostraron receptivas al concepto de que las personas revelaran contenido generado por IA.

…También realizamos una investigación de opinión pública con más de 23.000 encuestados en 13 países y preguntamos a la gente cómo las empresas de redes sociales, como Meta, deberían abordar el contenido generado por IA en sus plataformas. Una gran mayoría (82%) está a favor de etiquetas de advertencia para el contenido generado por IA que muestra a personas diciendo cosas que no dijeron.

…Y la Junta de Supervisión señaló que sus recomendaciones se basaron en consultas con organizaciones de la sociedad civil, académicos, organizaciones intergubernamentales y otros expertos”.

Colaboración y consenso

El anuncio de Meta explica que planean que las políticas sigan el ritmo de la tecnología revisándola con organizaciones como la Asociación sobre IA, gobiernos y organizaciones no gubernamentales.

La política revisada de Meta enfatiza la necesidad de transparencia y contexto para el contenido generado por IA, que la eliminación de contenido se basará en violaciones de los estándares de su comunidad y que la respuesta preferida será etiquetar contenido potencialmente problemático.

Lea el anuncio de Meta

Nuestro enfoque para etiquetar contenido generado por IA y medios manipulados Our Approach to Labeling AI-Generated Content and Manipulated Media

Imagen destacada de Shutterstock/Boumen Japet

Leer el articulo original en Search Engine Journal.

¡Danos un Voto!

¿Tienes una pregunta?

Luis Narciso
Sobre SEO
(Posicionamiento Web)

Frank Fajardo
Sobre Diseño Web, Anuncios, Diseño y Redes Sociales