Cómo la Junta de Supervisión de Meta aborda las imágenes sexuales de la IA

abril 30, 2024
LaJunta de Supervisión de Meta se enfrenta de nuevo a las normas de la red social relativas a los contenidosgenerados por IA. La junta aceptó dos casos relacionados con imágenes explícitas de figuras públicas generadas por IA.
Los casos se refieren a imágenes explícitas de dos figuras públicas
Meta tiene normas que prohíben los desnudos en Facebook e Instagram. Sin embargo, la Junta de Supervisión declaró en una nota que quiere verificar si«las políticas y las prácticas de aplicación de Meta son eficaces para contrarrestarlas imágenes explícitas generadas por IA». Las imágenes generadas por IA de mujeres famosas, políticas y otras figuras públicas se han convertido en una forma de acoso en línea cada vez más destacada y han suscitado una serie de propuestas de regulación. Con estos dos casos, el Consejo de Supervisión podría empujar a Meta a adoptar nuevas normas para hacer frente a este tipo de acoso en su plataforma.
La Junta de Supervisión ha declarado que no revelará los nombres de las dos figuras públicas implicadas en los casos para evitar que se produzcan más acosos, aunque ha descrito las circunstancias que rodearon a cada publicación.
El primer caso se refiere a un post en Instagram
El primer caso se refiere a un post en Instagram que mostraba unaimagen generada por IA de una mujer india desnuda. El post había sido publicado por una cuenta que «sólo comparte imágenes generadas por IA de mujeres indias». El post había sido denunciado a Meta, pero el informe se cerró al cabo de 48 horas sin que se investigara. El mismo usuario había apelado esta decisión, pero la apelación también había sido cerrada sin ser examinada. Finalmente, Meta retiró el post después de que el usuario apelara al Consejo de Supervisión y éste aceptara examinar el caso.
El segundo caso se refiere a un post de Facebook
El segundo caso se refiere a un post de Facebook en un grupo dedicado alarte generado por IA. El post en cuestión mostraba «una imagen generada por IA de una mujer desnuda con un hombre manoseándole los pechos». Se suponía que la mujer se parecía a «una figura pública estadounidense» cuyo nombre también aparecía en el pie de foto del post. El post fue eliminado automáticamente porque ya había sido marcado anteriormente y los sistemas internos de Meta pudieron asociarlo con el post anterior. El usuario apeló la decisión de eliminarlo, pero la apelación fue «automáticamente cerrada». El usuario recurrió entonces al Consejo de Supervisión, que aceptó estudiar el caso.
El objetivo del Consejo de Supervisión y la implicación de Meta
En un comunicado, la copresidenta de la Junta de Supervisión, Helle Thorning-Schmidt, dijo que la junta había abordado los dos casos desde países diferentes para evaluar cualquier disparidad en la aplicación de las políticas de Meta. «Sabemos que Meta es más rápida y eficaz a la hora de moderar contenidos en algunos mercados e idiomas que en otros«, dijo Thorning-Schmidt. «Tomando un caso de EE.UU. y otro de la India, queremos comprobar si Meta protege por igual a todas las mujeres del mundo«.
La Junta de Supervisión recaba ahora comentarios públicos durante las próximas dos semanas y publicará su decisión en breve, junto con recomendaciones políticas para Meta. Un proceso similar relacionado con un vídeo engañoso de Joe Biden llevó recientemente a Meta a comprometerse a etiquetar más contenidos generados por IA en su plataforma.