Instagram potrebbe presto riconsiderare il modo in cui modera i corpi trans

Il consiglio di sorveglianza di Meta sta esaminando due casi riguardanti la censura dei creatori queer.
  Instagram potrebbe presto riconsiderare il modo in cui modera i corpi trans Immagini SOPA/Immagini Getty

L'Osservatorio di Meta si sta preparando a considerare un caso riguardante l'identità di genere e la nudità su Instagram, il cui risultato influenzerà le esperienze degli utenti di persone trans e non binarie ovunque.



L'Osservatorio, organismo esterno che si occupa delle questioni relative alle decisioni di applicazione dei contenuti su Facebook e Instagram, annunciato Martedì che esaminerà quattro nuovi casi. Uno dei casi affronta due casi separati in cui una coppia trans e non binaria ha subito la rimozione di immagini dal conto cointestato che gestisce. La prima immagine, del 2021, mostrava entrambe le persone nude dalla vita in su, con un nastro color carne sui capezzoli. Nella seconda immagine, pubblicata nel 2022, una persona copre i capezzoli dell'altra persona con le mani. Le didascalie di entrambe le immagini discutevano di come la persona che è a torso nudo in entrambe le immagini avrebbe presto subito un intervento chirurgico di alto livello, rilevando 'i loro piani per documentare il processo chirurgico e discutere problemi di assistenza sanitaria trans' e includendo un annuncio di raccolta fondi. L'Organismo di Vigilanza ha mantenuto anonimi sia gli incarichi che i conti.

Meta ha rimosso entrambi i post, citando il Standard della comunità di sollecitazione sessuale , una politica relativa ai contenuti sessuali sulle proprietà di Meta, inclusi Facebook e Instagram. Tale standard limita i contenuti che 'facilitano, incoraggiano o coordinano incontri sessuali o servizi sessuali commerciali tra adulti', nonché 'un linguaggio sessualmente esplicito che può portare a sollecitazioni sessuali'. Nonostante il fatto che nessuno dei due post includesse tale linguaggio, tre utenti hanno segnalato il primo post per 'pornografia e autolesionismo'. Sebbene i moderatori umani che hanno esaminato quei reclami inizialmente abbiano riscontrato che il post non violava, il contenuto è stato segnalato una quarta volta e un moderatore separato ha rimosso il post.



Il secondo post è stato ritenuto 'potenzialmente violante' da Meta moderazione AI , sebbene i revisori umani l'abbiano trovata non violativa. Anche dopo che il post è stato segnalato due volte per contenuto potenzialmente in violazione, i rapporti sono stati automaticamente chiusi. Ma quando l'IA di Meta ha esaminato il post una terza volta e l'ha trovato potenzialmente in violazione, un revisore separato ha deciso di rimuovere il post.



Sebbene la coppia abbia cercato di appellarsi a Meta per ripristinare i posti, la società ha rifiutato di muoversi. È stato solo dopo che la coppia ha presentato ricorso al Board che Meta ha ritenuto tali rimozioni come 'errori di esecuzione' e le ha ripristinate. Ora, il Consiglio sta sollecitando commenti pubblici sul caso.

Il Board ha scritto nel suo annuncio di martedì che apprezzerebbe in particolare i commenti sul fatto che le politiche di Meta sulla nudità e sull'adescamento sessuale rispettino sufficientemente i diritti degli utenti trans e non binari. Il Consiglio sta inoltre cercando commenti sul fatto che Meta disponga di procedure sufficienti per affrontare i contenuti non violati segnalati e su come mitigare il rischio di rimozione errata, tra gli altri argomenti. La scadenza per presentazione di commenti pubblici è martedì 9 agosto alle 11:00 EDT.

La notizia arriva in mezzo a un maggiore controllo diretto a Meta, sia per il suo restrizioni sui contenuti relativi all'aborto in un inviare- uova epoca e per la sua utilizzo dell'IA nella moderazione dei contenuti . L'informatrice di Facebook Frances Haugen ha recentemente criticato la dipendenza dell'azienda dall'IA, invece di pagare in modo equo i moderatori di contenuti umani, affermando che l'IA potrebbe 'essere solo così precisa'.



'Le persone che ci lavorano effettivamente lo chiamano apprendimento automatico, perché non è intelligente', ha detto Haugen nei commenti riportati da Business Insider .

Quella mancanza di precisione ha anche un costo umano. UN recente rapporto di GLAAD ha scoperto che Meta, insieme a tutte le altre principali piattaforme di social media, non riesce ancora a proteggere i suoi utenti LGBTQ+. L'organizzazione ha invitato il gigante dei social media a pubblicare dati completi su come vengono applicate le sue politiche di protezione degli utenti LGBTQ+, considerando che i contenuti anti-LGBTQ+ circolano ancora su Facebook e Meta eludendo gli occhi dei moderatori, umani o meno.

Dall'approvazione della normativa “anti-tratta” SESTA-FOSTA nel 2018, le persone LGBTQ+ su Internet hanno dovuto affrontare crescente censura e shadowbanning . Questo perché le leggi hanno rimosso le protezioni cruciali che ritenevano che le piattaforme non potessero essere ritenute responsabili per i contenuti generati dagli utenti, facendo un'eccezione per i contenuti relativi al 'traffico sessuale', anch'esso falsamente confuso con lavoro sessuale consensuale . Ma come mostra il caso Meta, i corpi omosessuali e trans semplicemente esistenti sono troppo spesso considerati inappropriatamente sessuali, il tutto in aggiunta alle difficoltà che devono affrontare le vere prostitute omosessuali e trans.