Come Facebook e Grindr hanno compromesso la privacy delle persone queer
Il recente Fuga di dati di Cambridge Analytica , che ha rivelato che la società di consulenza con sede nel Regno Unito ha utilizzato i dati degli utenti di Facebook di milioni di persone per indirizzare gli annunci per conto di Trump, ha prefigurato come i dati non autorizzati possano essere utilizzati per prendere di mira non solo la popolazione americana in generale, ma le persone queer e le nostre informazioni in particolare. Quella possibilità è ora diventata più vicina alla realtà, come BuzzFeed segnalato ieri che Grindr ha consentito a due aziende di terze parti di avere accesso allo stato dell'HIV, all'ubicazione e ad altre informazioni personali e sensibili degli utenti.
Tali rivelazioni hanno molte persone queer, me compreso, preoccupate per il modo in cui i nostri dati personali vengono utilizzati da aziende come Facebook e Grindr, sia con che senza il nostro consenso, e quali fattori di rischio unici che le loro pratiche rappresentano per la comunità queer. Se vogliamo vivere in questo mondo come utenti Internet sicuri e liberi, è essenziale capire come vengono utilizzati i nostri dati e come funzionano questi algoritmi, soprattutto ora che sappiamo che non vengono utilizzati solo per venderci prodotti ma anche per influenzare i nostri pensieri, opinioni e opinioni politiche.
Sebbene siano sorti alcuni movimenti per resistere alla condivisione di massa dei dati, come #DeleteFacebook, la realtà del nostro mondo basato su Internet è che i nostri dati vengono raccolti su larga scala e non sono esclusivi di nessuna singola piattaforma. Ogni volta che navighiamo o eseguiamo ricerche sul Web, inviamo e-mail e pubblichiamo informazioni su applicazioni come Grindr, è probabile che tali azioni vengano utilizzate per scopi di raccolta dei dati. Indipendentemente dal fatto che i dati finiscano nelle mani di un gruppo di marketing, un'organizzazione politica o una società di consulenza, le nostre informazioni non giacciono dormienti. Possiamo provare a esercitare un certo controllo sul processo, ad esempio utilizzando una finestra di navigazione in incognito quando siamo online, ma ciò può solo proteggere parte della nostra attività su Internet. Non siamo più solo consumatori su Internet, siamo noi stessi merci, poiché anche terze parti vendono i nostri dati. Questo può essere un pensiero terrificante, ma è anche ciò che consente a gran parte di Internet di essere gratuita e accessibile, poiché la vendita dei nostri dati e il loro utilizzo per indirizzare gli annunci impedisce alle aziende di addebitare direttamente agli utenti.
Prima di poter iniziare a proteggerci, è importante sapere come funziona effettivamente tale raccolta di dati. Ciò che è fondamentale notare sull'apprendimento automatico è che la quantità di dati raccolti dalle aziende in questo modo è troppo grande per essere esaminata da chiunque. Invece, le aziende inseriscono i dati in modelli e macchine che faranno previsioni su di noi. Lo fanno cercando di capire come creare connessioni tra tutte le diverse informazioni che vengono alimentate, come il numero di amici che hai o quali film ti piacciono. Utilizzando queste informazioni, le modelle possono provare a indovinare il tuo genere, le tue convinzioni politiche o quanto è probabile che tu acquisti un prodotto. Da qui creano profili su di noi, che vengono poi venduti agli inserzionisti.
Questi modelli sono così complicati che le persone non li realizzano direttamente. Invece questi modelli, noti anche come algoritmi, vengono addestrati insegnando alle macchine a indovinare le risposte corrette per i dati che le persone hanno esaminato e sperando che si applichi alla popolazione generale.
Tuttavia, anche gli algoritmi comunemente usati lottano con questo apprendimento, come la tecnologia di riconoscimento facciale efficace solo se sei un uomo bianco . Per le persone queer, i big data possono anche portare a un aumento del targeting e a idee sbagliate sulla queerness e sulla sua relazione con il modo in cui agiamo. Molte delle preferenze e delle azioni che ci definiscono come queer non sono nemmeno comprese con precisione dalle persone reali, per non parlare degli algoritmi, e variano notevolmente tra i membri della comunità queer, eppure i sistemi di apprendimento automatico utilizzano tali azioni per cercare di identificarci.
Possono sorgere problemi maggiori quando il software funziona come previsto o, come nella situazione di Grindr, se offriamo volontariamente informazioni su noi stessi aspettandoci che siano private e scopriamo solo in seguito che vengono segnalate a terze parti. In tal modo, diamo il potere di prevedere chi siamo e come indirizzarci a parti che non abbiamo esplicitamente autorizzato. Questo potrebbe non essere così frustrante quando ci presenta semplicemente un annuncio pubblicitario e può anche essere utile se usato in modo responsabile. Può aiutare i membri della comunità queer a trovarsi o a fornire le informazioni necessarie a coloro che ne hanno bisogno. Ma questa raccolta di dati è più spaventosa quando viene utilizzata per obiettivi politici e di polizia, e ancora più spaventosa se utilizzata in ogni parte della nostra vita per sbarazzarsi di qualsiasi parvenza di privacy.
La privacy è sempre stata estremamente importante per la comunità queer, dal momento che abbiamo bisogno di sapere con chi possiamo essere fuori, dove è sicuro essere noi stessi e con chi rivelare cose come il nostro stato di HIV. Mantenere la nostra sicurezza online non è un nuovo problema queer: è un vecchio problema che viene affrontato su una nuova e massiccia scala. I problemi di privacy all'interno della comunità queer risalgono alle lotte per cui molti attivisti queer in precedenza hanno combattuto nei nostri bar, case e altri spazi sociali. Se un algoritmo può capire o presumere che siamo queer, oltre a fornire le nostre informazioni sullo stato dell'HIV a una terza parte, perdiamo il potere di decidere quando rivelare tali informazioni sensibili da soli. Quei dati possono essere forniti agli inserzionisti, certo, ma anche alle forze dell'ordine, alle nostre famiglie, agli amministratori scolastici, agli assicuratori o ai datori di lavoro e ci mettono in situazioni incredibilmente pericolose se venissero utilizzati in modo improprio.
In 2014, Facebook cambiato le loro politiche in modo che gli utenti possano scegliere quando fornire i nostri dati ad app di terze parti, ma dobbiamo comunque fare attenzione a quali autorizzazioni diamo. Le rivelazioni di Grindr hanno portato in primo piano la questione, poiché l'app di appuntamenti ha ammesso di condividere lo stato di HIV degli utenti con terze parti, ma si è difesa affermando che tale uso è autorizzato dalla sua politica sulla riservatezza, che molti utenti non si prendono il tempo di esaminare. (Alla fine di ieri, l'azienda disse smetterebbe di condividere le informazioni sull'HIV degli utenti con terze parti.) Sebbene queste terze parti non siano inserzionisti e siano invece aziende che cercano di ottimizzare le app, il punto è che queste non dovrebbero essere le informazioni di Grindr da fornire. È quindi fondamentale per i consumatori queer che vogliono proteggere la propria privacy tenere traccia di queste politiche, per garantire che le informazioni su se stessi non cadano nelle mani sbagliate. Ma oltre a prestare attenzione noi stessi, dobbiamo anche alzare la voce e assicurarci che Facebook, Grindr e altre società che ottengono i nostri dati non consentano agli inserzionisti sbagliati di utilizzare le loro piattaforme per prenderci di mira con intenzioni dannose.
Non si tratta solo di privacy: si tratta del nostro diritto di esistere in pubblico come persone queer alle nostre condizioni e il diritto di farlo in sicurezza. Come un gruppo di omosessuali anonimi ha scritto nel 1990: Essere queer non riguarda il diritto alla privacy; si tratta della libertà di essere pubblici, di essere semplicemente ciò che siamo.
Jason Gurevitch è una studentessa del Colby College che studia informatica e studi sulle donne, sul genere e sulla sessualità. È un GLAAD Campus Ambassador e ha trascorso la scorsa estate in stage presso Google facendo ricerche utilizzando Machine Learning.