"Facebook incoraggia l'hate speech per il profitto": esce allo scoperto l'ultima whistleblower che accusa il social

Si chiama Frances Haugen, dal dicembre scorso ha girato al Wall Street Journal documenti interni che proverebbero come la piattaforma Zuckerberg metta i profitti al sopra di tutto, anche della salute degli utenti. La risposta di Menlo Park: “Abbiamo speso 13 miliardi di dollari dal 2016 e 40 mila persone lavorano su quel fronte”
 
3 minuti di lettura

Ha un nome e un cognome la whistleblower che ha sottratto un gran numero di documenti interni di Facebook, girandoli al Wall Street Journal fra fine 2020 e aprile 2021 e consentendo al quotidiano di pubblicare un certo numero di inchieste e approfondimenti che hanno messo all’angolo il colosso, note come “Facebook Files”. Ad esempio, quella sugli effetti di Instagram sulla psicologia degli adolescenti che lo usano. Si chiama Frances Haugen, è un’ingegnera informatica di 37 anni e ha rilasciato un’intervista alla trasmissione 60 Minutes del canale statunitense Cbs. 

La storia
Nel corso del colloquio televisivo con Scott Pelley è tornata all’attacco, confermando tutto ciò che esce da quei documenti trasmessi al giornale. Su tutte, una realtà di fondo: cioè che il gruppo è così impegnato a ottimizzare il prodotto, e il modo in cui farlo rendere, da aver scelto di sviluppare e distribuire algoritmi che amplificano l’hate speech, cioè l’odio e la contrapposizione fra gli utenti. Questo al contrario di ciò che, pubblicamente, i top manager di Menlo Park ripetono incessantemente: cioè di avere ben chiaro il problema e di fare di tutto per contenerne gli effetti. Al contrario, ha spiegato Haugen - entrata nel social nel 2019, fino alla fine del 2020 nel Civic integrity team poi dismesso e infine dimessasi nell’aprile di quest’anno - non pensa che “siano disposti a investire ciò che effettivamente deve essere investito per evitare che Facebook continui a essere pericoloso".

La donna ha spiegato di aver lavorato per anni in Google e Pinterest ma di aver trovato in Facebook “un ambiente significativamente peggiore” proprio a causa del desiderio del gruppo di porre i profitti sopra a qualsiasi cosa, incluso il benessere degli utenti. Il team di Haugen aveva il compito di vigilare sulle elezioni in tutto il mondo e capire, intervenendo con le soluzioni adeguate, come i governi avrebbero potuto sfruttare gli strumenti del social per diffondere notizie false o per scopi che sfavorissero un sano confronto democratico nei rispettivi paesi. Peccato che quel gruppo avesse ricevuto un incarico troppo gravoso da svolgere in poco tempo: tre mesi appena, come se l’impresa fosse stata lanciata più per dovere che per effettiva convinzione.

Non a caso, Haugen - che ha iniziato a trasmettere documenti riservati ma senza particolari protezioni, pescati per esempio sulla piattaforma per i dipendenti Workplace, al Wall Street Journal nel dicembre scorso - ha anche aggiunto che nell’organizzazione di Facebook c’erano all’epoca team con compiti estremamente complessi composti però da pochissime risorse. Almeno in proporzione alle sfide che si ritrovavano per le mani, come per esempio individuare e contrastare lo sfruttamento delle persone. Perché così poche risorse per obiettivi tanto importanti, sembra domandarsi l’ex dipendente?

Buono per Facebook ma non per gli altri
"C'era conflitto tra ciò che era buono per il pubblico e ciò che era buono per Facebook" ha detto Haugen a Pelley, "e Facebook ha scelto più e più volte di ottimizzare per i propri interessi, cioè di fare più soldi". Un documento interno procurato da Haugen, ad esempio, spiega che - nonostante la società ripeta ciclicamente di avere un ruolo essenziale nel contenere l’hate speech - “stimiamo di poter intervenire solo sul 3-5% dei contenuti d’odio e sullo 0.6% di quelli di violenza e incitamento alla violenza nonostante i nostri strumenti siano i migliori del mondo in questo ambito”.

Secondo Haugen, la radice di buona parte dei problemi di Facebook starebbe nei nuovi algoritmi implementati a partire dal 2018. A suo avviso progettati per aumentare l’engagement, cioè il coinvolgimento e le attività degli utenti, e secondo il gruppo ciò che produce più coinvolgimento è ciò che fa leva su paura e odio fra gli utenti. “È più facile ispirare le persone alla rabbia che ad altre emozioni" ha detto Hagen, il cui intervento era stato anticipato in tv, sulla Cnn, niente meno che da Nick Clegg, vicepresidente per gli affari globali ed ex vicepremier britannico. Al contrario, all’epoca Mark Zuckerberg presentò la formula magica che avrebbe orchestrato e deciso ciò che vediamo sulle nostre bacheche, e non solo, in un’ottica del tutto opposta. E non poteva essere altrimenti, anche se internamente sembra si sappia bene di non potere, e volere, fare molto di più. Il risultato è che “disinformazione, tossicità e contenuti violenti sono eccessivamente prevalenti tra le ricondivisioni" come si legge in una nota interna citata dal Journal e girata sempre da Haugen, valutando gli effetti del cambiamento dell’algoritmo. Insomma, dalla padella alla brace dell’hate speech. Vedremo cosa racconterà di più dettagliato al Senato, in un’audizione in commissione martedì 5 ottobre.

La reazione
Intanto il gigante californiano ha risposto punto su punto alle accuse. Ad esempio, sull’accusa generale, spiegando che "la crescita delle persone o degli inserzionisti che utilizzano Facebook non significa nulla se i nostri servizi non vengono utilizzati in modi che avvicinano le persone: ecco perché stiamo investendo così tanto nella sicurezza che ha un impatto sui nostri profitti. Proteggere la nostra comunità è più importante che massimizzare i nostri profitti. Dire che chiudiamo un occhio ignora questi investimenti, comprese le 40mila persone che lavorano per la sicurezza su Facebook e il nostro investimento di 13 miliardi di dollari dal 2016”. 

Sul fatto che l’algoritmo modificato nel 2018 - allora comunicato come un ritorno all’intimità delle proprie cerchie più strette di contatti - abbia peggiorato la situazione, invece, il gruppo ha spiegato che “l'obiettivo della modifica della Meaningful Social Interactions ranking [l’elemento principale che stabilisce la visibilità dei contenuti sul newsfeed, nda] è espresso nel nome: migliorare l'esperienza delle persone dando la priorità ai post che ispirano le interazioni, in particolare le conversazioni, tra familiari e amici - che la ricerche mostrano essere e interazioni migliori per il benessere delle persone - e depriorizzando i contenuti pubblici. Altri approfondimenti mostrano anche che la polarizzazione è cresciuta negli Stati Uniti per decenni, molto prima che esistessero piattaforme come Facebook, e che sta diminuendo in altri paesi in cui l'uso di internet e Facebook è aumentato. Abbiamo il nostro ruolo da svolgere e continueremo ad apportare modifiche coerenti con l'obiettivo di rendere l'esperienza delle persone più significativa, ma incolpare Facebook ignora le cause più profonde di questi problemi e ciò che dicono i dati”.

 

 

2

Articoli rimanenti

Accesso illimitato a tutti i contenuti del sito

1€/mese per 3 mesi, poi 2.99€ al mese per 3 mesi

Attiva Ora

Sblocca l’accesso illimitato a tutti i contenuti del sito