Sono passati poco meno di quattro anni dallo scandalo Cambridge Analytica, che per la prima volta ha messo veramente in discussione la tenuta di Facebook. Adesso l’azienda sta attraversando un nuovo grande scandalo, che sta mettendo a nudo tutte le fragilità del gigante di Zuckerberg. I maggiori media americani hanno pubblicato i cosiddetti Facebook Papers, più di 10 mila pagine che svelano i segreti del social network. Tra i fatti riportati ci sono gli allarmi ignorati dei dipendenti sui discorsi di odio e la disinformazione.
Tutto trae origine da alcuni documenti forniti al Congresso americano dalla ex dipendente Frances Haugen. E che provano a inchiodare Zuckerberg: i files amplificano e raccontano nel dettaglio i fallimenti della dirigenza di Facebook nel contenere la disinformazione e l’incitamento all’odio e alla violenza sulla piattaforma, a volte per carenza di mezzi tecnici, e a volte per non danneggiare i profitti che derivano dall’attività delle persone su Facebook.
Facebook è spesso accusato di non riuscire a moderare l’incitamento all’odio sui suoi siti in lingua inglese, ma il problema pare sia addirittura peggiore nei Paesi dove si parlano altre lingue. Tra i casi più eclatanti in questo senso ci sono quelli che riguardano l’uso dei servizi della società in India per diffondere l’odio religioso nel Paese, soprattutto nei confronti dei cittadini musulmani. Le ricerche condotte all’interno del social hanno messo in evidenza come i contenuti che incitavano all’intolleranza e alla violenza erano particolarmente diffusi a febbraio del 2020, in coincidenza con le tensioni scoppiate a Nuova Delhi durante le quali sono morte 53 persone. Ci sono poi alcune rilevazioni riguardanti Zuckerberg direttamente: secondo quanto riportato dal Washington Post, avrebbe accolto la richiesta del partito comunista del Vietnam di censurare i dissidenti anti-governativi per mantenere la sua presenza nel Paese.
Diversi documenti interni, finiti nelle mani del Congresso americano, dimostrano che Facebook stessa nutre molte perplessità circa i propri algoritmi. Ma c’è di più. I documenti svelano che il social ha anche reso più difficile segnalare l’incitamento all’odio. Secondo una nota del marzo 2021 di un gruppo di ricercatori, la società interviene solo su un minimo del 3-5% dei discorsi di odio e dello 0,6% dei contenuti violenti. Un altro promemoria suggerisce che potrebbe non riuscire mai a superare il 10-20%, perché è «straordinariamente impegnativo» per l’intelligenza artificiale comprendere il contesto in cui viene utilizzata la lingua.
L’apice è stato raggiunto con la rivolta di Capitol Hill, consumatasi il 6 gennaio 2021. I file mostrano che la società ha disattivato alcune salvaguardie di emergenza sulla scia delle elezioni del novembre 2020, solo per affrettarsi a riattivarne alcune mentre la rivolta divampava. Una valutazione interna ha rilevato che la rapida attuazione delle misure è stata ostacolata dall’attesa dell’approvazione da parte del team politico, che evidentemente non ha risposto immediatamente alle richieste dei dipendenti.