«Quando vedono un conflitto d’interessi fra il profitto e le persone, scelgono sempre il profitto». Davanti al Comitato bipartisan del Parlamento britannico incaricato della stesura di una legge sulla sicurezza online, la whistleblower Frances Haugen riporta le centinaia di problemi relativi al funzionamento di Facebook allo stesso binomio essenziale che aveva evidenziato di fronte al Congresso Usa: il conflitto fra guadagni e bene comune.

«LA RABBIA e l’odio sono il modo più semplice per ’crescere’ su Facebook», ha detto ieri Haugen ai deputati a Westminster: «La rabbia sposta il traffico verso l’esterno» attraverso il semplice click di un link condiviso sulla piattaforma: «Che significa profitto». E l’azienda «non è disposta a perdere neanche una piccolissima percentuale di quei guadagni», nemmeno nei paesi in cui il 35% dei contenuti è un reshare e cresce il rischio di «amplificazione» di disinformazione, hate speech, incitamento alla violenza offline.

DAVANTI al Parlamento la testimonianza della whistleblower ha infatti approfondito il problema che, parallelamente, sta emergendo sempre più dalle inchieste giornalistiche sui «Facebook papers»: la disparità di regolamentazione e sicurezza fra paesi anglofoni – e specialmente Stati uniti – e resto del mondo. Haugen fa l’esempio dell’Etiopia della quale Facebook «conosce» solo due delle decine di lingue parlate nel Paese sull’orlo della guerra civile, e di conseguenza non è in grado di monitorare la violenza e la disinformazione online come fa altrove.

«Fra i motivi che mi hanno spinta a venire allo scoperto c’è proprio il danno sociale fatto in paesi come l’Etiopia, dove si stanno scrivendo i capitoli di un libro che sarà terribile da leggere», e dove il sistema della piattaforma – che incentiva una classifica basata sulla partecipazione -premia proprio i bad actors che promuovono la polarizzazione sociale. O come in Myanmar che, racconta ancora Haugen, non aveva alcun controllo sulla disinformazione «perché non c’erano abbastanza dipendenti a parlare quella lingua». E nonostante ci fossero le prove di una crescente violenza nei confronti della minoranza rohingya, l’azienda è intervenuta solo a crisi conclamata. Con quella che viene definita la «break glass measure», un rallentamento della piattaforma che consente una migliore verifica dei contenuti e che è la stessa implementata durante le elezioni statunitensi, salvo venire smantellata subito dopo nonostante i crescenti indizi di quello che poi sarebbe accaduto con i riot al Campidoglio.

Alle sue parole davanti ai deputati inglesi corrispondono le indagini pubblicate negli ultimi giorni da media inglesi e americani proprio a partire dai documenti interni di Facebook divulgati da Haugen. Da cui emerge per esempio che in India, a ridosso delle elezioni del 2019, si è assistito a una proliferazione di post pro Modi e anti musulmani. O che Zuckerberg per non danneggiare gli introiti si è piegato alle richieste del governo vietnamita di censurare i contenuti «anti-statali». Dai documenti, scrive il Washington Post, risulta che l’84% del budget destinato alla lotta alla disinformazione viene speso per gli Stati uniti, dove vive appena il 10% degli utenti quotidiani della piattaforma. «Solo il 16% è destinato al ’Resto del mondo’, un insieme di paesi che comprende Italia, Francia, India».

«FINCHÉ non cambieranno gli incentivi, non cambierà neanche Facebook» ha spiegato Haugen, interpellata su come intervenire per regolamentare la piattaforma e renderla meno pericolosa.
Per farlo serve in primo luogo una politica di trasparenza, che consenta a ricercatori esterni di comprenderne il funzionamento e implementare misure strutturate sul bene comune anziché su quello degli shareholder. Solo una legislazione che ancori Facebook alle proprie responsabilità può farlo, insiste Haugen. Per togliere a Mark Zuckerberg «il controllo unilaterale su oltre 3 miliardi di persone».