Alla vigilia di una stagione elettorale che in America si preannuncia più che mai rovente ed all’insegna della «disinformazione profonda», le piattaforme social fanno retromarcia sulla segnalazione delle fake news. Dopo l’allarme provocato dalle interferenze nelle scorse elezioni, ed i violenti postumi del 2021, Youtube, Facebook ed X (ex Twitter), invece di aumentare la sorveglianza, annunciano drastiche riduzioni di personale addetto alla moderazione dei contenuti. È l’effetto in parte di una campagna di destra contro la «censura dei conservatori», la presunta guerra contro la libertà di espressione ed opinione – la giustificazione addotta anche da Trump nei processi per eversione. La campagna è stata amplificata da Elon Musk che, sotto l’egida del free speech, ha convertito Twitter in piattaforma di indirizzo alt right. Così mentre la Fox è stata costretta da costose condanne per diffamazione a moderare i toni, Trump nella diretta con Tucker Carson su X, ha potuto ripetere a raffica le sue false accuse di vasti brogli orditi da Biden.

La questione social rimane dunque nodo irrisolto anche perché, come spiega Frances Haugen in questa intervista via Zoom alla stampa estera di Los Angeles, il modello delle piattaforme rimane imperniato sul data mining e sugli algoritmi come motori del «capitalismo assuefattivo» basato sulla modificazione del comportamento degli utenti social, strumentali all’acquisizione ed il commercio dei dati personali. Ingegnera elettronica laureata ad Harvard, Haugen, è destinata ad una brillante carriera che inizia subito dopo gli studi con l’assunzione prima a Google, dove collabora ad un brevetto per indicizzare i risultati di ricerca, poi Yelp, Pinterest ed infine Facebook, dove, nel 2019, diventa responsabile del programma “integrità civica” addetto a limitare la disinformazione sulla piattaforma. Finirà invece per denunciare l’inadeguatezza dell’operazione, rivelando migliaia di documenti interni a questo effetto, testimoniando davanti al Congresso e scrivendo un libro, Il dovere di scegliere. La mia battaglia per la verità contro Facebook, edito in Italia da Garzanti. Haugen denuncia che il modello prioritario rimane l’ottimizzazione del traffico e dei profitti e che «tutte le piattaforme, mantengono team di 200, 300 , 500 persone il cui unico lavoro, tutto il giorno, ogni giorno è cercare di ricavare da te più minuti sulla loro app». E aggiunge: «Dobbiamo smettere di considerare neutrali o oggettive queste tecnologie. È quello che vorrebbero farci credere. La tecnologia non è mai neutrale, ogni tecnologia ha un’ideologia».

A che punto siamo con la regolamentazione delle piattaforme?
Abbiamo ancora a che fare con normative che sono state scritte per un’epoca addirittura precedente a Google. Le leggi che abbiamo risalgono agli anni 90, da qui l’urgenza di adeguarle allo stato attuale della tecnologia. In quest’ambito bisogna sottolineare l’enorme importanza del Digital Services Act promulgato dall’Unione europea. Facebook ha speso centinaia di milioni di dollari per plasmare una narrazione secondo cui l’unico modo per risolvere questi problemi è la moderazione dei contenuti. La normativa Ue impone alle aziende l’obbligo minimo di rivelare i rischi percepiti, di comunicare cosa intendono fare per ridurli e di consentire accesso ai dati utili a determinare se stiano effettivamente facendo progressi. Negli Stati uniti il pubblico non ha ancora nessuno di questi diritti. L’unico cambiamento recente è stato l’allarme lanciato dal ministero della Sanità. Per rendere l’idea, dagli anni 60 ci sono stati meno di 15 avvisi di questo tipo, tutti su argomenti che oggi considereremmo momenti chiave nella storia della salute pubblica, come il legame fra sigarette e cancro, le cinture di sicurezza salvano vite, i benefici dell’allattamento al seno. Tutte questioni attorno a cui vi era ambiguità prima che il governo intervenisse, rendendole incontrovertibili. E normalmente tali annunci precedono di un paio di anni riforme normative importanti.

Intanto nemmeno le piattaforme stanno ferme, vedi il lancio di Threads da parte di Meta per competere con Twitter.
Penso che la concorrenza sia sempre buona. La cosa che mi innervosisce un po’ di Threads è che quando Facebook dice cose del tipo: «Vogliamo che Threads sia un posto più felice»,mi piacerebbe davvero sapere cosa pensano che mi renda felice? E se non conosciamo il funzionamento degli algoritmi, la cosa ci dovrebbe preoccupare. Quando Mark Zuckerberg dice: «Non vogliamo che i thread riguardino la politica e l’attualità, penso che questo dovrebbe farci riflettere perché la discussione politica a volte non è piacevole, ma è necessaria. Non puoi impostare Threads in modo che ti mostri solo i contenuti dei tuoi amici. Devi passivamente accettare tutto ciò che Facebook ti mostrerà, qualunque cosa Meta vorrà fornirti, senza poterlo ordinare ordinarlo cronologicamente. Devi metterti nelle loro mani e lasciare che l’algoritmo guidi la tua esperienza. Chiunque controlli l’algoritmo impone gli argomenti della conversazione, crea intenzionalmente un’esperienza in cui ha ancora più potere e controllo di prima.

La sua opinione di Mark Zuckerberg?
Provo molta empatia per Mark perché credo che non abbia potuto maturare emotivamente. Sono convinta che gli sia nuociuto avere il controllo univoco di Facebook dall’età di 19 anni, e – a differenza di Larry Page e Sergei Brin a Google -, non essersi dovuto mai confrontare con un pari. Nel caso di Mark esiste un’intera infrastruttura il cui unico scopo è dargli ragione. La gente che lo circonda è li per convalidarlo, confermare il concetto che sia un genio incompreso. Tutta gente che guadagna enormi somme di denaro per questo. Ha il beneficio di fondi illimitati, non è stupido, potrebbe eradicare la malaria… invece ha lanciato Threads. Di cosa parliamo?

Quale è stato l’effetto di TikTok sui social?
L’arrivo di TikTok ha dimostrato che se disponi di un buon algoritmo non hai bisogno di un social network vero e proprio, di una rete di persone da cui ricevere contenuti. Se fornisci “in automatico” ai tuoi utenti contenuti che li intrattengono, loro si collegheranno per averne di più. E così è molto più facile far crescere il tuo sistema. Anche prima di Threads c’erano un certo numero di startup che promettevano: «Sarò il TikTok dell’audio. Sarò il TikTok dei testi brevi», ecc. Il problema è che ogni singolo algoritmo ha un pregiudizio. Il loro funzionamento fa sì che gli utenti non vedano tutto, ma solo alcune cose. E a meno che non si impongano requisiti legali sulla trasparenza, siamo alla mercé di chiunque detenga l’algoritmo. E Threads sta approfittando dei vantaggi offerti dall’algoritmo di TikTok. Non c’è alcuna aspettativa di “ascoltare” i tuoi amici, puoi semplicemente affidarti al divertimento fornito dai grandi influencer.

Insomma, non ci stiamo muovendo nella direzione giusta?
Nel libro cerco di affrontare questo problema: quali sono i valori che vorremo veder riflessi nei nostri social media? Perché in questo momento abbiamo una postura “agnostica”, diciamo semplicemente che sono aziende private e quindi possono fare quello che vogliono. Non stiamo riconoscendo che questi sono ora i luoghi principali in cui molte persone vivono la loro socializzazione, e che sono causa di effetti tangibili. In Usa la gente va meno in chiesa, si iscrive meno ai dopo lavoro, sottofinanziamo i centri comunitari. Ci sono molte persone per cui i social media sono l’unico posto in cui possono socializzare. Eppure, lasciamo che queste società private, che a volte sono controllate da una sola persona, gestiscano questi elementi vitali dell’infrastruttura sociale. Dovremmo dire: «Ehi, prima di tutto, sono un essere umano. Merito di essere trattato con dignità e rispetto. E dovresti dimostrare di apprezzare la mia autonomia». Ora che stiamo mettendo una parte sempre maggiore della nostra economia e della nostra società nelle mani dei computer, quali sono i controlli e gli equilibri che vanno di pari passo? Il rischio è una concentrazione economica e di potere sempre più accentuata. A meno di non decidere che gli esseri umani contano e la tecnologia esiste per servirli. Dobbiamo capire che la trasparenza dei sistemi è essenziale e che è importante aggiornare leggi e norme in questo senso, se vorremo riequilibrare il rapporto asimmetrico che abbiamo con le piattaforme che utilizziamo, soprattutto in prospettiva del ruolo prossimo venturo dell’intelligenza artificiale.