Il «controllo totale» dell’algoritmo
Metaimperi Chi decide cosa vediamo sulle piattaforme? Fra profitto, rabbia e like il funzionamento opaco del «ranking system»
Metaimperi Chi decide cosa vediamo sulle piattaforme? Fra profitto, rabbia e like il funzionamento opaco del «ranking system»
Post di amici, pubblicità, meme virali, foto di gattini. Chi decide cosa vediamo quando entriamo su Facebook? Secondo la whistleblower Frances Haugen, proprio ciò che di più “malvagio” ci sia nella piattaforma: l’algoritmo. Nel 2021, il “news feed algorithm” è ormai in grado di raccogliere fino a 10.000 “segnali” sulle preferenze degli utenti: ciò che appare sulla nostra piattaforma è cucito su misura su di noi, sul modo in cui l’algoritmo ha interpretato le nostre preferenze, ha “dossierato” i dati che vanno da elementi banali della nostra identità – come il sesso o l’età – a particolari dettagliatissimi come le nostre reazioni a determinati post, quanto tempo passiamo a leggere un articolo, quali pubblicità attraggono la nostra attenzione. Un software talmente complesso da saper stabilire meglio dello stesso utente ciò che vuole – almeno secondo Facebook, che ne difende lo status di controllore assoluto dei contenuti che vediamo quando siamo collegati al social.
Il tipo di algoritmo che regola il news feed ha un’altra particolarità: apprende automaticamente, non è il personale umano a fornirgli i dati da elaborare – è “allenato” ad apprendere i pattern, stabilire connessioni, e in base ad esse operare delle scelte. Da tempo la sua opacità, il fatto che gli elementi alla base del suo funzionamento non siano di pubblica conoscenza, è uno degli argomenti più dibattuti su Facebook. Secondo la dirigenza della piattaforma, tenerlo nascosto consente di non dare ai «malintenzionati» una guida su come far arrivare in primo piano i propri contenuti. E il vicepresidente degli affari globali di Fb Nick Clegg ha detto che si deve all’algoritmo anche parte della moderazione dei contenuti “pericolosi” che altrimenti prolifererebbero ancor di più.
Ma dalle accuse rivolte a Facebook da Haugen e dai documenti da lei divulgati diventati noti come Facebook Papers emerge un panorama ben più complesso e inquietante. In primo luogo, come è evidente senza bisogno di whistleblower, in cima alle priorità della compagnia non c’è la sicurezza degli utenti o del processo democratico, ma il profitto. Ed è dunque la massimizzazione del guadagno a informare più di ogni altra cosa il funzionamento dell’algoritmo, che come scrive il Washington Post «scolpisce il panorama dell’informazione a seconda delle sue priorità di business». Benché infatti il software sia “auto-apprendente”, sono pur sempre gli esseri umani a fornirgli gli input necessari per sapere che dati prelevare e come elaborare i propri obiettivi.
Dal 2018, per esempio, il ranking system di Facebook (il sistema che assegna un punteggio ai contenuti postati sulla piattaforma e li fa salire verso l’alto o al contrario scivolare nell’oblio) è impostato per privilegiare quelle che Zuckerberg ha definito le «interazioni significative», laddove significative non sta per interessanti o importanti ma ha una connotazione puramente quantitativa: che suscitano più commenti, interazioni, reazioni – e cioè click, tempo passato su Facebook, soldi dagli inserzionisti. E spesso queste interazioni sono proprio quelle più divisive – «la rabbia e l’odio sono il modo più semplice per crescere su Facebook», ha detto Haugen. Non a caso la whistleblower è tra coloro che vorrebbero togliere all’algoritmo il controllo dei nostri news feed, una soluzione al centro di un disegno di legge bipartisan presentato pochi giorni fa sia alla Camera che al Senato Usa: il Filter Bubble Transparency Act, che darebbe agli utenti la possibilità di disattivare l’algoritmo e accedere al proprio news feed come era nei primi anni di vita della piattaforma: in semplice ordine cronologico.
I consigli di mema
Gli articoli dall'Archivio per approfondire questo argomento