Già il 25 febbraio, sulle piattaforme social prendeva forma una delle prime leggende metropolitane della guerra: quella del fantasma di Kiev, pilota ucraino sconosciuto che abbatteva due jet russi sopra la capitale – e veniva esaltato nelle didascalie per averne distrutti ben 6. Nel giro di poco è emersa la verità: il video non era altro che la manipolazione delle immagini di un videogioco, Digital Combat Simulator – ma in particolare su TikTok è stato condiviso milioni di volte, e basta una rapida ricerca per scoprire che si può ancora facilmente trovare sulla piattaforma, senza «label» che informino gli utenti della sua reale provenienza.

Di proprietà della compagnia cinese ByteDance, disponibile su iOs e Android dal 2017, TikTok ha già più di un miliardo di utenti ed è il social network in più rapida crescita, quello di cui Zuckerberg cerca di «carpire i segreti» per riportare l’engagement giovanile sulle sue piattaforme.

E anche quello sul quale la disinformazione e i fake hanno circolato in modo più incontrollato dallo scoppio della guerra in Ucraina. A marzo, un’indagine di NewsGuard ha rivelato che un utente appena iscritto sul social impiega in media 40 minuti – senza aver espresso alcuna preferenza, like, o interazione con altri utenti, ma solo soffermandosi a guardare contenuti relativi al conflitto in corso – prima di venire bombardato da video falsi, manipolati, di propaganda e disinformazione.

E solo pochi giorni fa l’associazione per i diritti digitali AccessNow denunciava come TikTok fosse ancora «inondato» da video manipolati, falsificati, decontestualizzati oltre che di vera e propria propaganda e disinformazione russa. Ne abbiamo parlato con Anastasiya Zhyrmont, referente regionale per l’Europa Centrale di Access Now.

Al 47esimo giorno di guerra, cosa è cambiato nell’atteggiamento di Tik Tok verso la disinformazione?

Un primo passo per arginare la disinformazione è stato di disattivare le funzioni di livestreaming e di upload di nuovi video dalla Russia. Ma in un comunicato ufficiale Tik Tok ha detto che si tratta di una precauzione per tutelare il proprio personale e gli utenti dalla legge russa sulle «fake news», e inoltre il provvedimento non ha avuto molto successo: gli utenti russi caricano ancora video, fra cui molti di disinformazione. Sospettiamo che per aggirare il blocco si servano di sim card straniere, o che facciano il downgrade di Tik Tok alla versione precedente, quando ancora non era in vigore il ban. E alle autorità russe non interessa affrontare questi espedienti, anzi è plausibile che vengano ritenuti utili proprio per continuare a diffondere propaganda.

C’è poi da dire che disconnettere Russia e Bielorussia dall’internet globale è un’arma a doppio taglio, che con l’intento di limitare propaganda e fake finisce per ostacolare cittadini e istituzioni intenzionati a informare e essere informati su ciò che accade. Ci sorprende che questa sia una strada percorsa non solo dai governi, ma anche dai giganti tecnologici proprio come TikTok.

Lo stesso Zelensky nei suoi appelli menziona esplicitamente i tiktoker invitandoli a diffondere informazioni veritiere in Russia – cosa non semplice da fare se le piattaforme verranno oscurate completamente. E naturalmente i fake, come nel caso del «fantasma di Kiev», vengono anche dall’Ucraina, mentre un altro problema enorme sono gli utenti che cercano di sfruttare la situazione per trarne profitto, ad esempio richiedendo donazioni per iniziative umanitarie inesistenti: una vera e propria frode contro la quale ancora una volta Tik Tok non fa nulla. Nonostante non si tratti di problemi nuovi: questa crisi, e la disinformazione che porta con sé, è cominciata nel 2014.

Un altro problema è rappresentato dalle risorse destinate alla moderazione dei contenuti.

Tik Tok ha dichiarato pubblicamente l’intenzione di raddoppiare gli sforzi per eliminare le fake news, collaborando con organizzazioni di fact checking e dedicando più risorse alla moderazione dei contenuti in russo e ucraino. Ma anche da questo punto di vista non sembrano esserci stati grossi cambiamenti, sia per la difficoltà legata alla moderazione dei contenuti video che per il funzionamento stesso dell’algoritmo di Tik Tok, «refrattario» alla moderazione.

Non abbiamo modo di conoscerlo in dettaglio, ma ciò che sappiamo è che funziona diversamente da quelli degli altri social: non è basato sulle raccomandazioni degli amici, sul contesto dell’utente, sulla cronologia – non ci sono indicazioni su quando i video sono stati girati e caricati sulla piattaforma. Anche se un altro passo compiuto dalla compagnia dall’inizio della guerra, sulla scia di quanto fatto da Meta – il cui algoritmo è tenuto altrettanto segreto, ma che a mio parere ha almeno cercato rispetto a Tik Tok di affrontare la situazione – è stato quello di etichettare i contenuti che vengono da utenti e canali controllati dallo stato.

Riesce però difficile credere che Facebook, dopo essere stato un agente distruttivo nei processi democratici occidentali così come in crisi in tutto il mondo, si sia ora “ravveduto”.

Infatti ci sono problemi anche su quel fronte, a partire dalle deroghe sulla moderazione dei contenuti – qualora vengano da cittadini ucraini e siano rivolti alla Russia – per quanto riguarda quella che altrimenti sarebbe considerata incitazione alla violenza. E un’altra deroga inquietante è stata quella che ha legittimato la presenza sul social nework dei contenuti del battaglione Azov. Eccezioni che non erano state fatte per altri conflitti, come quello in Siria. E anche sulle piattaforme Meta la moderazione è ostacolata dalla mancanza di personale che conosca il russo e l’ucraino: nonostante i proclami non sono state fatte nuove assunzioni e nuovi investimenti. Per tutti i social il cambiamento più necessario è quello in direzione della trasparenza: dovremmo poter essere in grado di non fare speculazioni quando parliamo di algoritmi, ma chiare analisi del perché gli utenti vengono indirizzati verso certi contenuti.