Secondo un rapporto appena pubblicato dalla società di ricerche Graphika una rete di account fasulli ha criticato Trump su più piattaforme e trasmesso immagini positive del candidato presidenziale democratico Joe Biden solo per attaccare la Casa Bianca.

La rete di account, che Graphika ha chiamato “Spamouflage Dragon” per l’apparente vicinanza al governo cinese, ha diffuso video critici sul governo americano relativi sia all’ordine esecutivo che impone alla cinese Bytedance di vendere TikTok, che alla cattiva gestione della pandemia da parte di Trump, e alla brutalità della polizia americana. Usando YouTube, Facebook e Twitter, il burattinaio dietro l’operazione ha utilizzato gruppi di account falsi per condividere e commentare i video, dando l’impressione di un consenso genuino intorno a quei post. E, per renderli credibili ha anche usato account con immagini di profilo generate da strumenti di intelligenza artificiale.

Per Graphika, che è la stessa società che ha fornito al Congresso americano le prove della manipolazione politico-elettorale condotta da Cambridge Analytica attraverso Facebook, il gruppo Spamouflage (crasi di spam e camouflage) è anche autore di molte fake news che denigrano i manifestanti pro-democrazia di Hong Kong.

Il comportamento di Spamouflage Dragon ci deve far riflettere sui motivi dell’efficacia della disinformazione. Tra questi, il primo è che le persone non sanno riconoscere le fake news perché si informano poco e non confrontano le fonti di informazione; il secondo è che al contrario di quello che avviene coi virus, le persone non si difendono dalle fake news per conformismo; il terzo è che i software che producono fake news sono sempre meno distinguibili dagli umani.

In particolare i messaggi della propaganda computazionale che si ripetono con poche o nessuna variazione, vengono spesso recepiti “senza filtro” per la credibilità dedotta dalla “somiglianza” fra gli interlocutori. Ma si fanno strada innanzitutto grazie alle persone che conosciamo, familiari e amici, perché “vogliono il nostro bene” e non ci direbbero mai una bugia, oppure perché condividono il nostro credo politico e religioso. Inoltre tendiamo a credere alle fake news per giustificare la scelta di votare leader politici che usandole rafforzano con noi un legame basato su convinzioni comuni che non mettiamo in discussione per rispetto del principio di autorità. Lo stesso accade con siti e giornali per il principio di autorevolezza: “loro le cose le sanno”, e nessuno o quasi accetta l’idea che il “nostro” giornale sia una macchina di produzione del consenso.

Così, nonostante l’utilità degli sforzi di giornalisti, governi e agenzie come il Poynter Institute, non basta neppure più denunciare le fake news e la manipolazione delle percezioni condotta attraverso la loro diffusione, per fermarle. L’infodemia, la disinformazione da Coronavirus, ne è un esempio.

Da quando esistono social media e intelligenze artificiali le fake news sono diventate un problema cibernetico: una volta digitalizzate sono riproducibili a costo zero, si propagano velocemente sulle reti digitali e i suoi autori sono generati via software come i chatbot.

Una storia ben raccontata da Viola Bachini e Maurizio Tesconi nel loro libro Fake People. Storie di social bot e bugiardi digitali, appena pubblicato da Codice Edizioni.

I due studiosi dedicano un intero capitolo ai bot che hanno attaccato il Presidente Mattarella, dopato la candidatura di Salvini sui social e spinto i 100mila follower fasulli di Renzi, i cosiddetti “amplification bots”.