Facebook, come emerge dai documenti interni, in Etiopia ha risorse molto limitate per contrastare il diffondersi della disinformazione nonostante la presenza nel Paese di sette milioni di utenti e un ruolo rilevante nella vita pubblica. In primis l’algoritmo di Facebook non è in grado di comprendere tutte le lingue della federazione etiope. Gli strumenti di machine learning non sono in grado di classificare e cancellare contenuti violenti e di incitamento all’odio, inoltre, i partner in grado di operare il fact-checking (controllo dei fatti) non sono sufficienti.

Il problema dei Paesi come l’Etiopia è la complessità del controllo che richiederebbe importanti investimenti. I caratteri etnici e il peso che viene dato, anche attraverso i social, all’etnia determinano una bolla politica basata sull’etnicità. Facebook per sua natura collega persone con i medesimi interessi, non favorisce il confronto perché si nutre di like, ma la base etnica rende ancora più forte la bolla facendo venire meno anche quello che viene chiamato il controllo che gli utenti possono far scattare attraverso le segnalazioni (l’azienda ha ricevuto un basso numero di segnalazioni dagli utenti).

L’amplificazione del messaggio attraverso i social riprende il ruolo che hanno avuto le radio in Ruanda nel 1994. Le pagine Facebook in amarico, oromo e tigrino sono piene di messaggi di incitamento all’odio e di invito a prendere le armi (così come quelle di politici di primo piano). Pagine piene di informazioni, foto e video falsi. La società ha riconosciuto nel 2020 di avere capacità di moderazione insufficienti in amarico e che le barriere linguistiche hanno impedito agli utenti di segnalare contenuti problematici.

Miranda Sissons, direttrice della politica sui diritti umani di Facebook, ha sostenuto che l’allocazione delle risorse della piattaforma riflette le migliori pratiche suggerite dalle Nazioni unite e i suoi principi guida su imprese e diritti umani. «Anche nei paesi in cui Facebook ha investimenti limitati i sistemi dell’azienda scansionano regolarmente il mondo alla ricerca di instabilità politica o altri rischi di escalation della violenza in modo che l’azienda possa agire di conseguenza.

Alcuni progetti, come la creazione di nuovi strumenti di classificazione di messaggi di incitamento all’odio, sono costosi e richiedono molti mesi, ma altri interventi possono essere attuati in modo più rapido». Tuttavia, dai documenti interni dell’azienda emerge come il problema dei costi influenzi la sorveglianza della piattaforma: «Questi non sono compromessi facili da fare».

La massiccia diffusione dei documenti interni di Facebook dello scorso ottobre ha rivelato che la compagnia era stata avvertita già a marzo 2021 che la sua piattaforma veniva utilizzata da gruppi armati in Etiopia per incitare alla violenza contro le minoranze etniche. Facebook ha affermato di aver osservato gruppi di account affiliati a milizie che utilizzavano il social network per «seminare appelli alla violenza», ma ha preso atto che «le attuali strategie di mitigazione non sono sufficienti».