Meta, di cui fa parte anche Facebook, è sotto accusa dal 13 dicembre per il ruolo svolto nel massacro etnico di Etiopia, dove avrebbe contribuito ad infiammare l’odio nella guerra in corso nel paese. Nonostante l’accordo di pace appena raggiunto, la violenza interna non è affatto diminuita.
La causa parte dall’Alta corte del Kenya e, oltre ad essere sostenuta dal gruppo Foxglove, vede tra i suoi principali promotori due ricercatori etiopici. Per le vittime è stato chiesto un fondo di 2 miliardi di dollari.
Fa scandalo, in particolare, il caso dell’uccisione di un accademico etiopico che, come denunciato dal figlio Abrham Meareg, era stato diffamato e reso identificabile e rintracciabile da alcuni post di Facebook.
L’algoritmo infatti, non sarebbe abbastanza avanzato da rimuovere e bloccare tempestivamente tutti i contenuti che incitano all’odio. Addirittura, c’è l’ipotesi che l’attuale algoritmo spinga di più questo tipo di condivisioni in quanto generano più interazione tra gli utenti.
Nonostante i responsabili di Meta smentiscano questa inefficienza, per la piattaforma non è la prima volta. Solo nell’ultimo anno sono piovute accuse da diverse parti del mondo. Sempre in Kenya, il ruolo di Facebook è stato molto criticato poco prima delle ultime elezioni, lo scorso agosto. La Commissione nazionale per la coesione e l’integrazione (Ncic) lo aveva ritenuto colpevole di soffiare sul fuoco di un clima politico già molto teso.
Un altro caso riguarda la vicina Somalia, dove Meta continua a svolgere un ruolo sostanziale nella diffusione di contenuti e video del gruppo terroristico di al-Shabaab. Non solo gli account jihadisti non vengono bloccati, ma viene anche permesso loro di fare autopromozione.
Uno studio pubblicato nel 2021 su questo fenomeno ha riportato dati inquietanti. Sono stati rintracciate almeno 30 pagine su Facebook di propaganda ufficiale del gruppo jihadista, affiliato ad al-Qaida, con decine di migliaia di followers.
Sempre di quest’anno è poi il report di Amnesty International sul coinvolgimento di Meta nelle atrocità commesse in Myanmar, a partire dal 2017, ai danni dei Rohingya, come risultato di una vera e propria campagna di pulizia etnica. Si legge nel report: «Mentre l’esercito del Myanmar commetteva crimini contro l’umanità contro i Rohingya, Meta approfittava della camera d’eco creata dai suoi algoritmi a spirale d’odio».
Il problema è serio e impone a Meta di prendere in seria considerazione una revisione sostanziale nel suo algoritmo, soprattutto quando si tratta di diffusione di odio etnico, terrorismo e zone di conflitto. (AB)