Kenya. Meta est poursuivie à hauteur de 1,5 milliard d’euros pour avoir alimenté la violence ethnique en Éthiopie
Meta doit réformer ses pratiques commerciales afin de faire en sorte que les algorithmes de Facebook cessent d’amplifier la haine et d’alimenter les conflits ethniques, a déclaré Amnistie internationale le 14 décembre 2022, alors qu’une action en justice inédite vient d’être intentée contre Meta devant la Haute Cour du Kenya.
Les plaignants font valoir que Meta a encouragé des discours qui ont donné lieu à des violences ethniques et à des homicides en Éthiopie, en s’appuyant sur un algorithme qui donne la priorité aux contenus haineux et violents sur Facebook et les recommande. Les requérants souhaitent que les algorithmes de Facebook cessent de recommander ce type de contenus aux utilisateurs et utilisatrices, et que Meta crée un fonds pour les victimes à hauteur de 1,5 milliard d’euros. Amnistie internationale se joint à six organisations juridiques et de défense des droits humains en tant que parties intéressées dans cette affaire.
« La diffusion de contenus dangereux sur Facebook est au cœur de la quête de profit de Meta, car ses systèmes sont conçus pour maintenir les gens connectés sur la plateforme. Cette action en justice est une étape importante en vue d’amener Meta à rendre des comptes pour son modèle économique délétère », a déclaré Flavia Mwangovya, directrice adjointe pour l'Afrique de l'Est, la Corne de l'Afrique et les Grands Lacs à Amnistie internationale.
L’un des membres du personnel d’Amnistie internationale dans la région a été pris pour cible à la suite de publications sur la plateforme de réseaux sociaux.
« En Éthiopie, les habitant·e·s comptent sur les réseaux sociaux pour lire les nouvelles et les informations. Du fait de la haine et de la désinformation sur Facebook, les défenseur·e·s des droits humains sont aussi devenus la cible de menaces et de campagnes de haine. J’ai vu de mes propres yeux comment la dynamique sur Facebook a nui à mon travail de défense des droits humains et j’espère que cette affaire permettra de rétablir l’équilibre », a déclaré Fisseha Tekle, conseiller juridique à Amnistie internationale.
Fisseha Tekle est l’un des requérants portant cette affaire en justice, après avoir subi un flot de messages de haine sur Facebook pour son travail dénonçant les violations des droits humains en Éthiopie. Ressortissant éthiopien, il vit désormais au Kenya, craignant pour sa vie et n’osant pas retourner en Éthiopie voir sa famille à cause de l’avalanche de messages au vitriol dont il est la cible sur Facebook.
Des lacunes mortelles
Cette action en justice est également portée par Abraham Meareg, le fils de Meareg Amare, professeur à l’Université Bahir Dar, dans le nord de l’Éthiopie, qui a été pourchassé et tué en novembre 2021, quelques semaines après que des messages se sont répandus sur Facebook incitant à la haine et à la violence à son encontre. Il semblerait que Facebook n’a supprimé les publications haineuses que huit jours après le meurtre du professeur Meareg Amare, alors que sa famille avait alerté l’entreprise plus de trois semaines auparavant.
Le tribunal a été informé qu’Abraham Meareg craint pour sa sécurité et demande l’asile aux États-Unis. Sa mère, qui a assisté au meurtre de son mari et a fui à Addis-Abeba, est gravement traumatisée et hurle chaque nuit dans son sommeil. La maison de la famille à Bahir Dar a été saisie par la police régionale.
Les publications nocives visant Meareg Amare et Fisseha Tekle n’étaient pas des cas isolés. L’action en justice assure que Facebook est inondée de publications haineuses, dangereuses et incitant à la haine dans le contexte du conflit éthiopien.
Meta utilise des systèmes d’algorithme basés sur l’engagement pour alimenter le fil d’actualités, le classement, les recommandations et les fonctionnalités de groupes, façonnant ainsi ce que l’on voit sur la plateforme. Meta gagne de l’argent lorsque les utilisatrices et utilisateurs de Facebook restent sur la plateforme le plus longtemps possible, en vendant des publicités très ciblées.
L’affichage de contenus incendiaires – notamment ceux qui prônent la haine, constituant une incitation à la violence, à l’hostilité et à la discrimination – est un moyen efficace de garder les gens plus longtemps sur la plateforme. Aussi la promotion et l’amplification de ce type de contenus sont essentielles au modèle économique de Facebook fondé sur la surveillance.
D’après des études internes remontant à 2012, Meta savait que ses algorithmes pouvaient déboucher sur des préjudices graves dans le monde réel. En 2016, les recherches de Meta ont clairement reconnu que « nos systèmes de recommandation font prospérer le problème » de l’extrémisme.
En septembre 2022, Amnistie internationale a analysé la manière dont les algorithmes de Meta ont amplifié et promu de manière proactive des contenus incitant à la violence, à la haine et à la discrimination à l'encontre des Rohingyas au Myanmar et augmentant considérablement le risque d'une explosion de violence de masse.
« De l’Éthiopie au Myanmar, Meta savait ou aurait dû savoir que ses systèmes algorithmiques alimentaient la diffusion de contenus haineux entraînant de graves préjudices dans le monde réel, a déclaré Flavia Mwangovya.
« Meta s’est montrée incapable d’agir afin d’endiguer ce tsunami de haine. Les gouvernements doivent se mobiliser et mettre en œuvre une législation efficace pour freiner les modèles économiques fondés sur la surveillance des géants technologiques. »
Un deux poids deux mesures mortel
Selon cette action en justice, il existe une disparité dans l’approche de Meta concernant les situations de crise en Afrique par rapport à d’autres régions du monde, en particulier l’Amérique du Nord. L’entreprise a la capacité d’appliquer des ajustements spéciaux à ses algorithmes pour supprimer rapidement les contenus incendiaires en cas de crise. Toutefois, bien qu’ils soient déployés ailleurs dans le monde, selon les requérants, aucun de ces ajustements n’a été mis en place durant le conflit en Éthiopie, ce qui a permis aux contenus haineux de continuer de proliférer.
Les documents internes de Meta divulgués par la lanceuse d’alerte Frances Haugen, connus sous le nom des « Facebook Papers », ont montré que l’entreprise qui pèse 300 milliards de dollars américains ne disposait pas d’un nombre suffisant de modérateurs de contenu maîtrisant les langues locales. Un rapport du conseil de surveillance de Meta a aussi exposé ses inquiétudes quant au fait que l’entreprise n’avait pas investi de ressources suffisantes dans la modération de contenus dans des langues autres que l’anglais.
« Meta n’a pas dûment investi dans la modération des contenus dans les pays du Sud, et la propagation de la haine, de la violence et de la discrimination touche donc de manière disproportionnée les communautés les plus marginalisées et opprimées à travers le monde, et particulièrement dans les pays du Sud. »