Les travailleurs africains affrontent Meta et le monde devrait faire attention | Droits des travailleurs
En 2025, la plus grande entreprise de médias sociaux au monde, Meta, a pris un nouveau ton provocant sur la question de savoir si et dans quelle mesure il accepte la responsabilité du préjudice réel que ses plateformes permettent.
Cela a été largement compris comme un gambit en faveur de Curry avec l’administration du président Donald Trump, et le méta-PDG et fondateur Mark Zuckerberg l’a tous dit dans une vidéo du 7 janvier annonçant la fin de la vérification des faits tiers.
“Nous allons travailler avec le président Trump pour repousser les gouvernements du monde entier, poursuivre les entreprises américaines et pousser davantage à censurer”, a déclaré Zuckerberg, donnant à ses décisions de produit une saveur géopolitique distincte.
Pour justifier les décisions de l’entreprise de supprimer la vérification des faits et de réduire la modération du contenu sur ses plateformes, Zuckerberg et Meta ont fait appel à la protection constitutionnelle des États-Unis du droit à la liberté d’expression. Heureusement, pour ceux d’entre nous qui vivent dans les pays, la méta a promis de «repousser», nous avons également des constitutions.
Au Kenya, par exemple, où je représente un groupe d’anciens modérateurs de contenu Meta dans un recours collectif contre la société, la constitution post-indépendance diffère de celles des États-Unis et de l’Europe occidentale avec sa priorisation explicite des droits et libertés fondamentaux de l’homme. Les constitutions d’un grand nombre de nations ayant des histoires coloniales le partagent en commun, une réponse à la façon dont ces droits ont été violés lorsque leurs peuples ont été pressés pour la première fois dans l’économie mondiale.
Nous commençons maintenant à voir comment ces constitutions peuvent être approuvées dans l’industrie technologique mondiale. Dans une décision historique en septembre dernier, la Cour d’appel kenyane a jugé que les modérateurs de contenu pouvaient porter plainte contre les violations des droits de l’homme contre Meta devant les tribunaux du travail du pays.
Peu en Occident auront compris l’importance de cette décision. Meta, pour sa part, le fait sûrement, c’est pourquoi il s’est battu contre les dents et les ongles devant les tribunaux et continue d’utiliser chaque outil diplomatique à sa disposition pour résister aux demandes de réparation des modérateurs de contenu. Meta a manifesté son intérêt à faire appel de cette décision à la Cour suprême.
Meta et d’autres grandes entreprises américaines maintiennent une architecture d’entreprise alambiquée pour éviter l’exposition aux taxes et à la réglementation dans les dizaines de pays où elles font des affaires. Ils prétendent généralement ne pas opérer dans des pays où ils comptent des millions d’utilisateurs et emploient des centaines pour affiner leurs produits. Jusqu’à présent, ces allégations ont rarement été contestées devant le tribunal.
Les modérateurs de contenu de l’affaire ont présenté au tribunal sont qu’ils ont été embauchés par une société d’externalisation des processus commerciaux (BPO) appelée SAMA, et que je suis au travail exclusivement en tant que modérateurs de contenu sur Facebook, Instagram, WhatsApp et Messenger pendant la période de 2019 à 2023, lorsqu’une grande partie de la modération pour le contenu africain sur ces plateformes a été effectuée à Nairobi. Meta désavoue ces travailleurs et insiste sur le fait qu’ils ont été employés uniquement par Sama, un problème actuellement litige devant les tribunaux au Kenya.
Ces travailleurs savent que l’inversion apparente de Meta sur la modération du contenu est tout sauf. Comme présenté dans leurs griefs à la Cour, la société n’a jamais pris la question au sérieux. Pas assez sérieusement pour arrêter les conflits civils et ethniques, la violence politique et les attaques de foule contre les communautés marginalisées qui prospèrent sur ses plateformes. Pas assez sérieusement pour payer un salaire équitable aux personnes chargées de s’assurer que ce n’est pas le cas. Le préjudice voyage dans les deux sens: le contenu toxique enflamme les horreurs du monde réel, et ces horreurs engendrent un contenu plus toxique qui sature les plateformes.
Les modérateurs de contenu sont le fourrage à canon numérique pour la méta dans une guerre contre le contenu nuisible que l’entreprise n’a jamais vraiment été déterminé à se battre. L’affaire présentée par les modérateurs de contenu Nairobi explique comment ils ont accepté les emplois qu’ils pensaient impliquer un centre d’appels et des travaux de traduction. Au lieu de cela, ils se sont retrouvés dans le Hub de modération du contenu de Meta à Nairobi, où ils ont passé leurs journées soumises à un torrent sans fin de violence et d’abus en diffusion.
Beaucoup d’entre eux ont été contraints de voir les atrocités commises dans leur pays d’origine afin de protéger les utilisateurs de Meta contre les dommages de voir ces images et séquences. Ils ont absorbé ce traumatisme afin que d’autres dans leurs communautés n’étaient pas eu à le faire, et beaucoup ont trouvé que c’était une noble vocation.
Mais ce travail a fait des ravages sur leur santé mentale. Plus de 140 anciens modérateurs de contenu ont reçu un diagnostic de SSPT, de dépression ou d’anxiété résultant de leur temps au travail. Un cas distinct explique comment les efforts de syndicalisation pour plaider pour de meilleurs soins de santé mentale ont été contrecarrés. Ce qui a suivi a été en masse et relocaliser la modération du contenu Facebook ailleurs.
Cela a laissé des centaines de personnes soutenues par des traumatismes et une trace de violations des droits de l’homme. Meta fait valoir qu’il n’a jamais utilisé les modérateurs de contenu Facebook et n’a accordé aucune responsabilité envers eux. Ce litige est en cours et les modérateurs s’appuient désormais sur les tribunaux pour démêler les complexités de leur dynamique de l’emploi.
Tout en combattant l’affaire devant le tribunal, en mars 2024, la société a envoyé une délégation dirigée par son président d’alors des affaires mondiales, Nick Clegg – un ancien vice-Premier ministre britannique – pour rencontrer le président kenyan William Ruto et les législateurs pour discuter, entre autres sujets, la vision de la société de partenariat avec le gouvernement pour apporter la «révolution généative de l’IA» au continent. Lors d’un événement Townhall en décembre, Ruto a assuré à Sama, l’ancien partenaire de modération de contenu de Meta: «Maintenant, nous avons changé la loi, afin que personne ne puisse jamais vous emmener en justice sur n’importe quelle question», faisant référence à un projet de loi adopté au Parlement du Kenya qui protège les grandes entreprises technologiques de futurs cas tels que les nôtres.
Tout ce recul s’est produit bien avant que Trump ne soit réélu, et ces efforts semblent être des tentatives pour échapper à la responsabilité des pratiques de travail de l’entreprise et des effets de ses produits. Mais quelque chose de remarquable s’est produit, ce qui ouvre une porte à d’autres dans le monde qui travaillent au nom de l’industrie technologique, mais que l’industrie elle-même se désavoue: la Cour a jugé que notre affaire pouvait procéder au procès.
Le fait que l’affaire ait avancé malgré des défis juridiques et politiques vigoureux témoigne de la nature révolutionnaire des constitutions post-coloniales, qui priorisent les droits de l’homme avant tout.
Alors que notre cas au Kenya se poursuit, j’espère que cela pourra s’inspirer des travailleurs technologiques dans d’autres pays post-coloniaux qu’ils peuvent également poursuivre la responsabilité dans les pays où ils ont été blessés. Le droit à la liberté d’expression est un droit humain important, mais nous continuerons à rappeler à la grande technologie que tout aussi importante sont le droit à la dignité et la liberté de l’exploitation.
Les opinions exprimées dans cet article sont les propres de l’auteur et ne reflètent pas nécessairement la position éditoriale d’Al Jazeera.