Dans l’indifférence la plus totale, les modérateurs de contenus travaillent dans des conditions difficiles. Entre dépression, burnouts, tentatives de suicides, sans oublier une extrême précarité, les modérateurs de contenus font face à une très grande détresse.
« Seriez-vous prêt à passer une heure par jour pendant un an à regarder ces vidéos et à agir comme un modérateur de contenu en ayant accès aux mêmes avantages dont bénéficient vos employés ? », interroge Katherine Porter, élue démocrate à la Chambre des représentants des États-Unis, à Mark Zuckerberg, fondateur de Facebook. « Je ne suis pas sûr qu’y passer autant de temps servirait vraiment à notre communauté », répond alors Mark Zuckerberg. « D’accord, alors vous dites que vous n’êtes pas prêt à le faire », conclut l’élue. Lorsque le PDG de Facebook, Mark Zuckerberg, refuse lui-même de réaliser le travail de modération sur sa propre plateforme, qu’en est-il des milliers qui réalisent cette tâche quotidiennement ?
En effet, des milliers de petites mains nettoient chaque jour les méandres des réseaux sociaux. On les appelle les modérateurs de contenus. « Supprimer, ignorer, supprimer, ignorer », le contenu signalé par les utilisateurs défile au clic de la souris. Telles des machines, les modérateurs de contenus trient des centaines de vidéos et autres images par jour. De la violence, de la pédophilie, du contenu pornographique, ils sont confrontés au pire d’Internet. Et cela, pour le compte de grandes entreprises telles que Facebook, Twitter, ou encore YouTube.
Entre sous-traitance et délocalisation
Le documentaire The Cleaners (2018), les nettoyeurs en français, réalisé par Moritz Riesewieck et Hans Block, retrace le parcours de ces personnes dont « nettoyer » les bas-fonds d’Internet est le quotidien. Dès leur recrutement, les grandes entreprises se déchargent de toute responsabilité concernant leurs conditions de travail. C’est notamment le cas de Facebook. Pour cela, l’entreprise américaine sous-traite tout le travail de modération à des multinationales ou petites compagnies dispersées un peu partout dans le monde. En Amérique du Sud, aux Philippines, en Inde, l’externalisation du travail de modération est devenue la norme. « Pour des raisons de coûts », explique Nikos Smyrnaios, enseignant-chercheur au laboratoire d’études et de recherches appliquées en sciences sociales à l’Université de Toulouse III et spécialiste de la question. « Recruter dans les pays occidentaux (USA, Europe) des salariés en interne signifie respecter un cadre légal, par exemple un salaire minimum, alors qu’en Inde ou aux Philippines vous les payez beaucoup moins », poursuit le chercheur. Nikos Smyrnaios avance également une autre hypothèse : la modération ne doit pas apparaître. Ainsi, « pour bien les cacher, il vaut mieux la sous-traiter », ajoute-t-il.
« Beaucoup sont dans des régions du monde où le travail est bon marché, en particulier aux Philippines et en Inde, à la fois loin de la plateforme pour laquelle ils travaillent mais aussi des utilisateurs qu’ils modèrent », détaille également Tarleton Gillepsie, chercheur pour Microsoft Research New England, dans son ouvrage Custodians of the Internet : Platforms, Content Moderation and the Hidden Decisions that Shape Social Media (Yale, 2018). « Ils sont également écartés de l’entreprise par leurs contrats de travail et les interfaces intermédiaires de travail en groupe qui les emploient et organisent leurs missions », ajoute-t-il. Se distancer donc se déresponsabiliser. À cela s’ajoute le fait que les utilisateurs eux-mêmes n’ont pas conscience que la modération est réalisée par des humains. « Et pour être juste, les utilisateurs ne s’en soucient pas non plus : il est plus réconfortant de simplement être libre de se connecter et de partager », explique Tarleton Gillepsie. Même son de cloche pour Nikos Smyrnaios, « les gens pensent qu’il y a des technologie automatisées », ajoute-t-il.
Le culte du secret et de l’invisibilité
Dès leur entrée dans l’entreprise, les futurs modérateurs de contenus doivent signer une clause de confidentialité. Grâce à cela, les entreprises et leurs sous-traitants assurent leurs arrières. Beaucoup de modérateurs de contenus interviewés mentionnent en effet ce fameux document. Impossible d’en avoir une copie. Malgré l’anonymat, les modérateurs de contenu craignent des poursuites. Et ce, même après avoir quitté l’entreprise. C’est dire la pression qui pèse sur leurs épaules.
« J’ai revu mon contrat et même si je n’y travaille plus, je ne suis pas encore autorisé à partager des informations concernant mon travail et mon entreprise », explique Sébastien* un ancien modérateur de contenu pour Facebook. Concernant les sous-traitants, « la clause de confidentialité dure jusqu’à notre dernier jour de travail dans la société », détaille Carole*, une autre modératrice de contenu en poste chez Arvato, un sous-traitant pour Facebook. « Ce sont des sociétés complètement opaques, elles ne veulent pas qu’on connaisse les règles de la modération », ajoute Nikos Smyrnaios.
« Nous pensons que chacun mérite les mêmes droits et la même dignité », est-il écrit dans les ‘Standards de communauté’ disponibles sur le site Internet de Facebook. Après la signature du contrat, les futurs modérateurs débutent alors une formation intensive pour apprendre à suivre les règles de modération de l’entreprise. Dans un article, le journal The Guardian relate justement les règles internes de Facebook concernant la modération de contenu. Par exemple, « Facebook permettra aux utilisateurs de diffuser en direct les tentatives d’automutilation parce qu’elle ne veut pas censurer ou punir les personnes en détresse » mais encore « en ce qui concerne la violence non sexuelle envers les enfants, Facebook déclare : ‘Nous n’agissons pas sur les photos de violences envers les enfants, nous ciblons des vidéos considérées comme troublantes et nous supprimons les passages où l’on peut voir des enfants êtres maltraités’.» Les règles sont assez floues et ainsi, certaines publications passent à travers les mailles du filet. Ce n’est pas sans rappeler le live stream de l’attentat de Christchurch, le 15 mars 2019, qui avait été interrompu au bout de 17 minutes. Le direct était visionné par plus de 200 personnes et repartagé sur différentes plateformes plusieurs jours encore après la tuerie. Concernant la modération en elle-même, les modérateurs gèrent du contenu dans leur langue d’origine. « Ils embauchent des personnes expertes dans une langue et capables de modérer du contenu dans cette langue », explique Léo*, un ancien employé de Facebook.
9 minutes par jour pour pleurer
« Selon un rapport en ma possession, tout droit sorti d’un épisode de ‘Black Mirror’, ces travailleurs ont neuf minutes de ‘temps de bien-être supervisé’ », détaille Katherine Porter lors de l’audience. « En clair, neuf minutes pour pleurer dans l’escalier pendant que quelqu’un les regarde », conclut l’élue. En effet, les modérateurs de contenus font face à une très grande détresse psychique et mentale. Certains développent des syndromes de stress post-traumatique (PTSD) tant le contenu qu’ils voient quotidiennement est traumatisant, et ce, sans véritable suivi médical de la part de l’entreprise ni de son sous-traitant.
C’est notamment le cas de Selena Scola, une ancienne modératrice travaillant pour Facebook qui a décidé de poursuivre le réseau social en justice. « La plaignante Selena Scola cherche à se protéger mais également à protéger ceux dans des situations similaires contre les dangers d’un traumatisme psychologique résultant de l’échec de Facebook à fournir un lieu de travail sûr », détaille la plainte. « Chaque jour, les utilisateurs de Facebook diffusent des millions de vidéos, d’images et d’émissions en direct de viols, d’enfants victimes de violences sexuelles, de torture, de bestialité, de décapitations, de suicides et de meurtres (…) Facebook compte sur des personnes comme Mme Scola – connue sous le nom de ‘modérateurs de contenus’ – pour visionner ces publications », est-il précisé.
« J’ai surtout supprimé de la pornographie et de la pornographie juvénile », témoigne Léo*. D’autres modérateurs de contenus tombent également en dépression en raison des cadences difficiles. C’est notamment le cas d’Alice*, une modératrice pour Competence Call Center, un sous-traitant de Facebook. « Nous sommes sur trois rotations différentes : 7-15h, 15-23h, 23h-7h », explique-t-elle. « C’est très difficile physiquement et mentalement. Nous avons tous des problèmes de sommeil, des difficultés à se nourrir correctement et très peu de vie sociale en dehors du travail ce qui crée une vague de dépression », ajoute-t-elle. À la question du suivi médical et de la mise en place d’une cellule psychologique par l’entreprise et son sous-traitant, Alice* n’a pas donné suite. « Dans ce milieu, il y a un taux très élevé de turn-over », conclut Nikos Smyrnaios.
4,62€ brut de l’heure
Malgré leur très grande détresse psychique, les modérateurs de contenus ont une marge d’erreur très limitée : sauter une image est par exemple une faute professionnelle. « Nous avons le droit à trois erreurs par mois », explique un modérateur de contenu philippin dans le documentaire The Cleaners. Trois erreurs par mois alors que les modérateurs visionnent en moyenne entre 15 000 et 25 000 images par jour. « On estime qu’un modérateur pour Google regarde environ 15 000 images par jour en comptant toutes les horreurs qu’on peut y trouver : de la pornographie infantile, des décapitations, etc. », développe Tarleton Gillepsie.
Nikos Smyrnaios évoque ainsi la « rationalisation du travail de modération ». En clair, la modération de contenu prend une cadence industrielle. « Comme dans les plateaux téléphoniques, il y a un chronomètre à respecter, il faut suivre des statistiques », détaille-t-il. Et ce, « pour moins de 13 000 dollars par an et pas de suivi médical s’ils quittent l’entreprise », lance Katherine Porter à Mark Zuckerberg. Dans un reportage de Cash Investigation diffusé en 2019 et intitulé Au secours, mon patron est un algorithme, un journaliste avait infiltré une antenne d’Accenture au Portugal, un énième sous-traitant pour Facebook. Au moment de l’enquête, les modérateurs de contenus pour Accenture étaient payés 4,62€ brut de l’heure soit la modique somme de 800€ par mois.
« Le travailleur est partagé entre la question de savoir s’il peut avoir assez de travail, si le salaire est suffisant pour subvenir aux besoins de sa famille, si une mauvaise évaluation à un seul poste l’empêchera d’évoluer dans des postes mieux rémunérés, s’il y a un quelconque recours si l’entreprise se retourne contre lui, s’il sera en mesure de payer une assurance maladie ce mois-ci », explique Tarleton Gillepsie. Autant de raisons qui laissent les modérateurs de contenus dans une très grande précarité. Les cadences intenables et la surexploitation les empêchent également toute perspective de chercher un autre emploi.
Cela profite évidemment aux entreprises. En effet, les modérateurs de contenus entraînent également l’intelligence artificielle (IA) à leurs dépens. Or, l’intelligence artificielle, une technologie, n’est pas en mesure de résoudre toute la problématique des modérateurs de contenus malgré les promesses de Mark Zuckerberg. « AI won’t relieve the misery of Facebook’s human moderators » (L’IA ne soulagera pas la misère des modérateurs humains de Facebook), titre ainsi un article de The Verge. Cela est difficilement envisageable pour Léo*, « je ne sais pas si l’IA peut s’en charger, mais il y a tellement de nuances, à savoir si quelque chose est mauvais ou pas, comme l’intention de l’utilisateur derrière son contenu », explique-t-il. Même constat pour Nikos Smyrnaios, « Le langage humain, ses modes d’expression (l’ironie, l’humour, etc.) ne sont pas compréhensibles par une machine », conclut-il.
« Nous voulons que chacun puisse être connecté et créer une communauté mondiale. Que chacun dans le monde puisse partager ce qu’il veut avec qui il entend », se félicitait Mark Zuckerberg lors d’une de ses interventions publiques. Créer une communauté mondiale mais à quel prix, lorsque des milliers de modérateurs de contenus travaillent dans des conditions inhumaines ?