Nettoyer les réseaux sociaux: un métier traumatisant

Teaser

C'est une première: Facebook a accepté de verser 52 millions de dollars aux modérateurs de contenus pour compenser les problèmes de santé mentale qu'ils recontrent à cause de leur travail. Leur job? Filtrer - à bas prix - les contenus impubliables. Ils sont confrontés tous les jours à des images de torture, de violence et de pornographie. Enquête.

Selena Scola, une ancienne modératrice, a décidé de porter plainte contre Facebook en septembre 2018. Elle reprochait au géant californien de ne pas protéger correctement ses employés (directs ou via des sous-traitants) chargés de retirer les contenus qui enfreignent les règles de la plateforme. Cette dernière a déclaré avoir développé un syndrome de stress post-traumatique après neuf mois à nettoyer des vidéos et des images extrêmement violentes.

«Tous les jours, les utilisateurs de Facebook diffusent des millions d'images ou de vidéos en direct d'abus sexuels sur des enfants, de viols, de torture, de bestialité, de décapitations, de suicides et de meurtres», relatait la plainte. «Pour maintenir une plateforme aseptisée, maximiser ses profits déjà conséquents et soigner son image publique, Facebook se repose sur des personnes comme Mme Scola - les modérateurs de contenus - pour visionner ces posts et retirer tous ceux contraires à ses règles». En guise de compensation, le réseau social de Mark Zuckerberg a accepté de verser 52 millions de dollars à plus de 11 000 modérateurs, qui vont recevoir au moins 1 000 dollars chacun. Retour sur un métier particulièrement traumatisant.

L’histoire est sordide. Le 16 avril 2017, un homme du nom de Steve Stephens abattait froidement Robert Godwin Sr, un septuagénaire qu’il ne connaissait pas et qui rentrait d’un repas de famille, à Cleveland en Ohio. Un crime qu’il avait annoncé une poignée de minutes avant de passer à l’acte, dans une vidéo postée sur son compte Facebook où il expliquait “son envie de tuer”. Stephens y affiche ensuite une seconde vidéo, où on le voit assassiner l’homme de 74 ans face caméra, pour enfin se gargariser de son geste en direct sur le réseau social. Un “live” glaçant où il affirme avoir déjà fait treize victimes et préparer sa quatorzième. Il se donnera la mort deux jours plus tard.

Se pose alors une question, primordiale: comment la diffusion d’un meurtre est-elle possible sur Facebook? D’autant que l’attente entre la diffusion de la vidéo et la réaction du géant des réseaux sociaux est longue, très longue, pour tous les yeux confrontés à cet assassinat. En tout, il faudra deux heures avant que l’une des connaissances du meurtrier présumé ne se décide à signaler le post. Le compte sera finalement désactivé 23 minutes plus tard. Sachant qu’il faut en moyenne 72 heures pour qu’un signalement soit traité par le réseau social, cela aurait pu être pire. Trois jours entiers: le délai est immense et à la fois minime pour Facebook, qui comptait à l'époque 1,86 milliard de personnes inscrites. Un peu moins d’un tiers de la population mondiale.

Fantasme de la Silicon Valley

Pour contrôler les contenus postés par tous ses utilisateurs, la plate-forme de Mark Zuckerberg fait appel à une armée de modérateurs. Ici, pas question de parler d’algorithmes, mais bien d’humains. Ils sont des centaines à visionner toutes les vidéos et les photos postées pour ensuite décider de leur attribuer la carte “appropriée” ou non et ce 24h/24 et sept jours sur sept. Une méthode de contrôle utilisée par tous les réseaux sociaux. Des modérateurs qui en sont la colonne vertébrale. Pourtant, ces derniers travaillent souvent à des milliers de kilomètres du siège de la boîte à qui ils prêtent leurs yeux et sont loin de profiter des avantages de la Silicon Valley. Les open spaces ultra-design, les cantines gratuites et les parties de ping-pong caractéristiques de l’ambiance “ à la cool ” censée y régner ne sont pour eux qu’un vague fantasme. Sans parler des salaires et des couvertures sociales qui vont avec. Eux, ils travaillent plutôt de leur chambre, pour des sous-traitants.

Ces modérateurs, on les retrouve majoritairement aux Philippines, en Angleterre, en Inde, au Maroc, en Roumanie… À l’image d’Alina. Très sympathique, la jeune femme nous indique qu’une grande partie de ses amis fait le même métier qu’elle. Elle précise toutefois qu’ils se connaissaient à l’origine, qu’ils ne se sont pas rencontrés dans un bureau. Et pour cause, Alina est free-lance et bosse dans son salon. Son quotidien consiste en une tâche bien précise: contrôler les contenus disponibles sur les réseaux sociaux, que ce soit Facebook, Instagram, Twitter, YouTube, Tumblr, Snapchat, Google+, etc. “ Je me réveille habituellement cinq minutes avant mon shift, je me fais un café et j’ouvre mon ordinateur. J’essaie d’avoir un environnement de travail agréable, je mets toujours des fleurs sur mon bureau, des photos que j’apprécie…

Une manière de se préserver face aux horreurs qu’elle voit toute la journée. Car c’est à Alina et à ses centaines de collègues que revient la tâche de nettoyer les réseaux sociaux afin qu’ils restent un endroit agréable d’échange entre amis. Un espace peuplé de vidéos de chatons, de montages inoffensifs et de débats d’idées. Les mauvaises pubs, les attaques commerciales, mais aussi les contenus pornographiques et pédopornographiques, les images de maltraitance animale, de blessures ouvertes et d’abus, eux, sont filtrés par la modératrice. Elle n’a pas de protection, elle y est exposée constamment. “ Avant de commencer ce job, on a une formation partielle où l’on nous montre plein d’images, comme un homme qui urine contre un mur et où l’on doit déterminer si ce contenu est publiable ou non. À l’époque, je me souviens que ça me faisait rire, je me disais que j’allais voir beaucoup de sexe en travaillant. Je n’aurais jamais cru voir tout le reste, du moins pas aussi souvent. Impossible d’imaginer la moitié de ce que les gens peuvent faire. Il y a vraiment des tordus… ” Un job plutôt mal payé qui soumet les salariés à un stress psychologique extrême sans réel soutien médical.

Burn-out à la clé

Dans la sphère d’Alina, qui travaille comme “Social Media Moderator” depuis un peu plus d’un an, quatre de ses amis ont déjà fait un burn-out. Pourtant, ils n’ont même pas 25 ans. “ C’est difficile de se réveiller le matin, sachant ce que l’on va voir en ouvrant son ordinateur. À un certain moment, tu ne vois plus les gens de la même façon, tu imagines tous leurs vices, tous leurs côtés sombres. Je me souviens d’un jour où j’ai vraiment failli craquer: quelqu’un avait posté une vidéo d’un chien qui se faisait torturer, il lui coupait ses membres avec un sécateur. Je me suis écroulée. Comment est-ce que l’on peut faire une chose pareille? ” Certains utilisateurs semblent désinhibés par l’anonymat. Pire, leurs pulsions sont exacerbées. C’est le cas par exemple des jeunes bourreaux de Valentin, 18 ans, qui a été torturé puis jeté dans la Meuse vivant

et menotté. Ces actes, d’une cruauté inouïe, ont été filmés et publiés sur Internet, comme pour se vanter du méfait commis. Des images qui sont difficiles à digérer. Dans certains cas, l’accumulation rend le job, puis la vie, impossible. C’est le cas de deux anciens modérateurs de Microsoft, qui ont été mis à pied et sont désormais inaptes à travailler. Et ce de manière irréversible. Ils ont décidé de porter plainte contre leur ancien employeur, espérant également lever le voile sur un job ingrat, mais nécessaire. Un emploi encore trop souvent caché du grand public.

Pourtant, la relation à ce travail émotionnellement dur est ambiguë. Au dégoût que provoquent certaines images vient parfois se substituer la fierté d’avoir empêché la diffusion de vidéos particulièrement gores, mais aussi d’avoir aidé les autorités à repérer les pédophiles ou, dans d’autres cas, d’avoir arrêté une tentative de suicide. C’est ce qu’explique Hicham. Il travaille en tant que modérateur depuis sept mois en Égypte. Ce jeune homme de 21 ans qui galérait à trouver un emploi stable malgré son diplôme en informatique, se satisfait d’avoir enfin trouvé un boulot. Pour l’obtenir, il se souvient avoir rempli un formulaire en ligne et répondu à différentes mises en situation, qui comprenaient notamment des conversations entre plusieurs protagonistes. “ Au début, c’était plutôt soft. On y lisait des posts où certaines personnes se plaignaient des marques. Un peu plus loin, il y avait une photo d’avant-bras. Il était détaché d’un corps, mais n’était pas sanguinolent. À ma grande surprise, ce contenu était “diffusable” pour la simple et bonne raison qu’on ne voyait pas de chair.

Si les lignes d’actions diffèrent en fonction des réseaux sociaux et des desiderata des clients, l’horreur, par contre, est invariable. Mais comme pour tout, on finit par s’y habituer. C’est du moins ce qu’explique Michael Baybayan, un Philippin qui travaillait pour le réseau social Whisper. Cette application un peu particulière propose à ses membres de partager anonymement leurs peurs, leurs petites déprimes et leurs fantasmes.

Des confessions d’ordre privé et des secrets parfois pesants qui se retrouvent, sans filtres, sur l’app. Les débordements sont vite arrivés. “ Avant de commencer à faire ce job, j’ai eu une formation de trois jours sur les mœurs et sur la culture américaine ” relate le jeune homme de 25 ans. Il fait partie de l’armée des modérateurs qui examinent a posteriori les contenus disponibles sur le web. “ Au début, c’est un peu étrange de passer sa journée à regarder des images à caractères sexuels ou d’autres contenus plus perturbants. Puis on s’y fait. D’une certaine manière, j’ai appris à aimer le job que je faisais, parce que je savais dans un coin de ma tête que j’avais un rôle primordial: empêcher que la communauté de Whisper ne soit confrontée à ces photos.

Décapitations

Une dévotion sans faille rétribuée 10 dollars pour une journée de 8 heures de travail. Voilà la principale raison de la sous-traitance de ces modérateurs, payés bien en deçà des standards américains ou européens. Pourtant, malgré la stabilité de ce premier job qui lui garantit des centaines d’heures de travail à venir, Michael finit par démissionner. “ Je n’en pouvais plus de voir tous ces posts qui montraient des suicides ou des décapitations. Je devais lire et regarder énormément de photos concernant ces sujets, et ce tous les jours. À la fin, ça m’a rendu malade. J’étais moi-même devenu dépressif. ” Une manière de préserver sa santé mentale.

Les mois ont passé, et le jeune homme affiche aujourd’hui une joie de vivre à toute épreuve. Malgré tous les contenus auxquels il a été confronté, son attitude reste extrêmement positive. Il affirme que ce n’est pas une façade. “ Ce job m’a appris l’importance de l’empathie, la nécessité de faire le bien. Je veux me focaliser sur les raisons qui poussent certaines personnes à agir de cette manière. Et puis à côté des posts dégradants et violents, il y a également du bon. Des gens qui racontent leurs vies, qui essayent de transmettre des conseils et qui se positionnent pour défendre des choses qui leur tiennent à cœur. Il y a encore de l’espoir dans l’humanité, j’en suis persuadé.

Plus de Actu

Notre Selection