Vous avez déjà essayé de poster une photo de maltraitance sur Facebook ? Non ? Ouais bah tant mieux parce que sinon j’appelais les flics direct. De toute façon, vous n’auriez pas pu parce que le réseau social se serait empressé de modérer votre contenu en le dégageant purement et simplement de la plateforme. Enfin quand je dis le réseau social, je veux dire un employé d’une entreprise sous-traitante du réseau social chargé, toute la journée, de visionner des contenus abominables pour éviter qu’ils ne soient vus par les utilisateurs. Autant vous dire que ça a pas l’air d’être un boulot marrant.

Ce sont des sous-traitants qui gèrent ça

Il existe des boîtes un peu partout aux Etats-Unis et en Europe qui sont spécialisées dans la modération de contenus pour les réseaux sociaux, notamment Facebook et Insta. Ces entreprises travaillent pour les réseaux sociaux et emploient des gens pour jeter un oeil à l’intégralité des contenus signalés afin de statuer sur leur conformité ou non avec la charte d’utilisation. Et c’est à partir de là que ça se gâte.

Les modérateurs regardent toute la journée des vidéos et des images infernales

Tout ce qui est susceptible de ne pas correspondre aux standards de la communauté doit être inspecté par les modérateurs. Dans le lot, il y a donc des filles dont on voit les seins (la partie pas traumatisante du travail) mais aussi des vidéos de suicide, de bébés violés ou de décapitations. En gros, Facebook distingue 4 types de contenus illicites : les discours de haine, la violence explicite, la nudité et la pédopornographie. Plouf plouf aujourd’hui ce sera un bébé congelé.

Y'a une stricte politique de confidentialité

Dans plusieurs entreprises spécialisées, les modérateurs sont embauchés sous le titre fallacieux de « conseillers clientèles ». C’est un problème dans la mesure où leur exposition à des violences en continu peut déclencher des risques psychosociaux importants qui ne sont pas couverts par cette appellation. L’autre problème pour ceux qui voudraient se tourner vers une autorité médicale ou institutionnelle est que les employés sont soumis à une stricte clause de confidentialité les empêchant de parler du contenu de leur travail à leurs proches.

La formation dure un mois

Le premier mois, les modérateurs sont formés à deux choses : d’une part l’apprentissage des guidelines de façon à pouvoir détecter presque automatiquement les contenus qui ne correspondent pas à la charte et doivent donc être supprimés, de l’autre la technique au travers d’exercices avec des contenus bien évidemment moins violents que la réalité de ce à quoi ils vont être confrontés. Et comme les directives des réseaux sociaux peuvent changer en fonction des époques et de l’actualité (on pense bien sûr aux fake news qui ont pris une ampleur considérable ces dernières années et ont nécessité un ajustement de la part de Facebook), il faut être capable de s’adapter en permanence.

Tu peux te taper jusqu'à 8000 visionnages par jour

Une employée a expliqué au Business Insider que c’était la fourchette haute, mais qu’elle n’était pas rare. Il va de soi que quand les employés sont engagés, ils ne s’attendent pas à pareille déchaînement de violence. Un modérateur d’une entreprise berlinoise expliquait que lors de son entretien le recruteur lui avait simplement assuré qu’il s’agissait de faire de l’argent facilement et que la seule qualité à avoir était « d’aimer les réseaux sociaux ». On a vu recruteurs plus sincères.

Tu appliques des consignes bêtes et méchantes

Il y a une forme de déshumanisation des modérateurs qui ne sont pas censés exercer leur esprit critique par rapport aux contenus qu’ils visionnent. Il faut appliquer les règles et la marge de manoeuvre individuelle des employés est minime, sinon nulle. Une forme de culture du blanc ou noir qui supprime les zones grises et rend assez compliqué un travail finalement fastidieux et peu valorisant.

Tu finis par être désensibilisé à la violence

Evidemment, les modérateurs (selon bien sûr leur sensibilité et le manque de bol qu’ils peuvent avoir) sont affectés par le visionnage d’autant d’horreurs. Certains finissent par développer une insensibilité qui les place un peu à côté de la vie, d’autres craquent complètement devant tant de violence.

Le secteur emploie énormément de monde

Il existe des dizaines et des dizaines d’entreprises de sous-traitance et le secteur est en pleine expansion. Chaque entreprise peut employer jusqu’à 5000 modérateurs, ce qui en fait des grosses PME quand même. C’est donc une industrie avec le vent en poupe et finalement assez peu d’encadrement légal. Les premiers rapports et articles afférents à ce métier datent de 2018.

Ça gagne pas lourd

Ca dépend évidemment des entreprises, mais en gros les mecs gagnent 25.000 par an aux Etats-Unis et 1300 par mois à Berlin. Le tout pour se taper des images d’horreur en continu.

Niveau politique anti-stress, on a vu mieux

Pour permettre aux employés de décompresser, les entreprises imitent les pratiques de la start-up nation. Mais le suivi des risques psychosociaux se limite à la mise à disposition d’une salle de yoga et à la valorisation des « attitudes gentilles » pour les employés qui déclarent souffrir de stress post-traumatique. Des mesures bien inférieures aux impondérables de la médecine du travail ; eh ouais mais on n’est pas en France en même temps.

Grosse ambiance. Et encore, ils n’ont pas eu à modérer les pires sites d’Internet.

Sinon, on parle aussi scandales de Facebook ici et pires jobs de l’Histoire là.

Sources : L’ADN, Slate, Le Monde