La modération, un business d’avenir pour les centres d’appels ? Oui si l’on forme et protège les agents
L’élection 2021 de Miss France, au cours de laquelle des contenus racistes ont été émis et diffusés au sujet d’une candidate, April Benayoum, ont rappelé la nécessité de modérer les contenus qui fleurissent sur les réseaux sociaux et plateformes digitales. Jusque-là, les dirigeants de ces réseaux sociaux et les Gafa se sont réfugiés derrière une position simple: nous fabriquons et installons des tuyaux et ne sommes pas responsables de ce qui s’y dit. Un peu simple ? Convoqués à l’Élysée dans les dernières semaines, attaqués pour certains par quelques associations, qui leur reprochent leur déficit de volonté à modérer les contenus haineux ou illégaux, les représentants bien polis des Twitter, Facebook, Apple, etc. se sont bien rendus dans le palais présidentiel, après les nombreuses affaires, meurtres et autres attaques qui se sont multipliées en France et ont vu un professeur (Samuel Paty) des catholiques pratiquants mourir. Ce après que les réseaux sociaux ont servi, de façon manifeste à préparer ces meurtres ou à attiser la haine.
Qu’appelle-t-on modération, qui propose ce type de services et prestations ?
Spotlight, Chapitre 1
Une définition simple et efficace en est donnée sur le site web d’un prestataire américain spécialisé : « real time content review to filter unwanted content such as spam, indecent photos, profanity and illegal content. On web sites, forums, blogs and social media pages. » (Open Access BPO)
Automne 2019. Dans un communiqué adressé au journal The Verge, Cognizant, l’un des prestataires de service de modération de Facebook, annonce qu’il va cesser ses activités de modération de contenus. 6 000 postes seront supprimés. Cette déclaration fait suite à deux enquêtes de The Verge sur ce que seraient les conditions de travail des modérateurs.
Seraient, parce que même si les témoignages convergent, le métier et les pratiques demeurent très secrets (voir la reprise de l’interview de Sarah T. Roberts accordée au Monde).
Pourquoi ? C’est ce que nous avons tenté de comprendre en dressant le contour de ce nouveau métier, essentiel à l’économie digitale et souvent géré par des spécialistes venus du monde des call centers. La modération de contenus n’est pas nouvelle et remonte aux débuts des espaces interactifs en ligne, mais la commercialisation de sa pratique à un niveau industriel est devenue un véritable phénomène. C’est la raison pour laquelle Sarah T. Roberts, auteur de Behind the Screen, la nomme désormais « modération commerciale de contenus », une modération devenue, selon la chercheuse, un puissant mécanisme de contrôle organisé par des entreprises privées. En 2013, FB recevait environ 350 millions d’images par jour ! Dont des scènes de torture, de viol, de pédophilie et de zoophilie.
Au printemps 2019, la modération de contenus et ses pratiques font la Une de la presse américaine. Vice News cite un employé du service « technique » de Twitter qui explique que la plateforme n’a pas pu supprimer les contenus des suprématistes blancs de la même manière qu’elle avait été capable de le faire avec les contenus en lien avec l’État Islamique. La raison invoquée par Twitter est que les algorithmes identifieraient des politiciens du parti Républicain et leurs partisans. Certaines identifications seraient justes, d’autres erronées.
Mais qui s’occupe de la modération au juste ? L’IA ? C’était ce que pensait Sarah T. Roberts jusqu’en 2010 où, comme d’autres, elle fut très étonnée de découvrir que les contenus n’étaient pas modérés par l’IA mais par des employés assez mal rémunérés et exposés à des traumatismes psychologiques. Ces employés de l’ombre travaillent dans le monde entier, mais principalement dans la Silicon Valley, en Amérique rurale, en Inde et à Manille. Et massivement en Irlande ou en Europe de l’Est pour les activités européennes.
Quels sont les grands acteurs de la modération ?
(Qu’il faut distinguer de la gestion de communautés)
Au même titre que d’autres acteurs venant du conseil en services et technologies, tels Genpact ou Cognizant, Accenture propose à ses clients des prestations de modération, dans ses propres centres de BPO (business process outsourcing). Teleperformance, Webhelp, CCC Call Center (racheté récemment par Telus), Concentrix, des spécialistes de l’expérience client externalisée sont en compétition sur ce marché avec des pure players, tels Besedo (io Square), Mod Squad, Open Access BPO. Comdata ou Vipp Interstis, par exemple, venus eux aussi de la gestion de centres de contacts, proposent des services d’animation et d’engagement avec les communautés, à distinguer des prestations de modération (il s’agit dans ce cas de gérer sur les médias sociaux, le premier contact entre un client, voyageur par exemple, avec une marque).
Sur le site web d’Accenture, en mars 2020, on trouve, comme fréquemment, une annonce pour un poste à pourvoir, réf 00776503 : “Amazing opportunity for someone motivated and enthusiastic, looking to jump start a career in one of the largest Social Media Giants in the world, in our South Dublin office”.
De nombreuses entreprises se dotent également d’équipes internes, en sus de celles qu’elles peuvent solliciter via des prestataires.
Un modérateur de contenu est rémunéré de 100 000 RS (roupie) en Inde à 26 000 euros/an, en moyenne à Dublin. Genpact a promis l’an passé de doubler le salaire de départ de ses collaborateurs affectés au compte Facebook, pour le porter à 250 000 RS (soit 3503 USD). Un prestataire indépendant aux US perçoit jusqu’à 18 dollars de l’heure pour ces mêmes missions.
Pour les besoins de notre enquête, toutes ces sociétés ont été sollicitées sur leurs tarifs, stratégie et positionnement. 3 d’entre elles seulement ont fourni quelques éléments factuels, parmi les 30 sollicitées.
Par Xavier Olry
et la rédaction d’En Contact
Sources : Behind The Screen, LA Book Review, The Verge, Reuters, Irish Times et nos propres sources.