DM Del. Ce qu'on apprend en gérant le Spam and Abuse, chez Twitter
Del Harvey a dirigé pendant les années de folie le Spam and Abuse chez Twitter, la modération. Quelques short cuts de l’interview accordée par cette dernière à Wired. Instructif, terriblement utile, puisque la modération devient stratégique et très encadrée, dans les médias.
Dans une interview qu’elle a accordée à l’automne à un magazine américain (Wired), l’ancienne boss de la modération de Twitter donne à voir la complexité du métier et son impact sur nos vies et la sienne. Elle réalise désormais des décors de théâtre. Son témoignage est unique, éclairant.
Les directeurs du Trust & Safety des plateformes et réseaux sociaux les plus connus, Discord, Meta, X, Voodoo, Meetic etc.. sont du genre très discret. Ils sont bien occupés, concentrés sur la réactivité qu’implique leur mission et sans arrêt en train de superviser les travaux demandés à leurs équipes de data scientists, de codeurs ou de content moderators externalisés partout sur la planète. Comme travail tranquille, on a vu mieux. A.S, alias Del Harvey ou encore Delbius, en est un exemple. Alison Shea, c’est son vrai nom, a été l’ancienne employée de Twitter et est probablement l’une des personnes les plus expérimentées au monde sur ce sujet. Très exposé, le réseau Twitter, devenu X, a été à la pointe des pratiques de modération, une nécessité. Les institutions, les gouvernements, l’opinion publique demandent de plus en plus à ces dirigeants de décrire leurs pratiques de modération, les accusant de ne pas toujours y consacrer les moyens nécessaires, au regard des enjeux constatés.
Recrutée à 26 ans, en 2008, comme responsable du Spam and Abuse
Del Harvey, son surnom dans le cadre de ses activités, a été chargée de la modération de contenus sur Twitter pendant treize ans, jusqu’en 2021. Elle fût la 25ème salariée de Twitter. Très jeune, elle commence à manier les sujets sulfureux. A vingt-et-un ans, elle travaille pour la société Perverted Justice qui s’occupe de faire de la traque en ligne de pédophiles. A l’occasion d’un partenariat avec la NBC, son jeune âge et son allure d’adolescente lui font donner le rôle de « l’appât » dans la série télévisuelle To Catch a Predator. La réputation qu’elle y gagne, celle d’une jeune femme qui flirte avec la noirceur de l’âme humaine, lui vaut d’être engagée par Twitter pour s’occuper du Trust & Safety, la modération des contenus. Twitter n’en est alors qu’à ses débuts. Tout est à faire. L ’activité se dénomme alors Spam and Abuse.
@Justin Bieber, we love you. The BTG’s
Del Harvey détaille cette « forêt primitive » qu’était le Twitter du début des années 2010. Les adolescentes brésiliennes propulsent des tweets sur Justin Bieber, le Hamas et Israël s’envoient des menaces de mort. Le point culminant de cette phase 1 est le « Gamergate » : la plateforme est envahie pendant plusieurs semaines de messages misogynes et haineux. Déjà, un problème de fond fait irruption : la modération s’opère encore de façon manuelle. Son équipe dispose de peu d’outils mis à sa disposition. En 2010, elle émet des requêtes pour améliorer l’efficacité de la modération mais le mastodonte Twitter est lent. La détection des multi-comptes, qui est à l’origine de nombreuses erreurs, tromperies, diffusion de contenus dangereux, nécessitera par exemple plus de dix ans pour être implémentée et doit être actualisée en permanence. La philosophie de la société est alors celle de la croissance à tout prix. Le pan safety est une option qu’on y considère en second lieu
On manque d’outils, d’ingénieurs et tout le monde donne son avis
Le problème fondamental du Trust&Safety », rappelle DH, est le même que celui de nombreux services de sécurité comme la police ou l’armée. Quand tout va bien, personne ne s’en préoccupe. Dès qu’il y a un problème, tout le monde a son opinion sur une réforme des méthodes de modération employées. Pourtant, selon elle, la modération ne peut jamais être plus qu’un pansement si la structure de la plateforme n’est pas mieux pensée par les ingénieurs: il ne peut y avoir d’un côté ceux qui développent l’audience, et, d’un autre, les équipes sécurité.
« Jusqu’à peu, il y avait chez Twitter deux entités différentes, l’équipe dédiée à la publicité pour des annonceurs et l’organisation générale. De sérieux problèmes sont survenus lorsque certaines entreprises n’ont plus voulu figurer à côté de tweets extrémistes, voire antisémites mais les deux entités étaient complètement indépendantes »
Twitter, pourtant, ne manquait pas d’ingénieurs, mais ceux-ci étaient déjà débordés par la gestion des diverses fonctionnalités. Faute d’outils efficaces, il faut compenser par de la main-d’œuvre, l’embauche massive de modérateurs en palliatif : des équipes de centaines de personnes ont donc ainsi travaillé sous la direction de DH. Pour reprendre l’exemple de la détection du multi-comptes, un compte jugé nocif voit désormais tous ses autres comptes jugés comme tels, épargnant un temps considérable à l’équipe « Trust & Safety » qui devait auparavant identifier manuellement ses comptes et en modérer chaque message.
Locked and loaded. Quand Donald Trump chamboule tout
L’irruption de Donald Trump sur Twitter est un séisme dont la plateforme se remet encore à peine. Del Harvey en discute longuement puisque les frasques de l’ancien président ont mis en lumière les difficultés de la modération. La mention « informations trompeuses » a d’abord été placée sous certains de ses tweets, notamment au moment de l’ère Covid. Mais le 6 janvier 2021 a constitué un point de bascule pour la plateforme. Twitter a été pointé du doigt comme l’un des canaux ayant conduit à l’insurrection meurtrière au Capitole des Etats-Unis, au cours de laquelle une foule de partisans de Trump a envahi les lieux. Dans les jours qui ont suivi, le compte Twitter de D. Trump a été suspendu. Elle mentionne les débats sur l’expression « locked and loaded » spammée par les supporters de Trump au moment des évènements. Fallait-il suspendre une personne pour cela ? Est-ce que cela est indicatif et révélateur d’un appel à la violence ? Lorsque Trump tweete son fameux
« Be there, be wild », l’équipe décide qu’il s’agit d’une violation de la bible de modération. C’est un débat complexe, que le comité sénatorial refera à l’occasion de son investigation sur ses évènements. L’urgence n’aidait pas. C’est son successeur, Yoel Roth, qui devra expliquer cette décision au comité. Mais dans les équipes de Twitter, il y a encore de la rancœur, voire de l’incompréhension. Anika Collier Navarolli, une ancienne salariée, a critiqué Del Harvey sur sa politique de modération qu’elle jugeait trop permissive, pas suffisamment proactive.
En 2021, Del Harvey a quitté Twitter. Elle croit en l’éducation
Puis Elon Musk a repris Twitter, l’a transformé en X et a arrêté de travailler avec les équipes de Trust and Safety précédentes qu’il a carrément décapitées. « Des gens bien qui faisaient au mieux pour assurer la sécurité des gens, pourtant ». DH signale qu’elle est partie de son plein gré pour être plus disponible auprès de ses enfants. Elle rappelle qu’elle était sans cesse appelée pendant son congé sabbatique d’une durée de un mois en 2021, qu’elle a prolongé en congé de quatre mois. A son retour, elle indique à sa patronne, Vijaya Gadd, qu’elle ne peut être à la fois présente pour Twitter et pour ses enfants, « alors que les deux méritent une attention à plein temps. ». Aujourd’hui, DH apparait quelque fois en ligne, mais sur des forums dédiés à l’organisation de fêtes. Ses centres d’intérêt se sont déplacés vers sa famille et elle s’occupe tranquillement de.. décors de théâtre pour ses enfants.
L’avenir du Trust&Safety ? « il faudra une multiplicité d’outils pour assurer la modération, de la suppression classique à des labels de certification. Mais la méthode la plus efficace restera l’éducation: expliquer pourquoi une information est considérée comme erronée ou dangereuse ». Pour elle, les plateformes sociales peuvent difficilement être les arbitres de la vérité, mais elles doivent essayer, en dépit des critiques. Au bout du bout, dans certains cas complexes, lorsqu’il faut réagir vite, prendre une décision dont l’évidence n’apparait pas quant à un contenu, une vidéo, un compte, DH nous adresse un clin d’œil qui dit tout : et vous, que feriez-vous. What would you do ?