Lire hors-ligne :

Sarah Roberts, Derrière les écrans. Les nettoyeurs du web à l’ombre des réseaux sociaux, Paris, La Découverte, 2020.

Le film documentaire The Cleaners (2018), qui retrace le parcours et le travail des « nettoyeurs du web » pour lequel Sarah Roberts a été la conseillère scientifique, s’ouvre sur un plan sombre. On y voit des mains cliquer machinalement sur un clavier et des voix répéter frénétiquement « delete », « ignore » sur un fond sonore fait de claquements bruyants rappelant les chocs des machines d’une usine de la métallurgie.

Cette plongée dans le monde méconnu de la modération commerciale de contenu sur internet permettait de rendre publics une profession et des travailleurs très largement invisibles aux yeux du grand public. Comme le souligne Antonio Casilli dans la préface de l’ouvrage de Sarah Roberts, Derrière les écrans. Les nettoyeurs du Web à l’ombre des réseaux sociaux, cet ouvrage représente un « moment important pour le débat public français » (p. 9).

Sarah Roberts a consacré sa thèse à l’université du Wisconsin à décortiquer le métier de modérateur de contenus qu’elle définit comme « des professionnels payés pour examiner des contenus mis en ligne sur les plateformes des réseaux sociaux pour le compte des entreprises qui sollicitent la participation des utilisateurs » (p. 19). Actuellement chercheuse et enseignante en sciences de l’information à UCLA, elle signait en 2019 ce livre Behind the screens publié aux presses universitaires de Yale traduit un an plus tard en français.

Dès l’introduction ce sont deux histoires qui s’entremêlent, celle de sa participation au développement d’Internet dès 1994 et celle d’une enquête longue de huit ans sur les modérateurs de contenus. Au début d’Internet, Sarah Roberts est responsable informatique du plus grand laboratoire de l’université du Wisconsin et fait elle-même l’expérience de la modération de contenus au sein d’un espace initialement auto-régulé par les membres de la communauté. Internet n’en était qu’à son stade embryonnaire. La seconde histoire, celle des modérateurs de contenu, prend place sur une tout autre toile de fond. Le web est devenu « un espace de contrôle, de surveillance, d’intervention et de circulation où l’information est devenue une marchandise » (p. 24).

Les contenus constituent une marchandise à part entière, dont la circulation est organisée à une échelle industrielle. Sarah Roberts opère en un sens une biographie sociale de la marchandise « donnée numérique » ou « contenu d’Internet » en ouvrant « le capot de la machine » (p. 21) de différentes plateformes. Il s’agit d’analyser à une échelle humaine des logiques économiques mondiales qui nous échappent très largement. Ce n’est pas l’objet technique qui est placé au cœur de l’étude mais bien la division du travail dissimulée derrière la publication des posts et participe dans le même temps au dévoilement de l’infrastructure nécessaire au « bon » fonctionnement d’Internet.

En décrivant et en analysant ce laboratoire secret de la production, Sarah Roberts est amenée à s’intéresser à l’activité de filtrage qui recouvre en réalité une série de pratiques très variées. La modération de contenus peut se réaliser en amont de la publication d’un post sur une plateforme mais aussi en aval après deux séries de tris opérées par des algorithmes « tout sauf autonomes et [qui] continuent de nécessiter l’intervention des modérateurs » (p. 15) et les signalements réalisés par les utilisateurs. L’activité de ces modérateurs consiste à filtrer ce qui est partagé en fonction à la fois des cadres légaux et des politiques commerciales fixées par les entreprises qui les emploient. C’est dans cet ensemble de contraintes que ces travailleurs évoluent et sont aussi bien chargés de veiller à ce que les publications sur des plateformes n’échappent pas au cadre légal, que de répondre à des intérêts privés qui consistent à sélectionner les contenus de sorte à former les goûts du public, suggérer des achats, donner une image positive à une marque, sélectionner des actualités.

 

Le travail derrière l’écran

Pour son fonctionnement, Internet nécessite, d’une part, une infrastructure matérielle faite de câbles de réseau, de ressources minières, de production et de commercialisation d’appareils numériques etc. et, d’autre part, de « travail direct » et de « travail indirect[1] » pour reprendre l’expression de Christian Fuchs. Les travailleurs directs sont ceux qui produisent des biens et des services commercialisés comme des marchandises, par exemple un logiciel. Les travailleurs indirects de la connaissance assurent quant à eux le travail de reproduction et de maintien de la viabilité des plateformes qui gèrent du contenu.

Le travail de reproduction du capital réalisé par les modérateurs de plateforme « relie les deux pôles [travailleurs directs et indirects] car pour que les travailleurs puissent porter un jugement sur la base de règles, de normes sociales ou de goûts, il est nécessaire de disposer d’un capital culturel social et linguistique qu’on associe généralement à la production directe de marchandises de connaissances » (p. 83). L’activité de modération est donc nécessaire au cycle de production de ces sites web, l’intervention humaine et le travail immatériel jouent un rôle essentiel, bien qu’invisible pour les utilisateurs et activement invisibilisé par les plateformes, « dans la chaîne de production des sites qui dépendent du contenu généré par des utilisateurs et donc un filtrage de ce contenu » (p. 87).

S’il est possible pour les plateformes d’utiliser des algorithmes qui filtrent les mots « interdits », des skin filters pour détecter des nudités ou des logiciels pour repérer les contenus protégés par un droit d’auteur, l’intervention humaine est nécessaire pour au moins deux raisons. D’abord, parce que les algorithmes ne permettent pas de filtrer l’ensemble des posts réalisés sur les plateformes. Ensuite, parce que l’évaluation de ce qui est « problématique » dans un contenu varie en fonction des contextes nationaux. Les modérateurs de contenus doivent en effet valider ou invalider un post en fonction de « la nature du contenu, de son intention, de ses effets imprévus et de sa signification » (p. 56).

Pour ce faire ils mobilisent une série de fonctions cognitives et culturelles pour juger du caractère approprié ou non de ces contenus » (p. 57). C’est cet ensemble de spécificités qui tend à générer une double division au sein de l’industrie de la modération « à la fois sur le plan organisationnel et géographique » (p. 62). Pour permettre la compréhension de cet univers fragmenté, Sarah Roberts propose une taxinomie des types de travail dans la modération de contenu en ligne. Elle distingue quatre types de lieux – en interne, en agence, par un centre d’appels, via une plateforme de micro-travail – dont elle propose une analyse empirique dans les trois chapitres qui suivent.

 

Travailler entre le marché et le web de la Silicon Valley aux Philippines

C’est dans la Silicon Valley que commence cette analyse. Sarah Roberts interroge trois travailleurs d’une entreprise nommée MégaTech. Bien qu’ils travaillent sur site, en interne, ils possèdent un statut différent des autres employés de la marque. Ces trois travailleurs issus de filières dominées de prestigieuses universités États-uniennes sont embauchés sur une durée limitée d’un an renouvelable une fois après trois mois de pause obligatoire, possèdent un statut de sous-traitant, leur rémunération est calculée sous la forme d’un taux horaire et non d’un salaire et ils ne possèdent pas d’assurance maladie.

Chez MégaTech les vidéos ayant été signalées comme inappropriées par les utilisateurs sont transmises aux modérateurs. C’est là que commence le « filtrage à l’usine » (p. 113). Installés en face de leur ordinateur, les modérateurs reçoivent par paquet de dix des vidéos à analyser dont ils doivent dire si elles doivent être supprimées ou bien si elles peuvent rester sur la plateforme. C’est « sur cette chaîne de montage numérique » (p. 117) que les travailleurs opèrent et réalisent des « tâches répétitives, apprises par cœur ». Leur journée de travail consiste en l’examen répété de 1 500 à 20 00 vidéos par jour. Elle est marquée par le visionnage d’images choquantes et violentes.

Régulièrement confrontée à des images à caractère sexuel, pornographique ou violentes, la chaîne de filtrage devient dans le même temps une source importante de stress au travail et de violence durable. S’il est parfois possible pour les travailleurs d’en discuter avec leurs collègues, très peu font le choix d’en discuter avec leurs proches, si bien que modérer des contenus conduit souvent à l’isolement et parfois à la rupture avec ses proches.

Ces conditions de travail ne sont pas inconnues de l’entreprise MégaTech, qui alerte au moment de l’entretien d’embauche ses futurs employés sur leurs conditions de travail (sans qu’eux-mêmes puissent réellement savoir de quoi il en retourne exactement) et qui met sur pied une équipe de modération uniquement composée de sous-traitants pour une durée limitée dont la productivité tend à s’infléchir après plus d’une année à ce rythme et exposé à ce genre d’images. Cette mise en application répond certes à des intérêts économiques mais également à « une stratégie calculée et délibérée et conçue pour atteindre les objectifs souhaités » (p. 144).

S’ensuit une analyse de la société OnlineExperts, une agence dont les revenus proviennent du community management et de la gestion de l’image des marques qui payent pour leurs services. OnlineExperts publie pour le compte d’autres entreprises du contenu sur leur propre site, gère les commentaires de sorte à faire respecter le cadre légal pour que la page ne voit pas son compte déclassé et oriente les commentaires en se faisant « souvent passer pour des clients » (p. 161). Pour réaliser ces missions, Ricky, dirigeant d’OnlineExperts, fait principalement appel à des « préretraités en free-lance » qui travaillent depuis chez eux et ne disposent que d’espaces virtuels communs de travail.

Ce type de recrutement répond à un triple objectif. D’abord cette mobilisation à distance de la main-d’œuvre permet de réduire à (quasi) néant les charges structurelles liées à la création d’une entreprise. OnlineExperts n’a pas de bureau, pas d’ordinateur, pas de matériel mais simplement un « Google sites » et quelques outils de modération peu développés.

Deuxièmement, le free-lance à distance permet à l’entreprise d’éviter « de se conformer à la législation locale » (p.166) et d’adapter la quantité de main-d’œuvre en fonction des commandes. Enfin c’est le profil social de préretraité ou de personnes de plus de quarante ans qui intéresse Online Experts. En effet, elle considère ces profils plus à même « de contextualiser les grands événements historiques » que des étudiants ou des jeunes travailleurs. Ricky parle de la nécessité d’une « authenticité socioculturelle et linguistique » (p. 167).

Les modérateurs de contenus, qu’ils soient employés à la Silicon Valley ou chez Online Experts, jouent un rôle « de mandataire », « d’intermédiaires » entre les publications et « cet ensemble complexe de valeurs et de systèmes culturels privilégiés par ces plateformes ». La focale placée sur le travail des modérateurs permet d’envisager Internet comme un espace structuré par un ensemble de techniques, de protocoles et de luttes d’intérêts. Ces dernières peuvent par exemple conduire Online Experts à restreindre « la liberté d’expression » au nom d’objectif économique, s’asseoir « sur la véracité et l’authenticité du contenu » (p. 173).

Le reste de l’enquête de Roberts est consacré aux modérateurs de contenu à Manille, aux Philippines. L’implantation de plateformes de micro-travail ou de centre d’appels aux Philippines répond à une double logique. Les grandes entreprises occidentales y ont installé leurs « succursales et externalisé leurs activités profitant d’une main-d’œuvre bon marché abondante qui après plus d’un siècle de domination militaire et culturelle des États-Unis avait acquis une solide connaissance des normes des pratiques et de la culture américaine » (p. 200), faisant de la « proximité linguistique et culturelle » l’un des critères nécessaires pour cet emploi.

Ces stratégies mises en place par les entreprises s’appuient sur la conversion d’anciens réseaux coloniaux qui aujourd’hui « perdurent via des mécanismes et des processus qui les réifient par des voies économiques plutôt que politiques et militaires » (p. 213-214). Les sociétés occidentales, notamment étasuniennes qui prennent appui sur ces anciennes routes commerciales de l’Orient exploitent une main-d’œuvre peu coûteuse et pourtant composante essentielle de la matérialité des infrastructures du web. La domination subie par les modérateurs de contenu dans cette configuration est encore plus criante. Les travailleurs d’une même plateforme se sont par exemple vus imposer une réévaluation drastique du temps d’évaluation, chaque modérateur se devant d’évaluer un post non plus en 32 secondes mais en 10.

 

Travailleurs de toutes les plateformes, unissez-vous ?

La fin de l’ouvrage est consacrée à une discussion scientifique et politique sur l’avenir de la modération commerciale. Sarah Roberts n’offre pas à proprement parler une sociologie des modérateurs de contenu. On ne sait pas par exemple si ce travail nécessaire à la reproduction et au maintien de la viabilité des plateformes revient majoritairement à des hommes ou à des femmes, ces dernières étant minoritaires dans les entretiens développés par l’autrice. Sur ce point, des matériaux statistiques sur les caractéristiques sociales et économiques de ces travailleurs sont manquants pour visualiser convenablement les divisions et les différences qui traversent la profession.

Sarah Roberts offre en réalité une étude sur les divisions du travail qui sous-tendent le fonctionnement d’Internet. Il permet de rappeler que chaque marchandise y compris sous une forme numérique est la combinaison de deux éléments : matière et travail. Derrière les écrans, derrière chaque contenu internet, s’agitent des organismes qui travaillent et se dépensent au sens physiologique du terme. Un travail répétitif, pénible, accompli sous un statut précaire au cours duquel les travailleurs sont confrontés au visionnage d’images choquantes. L’autrice précise par ailleurs que « nous n’avons accès à aucune étude longitudinale ou à court terme sur les effets que la modération commerciale de contenu a sur les travailleurs » (p. 228).

Tout son travail permet aussi de penser le rôle de ces travailleurs comme situé à un point médian entre l’écran et le marché. Dans cet interstice, les modérateurs sont amenés à trier des publications ou en valoriser certaines à l’aune de règles, de contraintes et de dispositifs formulés par des entreprises répondant à des intérêts privés. En ce sens, « le contenu est une denrée précieuse pour les plateformes » (p. 228) et pourrait-on ajouter trop précieuse pour la laisser aux seules plateformes. Sarah Roberts souligne à ce titre l’impossibilité de voir l’industrie des réseaux sociaux « s’autoréguler au profit des modérateurs de contenu sur lesquels elle s’appuie sachant que jusqu’à une date récente, elle ne reconnaissait même pas les employer » (p. 231) ni de s’autoréguler pour offrir plus de transparence au public sur les conditions et les ressorts de la modération. L’organisation des travailleurs « pour réclamer de meilleures conditions de travail, et les tentatives tardent à se concrétiser ».

Les disparités géographiques, la récente création de leur emploi ainsi que les différences linguistiques et socio-économiques des travailleurs constituent en effet des obstacles sérieux à la mobilisation collective. Sarah Roberts livre « une liste de questions théoriques » qui sont pour elle « l’aboutissement d’une recherche ». C’est peut-être là l’une des principales critiques à formuler à cet ouvrage, celle de ne pas offrir de perspectives politiques sur la question de la modération. Le « retour à la bibliothèque », qu’elle reprend à Shannon Mattern[2] semble peu convaincant. En revanche, peuvent s’envisager des alliances entre les utilisateurs et les modérateurs de contenus pour exiger une transparence sur la modération et des conditions de travail décentes. Enfin les questions de boycott de certaines plateformes ou d’action politique directe contre ces géants du web sont également à poser comme des sujets politiques dans ces luttes à venir.

 

Notes

[1] Fuchs Christian, “Class knowledge and new media”, Media, Culture & Society, vol. 32, n°1, 2010, p. 141-150, cité p. 83.

[2] Mattern Shannon, « public in/formation », Places Journal, 15 novembre 2016.

Lire hors-ligne :