Une enquête de The Time Magazine révèle qu’OpenAI a fait appel à des travailleurs kényans payés 1,32 dollars de l’heure pour rendre les contenus de ChatGPT moins toxiques
Les travailleurs devaient lire manuellement des centaines d’exemples de contenus vulgaires, violents, obscènes et sexuellement graphiques.
Un article publié le 18 janvier dans The Time Magazine explique que pendant le développement de ChatGPT, OpenAI s’est heurtée à un problème de « vente difficile, car l’application avait également tendance à laisser échapper des remarques violentes, sexistes et racistes ».
The Time explique que le problème est survenu parce que le robot a été entraîné « sur des centaines de milliards de mots extraits d’Internet ».
Tout en décrivant avec un certain euphémisme les parties les plus sombres d’Internet comme étant simplement « pleines de toxicité et de partialité », l’article indique que le travail quotidien des Kényans consistait à filtrer personnellement les contenus qui « décrivaient des situations avec des détails graphiques comme l’abus sexuel d’enfants, la bestialité, le meurtre, le suicide, la torture, l’automutilation et l’inceste ».
OpenAI employait une entreprise appelée Sama, dont le siège est à San Francisco et qui affirme avoir « aidé 50 000 personnes à sortir de la pauvreté. »
Le média a déclaré que, dans le cadre de la production de son article, il a « examiné des centaines de pages de documents internes de Sama et d’OpenAI, y compris des fiches de paie de travailleurs, et a interrogé quatre employés de Sama qui ont travaillé sur le projet. »
Tous les travailleurs ont parlé sous la promesse de l’anonymat « par souci pour leurs moyens de subsistance ».
Une main-d’œuvre bon marché pour construire une censure de l’IA
La brigade kényane de Sama contribuait à la création de ce que The Time a décrit comme un « mécanisme de sécurité supplémentaire alimenté par l’IA » qui servirait de système d’autocensure à la manière des réseaux sociaux de Big Tech.
« Pour construire ce système de sécurité, OpenAI s’est inspirée des entreprises de réseaux sociaux comme Facebook, qui avaient déjà montré qu’il était possible de construire des IA capables de détecter des propos toxiques, comme les discours de haine, afin de les retirer de leurs plateformes », indique l’article.
« Le principe était simple : alimenter une IA avec des exemples étiquetés de violence, de discours haineux et d’abus sexuels, et cet outil pourrait apprendre à détecter ces formes de toxicité dans la nature. »
Alors d’ajouter : « ce détecteur serait intégré à ChatGPT pour vérifier s’il fait écho à la toxicité de ses données d’entraînement, et le filtrer avant qu’il n’atteigne l’utilisateur. »
Dans une déclaration au Time fournie par OpenAI pour son article, la société a affirmé qu’un module d’autocensure et d’harmonisation du discours était « une étape nécessaire pour minimiser la quantité de contenus violents et sexuels inclus dans les données d’entraînement et créer des outils capables de détecter les contenus nuisibles. »
Les conséquences de soumettre des êtres humains à la lecture de contenus vils et profanes pendant des heures chaque jour se manifestaient pleinement chez les employés de Sama, a constaté The Time.
Un homme, cité par le journal, a déclaré qu’il « souffrait de visions récurrentes » après avoir été obligé de lire une scène graphique détaillée impliquant de la bestialité et des abus sexuels sur des enfants.
Des effets psychologiques graves
« Vous allez lire un certain nombre de déclarations de ce genre tout au long de la semaine. Quand on arrive au vendredi, on est perturbé à force de penser à cette image », aurait dit l’homme.
« Trois employés ont déclaré au Time qu’ils devaient lire et étiqueter entre 150 et 250 passages de texte par tranche de neuf heures. Ces bribes pouvaient aller d’une centaine à plus de 1 000 mots », indique l’article.
Les quatre employés ont déclaré qu’ils étaient non seulement effrayés par le travail, mais qu’ils n’ont reçu que peu de soutien de la part de Sama, à part l’offre de séances avec des conseillers en « bien-être », dont ils n’ont pas pu profiter parce qu’ils devaient s’efforcer de remplir plus d’étiquettes par heure de travail.
The Time a déclaré que les effets secondaires étaient si graves que Sama a été contraint de résilier son contrat avec Open AI huit mois plus tôt que prévu, bien que la valeur de ce contrat soit de 200 000 dollars et que la charge de travail soit répartie entre environ trois douzaines de travailleurs qui n’étaient pas payés plus de 2 dollars de l’heure.
The Time a noté que « les contrats stipulaient qu’OpenAI paierait un taux horaire de 12,50 dollars à Sama pour le travail, ce qui représentait entre six et neuf fois le montant que les employés de Sama impliqués dans le projet gagnaient par heure. »
Le personnel recevait 70 dollars supplémentaires par mois en guise de « prime » pour avoir été exposé à des contenus obscènes.
Un porte-parole de Sama a déclaré au Time que les travailleurs ne devaient réaliser que 70 étiquettes par équipe et pouvaient gagner jusqu’à 3,75 dollars de l’heure.
Rédacteur Fetty Adler
Collaboration Jo Ann
Soutenez notre média par un don ! Dès 1€ via Paypal ou carte bancaire.