Des travailleurs kényans exploités pour filtrer les contenus toxiques de ChatGPT: “C’était de la torture”

Dans une longue enquête publiée ce mercredi, Time révèle comment OpenAI, l’entreprise derrière ChatGPT, a eu recours à des travailleurs kényans sous-exploités pour rendre l’utilisation du chatbot plus sécurisée. Le magazine évoque un salaire d’à peine 1,32 à 2 dollars de l’heure, soit de 1,22 à 1,85 euro.

Voilà plusieurs semaines que ChatGPT est sur le devant de la scène. Il faut dire que ses capacités sont impressionnantes et font trembler créatifs, auteurs et rédacteurs du monde entier. Qu’ils se rassurent, le chatbot commet encore quelques grossières erreurs, et lui-même admet ne pas avoir vocation à remplacer le savoir-faire humain. Il n’est de toute façon pas question de cela dans la nouvelle enquête du magazine américain Time, publiée ce mercredi. Nos confrères se sont intéressés à l’un des sous-traitants d’OpenAI.

Sama, ce nom ne vous dit peut-être rien, pourtant, nous en avions déjà parlé sur notre site. En mai dernier, la société basée à San Francisco qui promet de filtrer les contenus “toxiques” avait déjà fait parler d’elle. Un ancien modérateur responsable de Facebook en Afrique de l’Est et en Afrique australe avait déposé plainte contre l’entreprise basée à Nairobi, au Kenya, et contre Meta. Il accusait celle-ci d’atteinte à la vie privée, de méthodes d’embauche trompeuses, mais aussi d’irrégularités de rémunération. Une plainte qui n’a visiblement pas servi de leçon, puisque dans le cadre de son partenariat avec OpenAI, Sama est une nouvelle fois accusée d’avoir sous-payé ses travailleurs.

Sous-payés et “torturés”

Ceux-ci auraient été payés entre 1,32 et 2 dollars (soit moins de deux euros) de l’heure, en fonction de leur ancienneté, pour s’assurer que ChatGPT ne s’exprime pas de manière inappropriée. Il faut dire que ses prédécesseurs, tels que GPT-3, avaient la fâcheuse habitude de tenir des propos sexistes, racistes et violents. Cela s’explique par le fait que le chatbot produit ses réponses grâce aux informations trouvées sur Internet, et, on le sait, tout le contenu en ligne n’est pas forcément “politiquement correct”. Raison pour laquelle OpenAI avait besoin d’un filtre (humain) supplémentaire pour son nouveau robot intelligent.

Les travailleurs kényans ont été ainsi chargés de lire et comprendre des textes parfois extrêmement violents pour le compte d’OpenAI. L’un d’eux a confié au Time souffrir de visions récurrentes après avoir lu la description très crue d’un homme ayant un rapport sexuel avec un chien en présence d’un enfant. “C’était de la torture. Toute la semaine, vous devez lire des déclarations semblables, et le vendredi, vous êtes perturbé en pensant à ces images.”

OpenAI se défend

La collaboration entre OpenAi et Sama s’est terminée de manière abrupte en février dernier, soit huit mois avant la fin du contrat. La société californienne explique que la maison mère de ChatGPT lui a demandé de travailler sur des contenus classés dans “certaines catégories illégales”, alors que cela n’était pas prévu dans l’accord. Et OpenAI de se défendre: “Nous n’avons jamais eu l’intention de collecter du contenu de catégorie C4 (abus sexuels sur enfants, NDLR). (…) Dès que Sama nous a informés qu’ils essayaient de collecter du contenu de cette catégorie, nous avons clarifié les choses et dit que nous ne souhaitions pas ce genre de choses.”

Concernant la rémunération des travailleurs, OpenAI botte en touche, affirmant avoir payé Sama 12,50 dollars (moins de douze euros) de l’heure, soit six à neuf fois plus que le salaire effectivement perçu par les travailleurs kényans. Selon le porte-parole de Sama, ce montant dérisoire devait couvrir les coûts de l’entreprise, depuis les dépenses d’infrastructures jusqu’aux salaires, en passant par les avantages versés aux associés.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *