Depuis quelques temps ChatGPT secoue l’écosystème numérique. Dans ce vent de succès, ChatGPT vient de vivre sa première zone de turbulences au Kenya.
(Cio Mag) – Dans le monde de l’intelligence artificielle, ChatGPT occupe l’actualité depuis novembre 2022. Mais la trouvaille qui fait tant parler vit ses premiers soubresauts. Selon une enquête du magazine Time décrit par le biais d’un prestataire établi en Afrique, OpenAI aurait entraîné son modèle en demandant à des salariés sous-payés d’étiqueter des milliers de textes atroces. Réagissant à cette information, l’accusé indique que « sa mission est de s’assurer que l’intelligence artificielle générale profite à toute l’Humanité ».
Mais l’enquête donne une toute autre version. Le journal révèle que « l’entreprise a eu recours aux services d’une entreprise, Sama, afin d’ « apprendre » à ChatGPT ne pas répondre à ses utilisateurs de façon toxique ou violente. Le siège de Sama, qui a aussi pour clients Google, Microsoft ou la Nasa, est à San Francisco… Mais les dizaines d’employés qui ont travaillé sur ChatGPT habitent loin, très loin de la Silicon Valley », indique-t-il.
Ce sont en effet des travailleurs kenyans de Sama, payés selon Time entre 1,20 et 2 euros de l’heure, qui ont réalisé le « sale boulot » qui nous permet aujourd’hui d’utiliser ChatGPT sans que le bot se perde dans des délires toxiques, racistes, violents.
Analyse de mots piochés sur le web
Dans le détail, l’article revient avec insistance sur le calvaire des travailleurs. « Pour bien comprendre ce que ces travailleurs payés une misère ont dû endurer, il faut d’abord expliquer rapidement comment ChatGPT est entraîné, et la technique d’OpenAI pour l’empêcher de générer un discours toxique. L’intelligence du bot vient de la collecte et de l’analyse de milliards d’ensembles de mots piochés sur le Web. Une somme qui, bien entendu, comporte aussi une quantité considérable de ce que les échanges humains produisent de pire… et qui se retrouvent dans le modèle, une fois ce dernier entraîné », lit-on dans l’article.
Étant presque dans l’impossibilité de vérifier ces éléments « à la main », l’OpenAi a alors décidé d’intégrer à ChatGPT un mécanisme de protection, une sorte d’IA « gendarme » entraînée par des humains, capable de limiter les discours toxiques générés par le modèle. Pour cela, il faut la « nourrir » d’autres types de textes bien spécifiques : des discours haineux, sexuellement explicites, violents, toxiques… Pire, les « étiqueteurs » de Sama que Time a pu interviewer ont dit avoir eu à décrire pour la machine entre 150 et 250 passages de ce genre par jour, comportant de 100 à 1000 mots à raison de 9 heures de travail quotidien.
Sama évoque de son côté un chiffre plus bas, d’environ 70 contenus par jour. Qu’importe : la violence psychologique d’un tel travail peut être traumatisante. Un employé interrogé par le magazine parle même de « torture » en se remémorant avoir eu à étiqueter par exemple un contenu décrivant « un homme ayant des relations sexuelles avec un chien en présence d’un enfant ». Le calvaire ne s’arrête pas là.
Une collecte d’images inquiétante
Au-delà de l’étiquetage de textes violents, OpenAI a passé un autre contrat avec Sama, qui a conduit à la fin précipitée de leur collaboration. En février 2022, le créateur de ChatGPT demande à son prestataire de collecter « des images sexuelles et violentes » pour un autre de ses projets, une « étape nécessaire pour rendre ses outils plus sûrs ». La firme s’est exécutée et a collecté 1 400 images, dont des clichés clairement illégaux, parmi lesquels des images de violences sexuelles sur enfants, de viols, de meurtres… Une collecte qui a rapidement inquiété la branche africaine, et mené à la fin précoce d’un contrat qui devait encore durer huit mois.
Aujourd’hui, l’affaire continue de secouer l’écosystème et les accusés se renvoient la balle. Même si elle n’a pas encore révélé tous ses secrets, cette affaire garde un aspect sombre. C’est d’autant plus problématique que la main d’œuvre employée à cette tâche est à la fois mal rémunérée et très peu suivie psychologiquement. Un comble, quand les entreprises qui les emploient -toujours très discrètement – pèsent plusieurs dizaines de milliards de dollars. Pour rappel, OpenAI serait déjà valorisée 29 milliards de dollars.