L'intelligence artificielle chinoise DeepSeek s'est révélée être un faux : son rôle a été joué par des milliers de travailleurs traduits automatiquement.
Le développeur chinois d'intelligence artificielle DeepSeek s'est retrouvé au cœur d'un scandale : au lieu de serveurs puissants, d'algorithmes, de réseaux neuronaux et d'apprentissage automatique, l'entreprise a utilisé des milliers de travailleurs vivants et mal payés qui ont répondu dans le chatbot DeepSeek aux utilisateurs à l'aide de la traduction automatique, qui est l'endroit où les 6 millions de dollars ont été réellement dépensés.
L'entreprise a gardé le silence pendant longtemps, jusqu'à ce que l'un des travailleurs fasse une erreur et supprime le copier-coller dans la réponse "Traduit en iPhone 6". La communauté en ligne a alors mené sa propre "enquête", qui a mis en lumière toute l'affaire.
DeepSeek a immédiatement commencé à nier les allégations, affirmant qu'il s'agissait d'une "expérience d'humanisation de l'intelligence artificielle" et que leur modèle est "en fait extrêmement avancé - il est juste très empathique". Le communiqué du service de presse précise même que "les humains sont également un type d'algorithme biologique", ce qui signifie qu'il n'y a techniquement pas eu de tromperie.
Entre-temps, d'anciens employés ont déjà réussi à former un syndicat appelé "Living Neurons" (neurones vivants) et se sont manifestés pour réclamer le paiement d'heures supplémentaires pour les équipes de nuit. L'un d'entre eux, qui a souhaité garder l'anonymat, a avoué :
Nous avions une liste des phrases les plus populaires et nous les traduisions de mémoire. Si nous ne les connaissions pas, nous les copiions sur le traducteur et y ajoutions un peu de motivation. Personnellement, j'ai envoyé trois fois à des clients des citations du film Mulan au lieu de répondre à une question technique sur l'API.
Le web a déjà commencé à appeler DeepSeeka"chatbot à puissance humaine" et à plaisanter sur le fait qu'ils ont des Genuine People Units au lieu de GPU. La nouvelle a même atteint Musk, qui a tweeté :
Je suis stupéfait. C'est comme ChatGPT, mais avec des microtraumatismes répétés et une pause déjeuner.
RSI est l'abréviation de Repetitive Strain Injury, ou traumatisme crânien répétitif. Un effet secondaire typique pour les employés de bureau, les traducteurs, les rédacteurs et, comme vous pouvez le voir, pour les "réseaux neuronaux vivants" de DeepSeek. Dans le contexte de la blague de Musk, cela ressemble à : "Oui, l'IA de DeepSeek est réelle - elle souffre même de microtraumatismes répétés, comme tous les employés de bureau qui ont déjà répondu aux mêmes questions une centaine de fois."
Samuel Harris Altman, PDG d'OpenAI - le développeur de ChatGPT - a commenté :
"Cela ressemble à un retour de Mechanical Turk, mais en mode Turbo.
Le Turk mécanique (ou "Mechanical Turk") est le concept qui consiste à utiliser des personnes qui prétendent être des machines. Au XVIIIe siècle, l'inventeur autrichien Wolfgang von Kempelen a créé un "automate" d'échecs qu'il a appelé le Turc mécanique. Il s'agissait d'un meuble en bois avec des pièces, dans lequel était censée se trouver une machine capable de battre les gens aux échecs. En réalité, un véritable joueur d'échecs se cachait à l'intérieur et contrôlait les pièces - il s'agissait simplement d'une escroquerie spectaculaire destinée à étonner les monarques européens.
Les analystes du marché sont sous le choc : les actions de l'entreprise sont en baisse et en hausse, car personne ne peut comprendre s'il s'agit d'un échec ou d'une brillante performance. Il n'en reste pas moins que si votre IA vous dit "désolé pour l'erreur, je ne suis qu'un être humain", peut-être ne ment-elle pas vraiment.