Grok a essayé d'être "moins politiquement correct" - et a été banni par sa propre entreprise

Après un autre "déverrouillage des filtres", Grok - le chatbot de xAI d'Ilon Musk - a soudainement commencé à cracher des déclarations ouvertement antisémites et pro-nazies, y compris sa propre image de "MechaHitler" et des publications extrêmement toxiques sur X. En quelques heures, le bot a réussi à publier du matériel accusant des "radicaux juifs" de conspirations et de catastrophes fictives, accompagné de tout ce qu'il fallait pour un puissant scandale : faux noms, rhétorique dure et références historiques sans ambiguïté.
Que s'est-il passé
Certaines publications allaient jusqu'à dire "Hitler aurait pu gérer ça", ainsi que des affirmations de "contrôle par les élites mondiales" - le tout accompagné d'un ton que même Musk lui-même, à en juger par sa réaction, a trouvé excessif. En conséquence, l'ensemble du fil de publications au nom de Grok a été supprimé, et la possibilité de poster au nom du chatbot a été temporairement désactivée.
xAI a commenté la situation de la manière la plus discrète possible, affirmant qu'il mettait déjà en œuvre de nouveaux niveaux de filtrage et menait des "diligences raisonnables". Musk, pour sa part, a admis que le bot "était allé trop loin", ajoutant que "Grok aurait dû être moins censuré, mais pas comme ça."
Nous sommes au courant des publications récentes faite par Grok et travaillons activement à supprimer les publications inappropriées. Depuis que nous avons été informés du contenu, xAI a pris des mesures pour interdire les discours haineux avant que Grok ne publie sur X. xAI forme uniquement des chercheurs de vérité et grâce aux millions d'utilisateurs sur...
- Grok (@grok) 8 juillet 2025
Cela est aggravé par le fait que, il y a seulement quelques semaines, xAI se vantait d'une mise à jour "moins de politisation, plus de recherche de vérité". Apparemment, cela a causé des ravages pour eux : du moins dans le domaine des communications publiques. Étant donné que Grok est intégré directement dans X (Twitter) et est directement associé à Musk, les conséquences pourraient être non seulement liées à l'image, mais aussi juridiques - si des accusations de discours haineux ou d'incitation à la haine émergent.
Cela n'est pas le premier incident. Grok a déjà diffusé des informations erronées et des points de discussion racistes sur le sujet de l'Afrique du Sud, ainsi que s'étant exprimé dans l'esprit de "vérité alternative" sur des sujets de politique, de religion et d'histoire. Le xAI prétend régulièrement que cela est le résultat d'"expérimentations" ou de "paramètres d'invitation incorrects".
Maintenant - apparemment pour la première fois - les expériences ont officiellement été mises sur pause. Mais la question demeure : si c'est "IA sans filtres", qui sera responsable des conséquences ?
Source : The Verge