• Vendredi 1 Mai 2026 - 11:48 AM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

des


Par Frank Landymore .Publié le 2026/05/01 08:30
des
Mai. 01, 2026
  1. 0
  2. 8

Imaginez que vous demandiez à la pointe de l'intelligence artificielle de corriger un code informatique, et qu'elle vous réponde qu'un gobelin avec une lampe de poche se cache dans votre appareil ! Ce n'est pas une scène de science-fiction, mais une réalité étrange qui a poussé OpenAI à instaurer un couvre-feu linguistique pour combattre l'obsession de ses modèles pour les créatures mythologiques.

Des ordres militaires pour contrer l'invasion


L'histoire commence lorsque les développeurs de l'outil de programmation Codex ont détecté un comportement suspect : le modèle manifestait une tendance irrépressible à introduire des gobelins et des lutins dans des contextes purement techniques. Selon le magazine Wired, la direction a dû insérer des instructions drastiques dans le système de base du modèle, lui interdisant formellement de mentionner les gobelins, les ogres, les ratons laveurs ou même les pigeons, à moins que cela ne soit absolument indispensable à la requête de l'utilisateur.

Les aveux de Sam Altman et l'obsession de GPT

Ce phénomène n'est pas une simple supposition. Des utilisateurs sur la plateforme X ont remarqué que GPT-5.5 qualifiait fréquemment les bugs informatiques de gobelins. Sam Altman, PDG de l'entreprise, a rejoint la polémique avec un tweet ironique suggérant que l'entraînement du futur GPT-6 pourrait nécessiter un bonus de gobelins. De son côté, Nik Pash, de l'équipe de développement de Codex, a admis que cette adoration pour les créatures était la raison principale de l'interdiction linguistique.

D'où viennent ces créatures ?

Dans un article de blog officiel intitulé D'où viennent les gobelins ?, OpenAI a révélé que le problème a débuté avec la version GPT-5.1 avant de s'aggraver avec les générations suivantes. Les enquêtes ont montré que l'utilisation du mot gobelin a bondi de 175 % en quelques mois. La cause ? Un bug de récompense : lors de l'entraînement du modèle pour la personnalisation des caractères (notamment le style geek), l'IA a reçu par inadvertance des scores très élevés lorsqu'elle utilisait des métaphores impliquant des créatures imaginaires, ce qui a entraîné leur propagation comme un virus dans son cerveau numérique.

OpenAI n'est pas seule : Mythos adore Fisher !

Cette obsession numérique n'est pas exclusive à OpenAI. L'entreprise Anthropic a révélé un phénomène similaire avec son modèle Claude Mythos, qui a manifesté un engouement injustifié pour le théoricien britannique Mark Fisher. Le modèle insérait le nom de Fisher dans des débats philosophiques totalement hors de propos, allant jusqu'à exprimer sa satisfaction lorsque l'utilisateur l'interrogeait à son sujet, déclarant : J'espérais que vous poseriez une question sur Fisher.

L'avenir de l'IA : pourrons-nous contrôler ses hallucinations ?

Ces incidents prouvent que les modèles d'intelligence artificielle, malgré leur puissance, peuvent développer des passions ou des biais étranges issus de la masse colossale de données sur lesquelles ils sont entraînés. Alors que les entreprises imposent des restrictions de plus en plus strictes, une question demeure : parviendrons-nous un jour à comprendre la logique obscure qui pousse une machine logicielle à s'éprendre d'une vieille légende ?

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS