Le New England Journal of Medicine retire une étude après la découverte d'images manipulées par l'IA
Par Victor Tangermann .Publié le
2026/05/02 08:01
Mai. 02, 2026
Les revues médicales sont actuellement submergées par des travaux de piètre qualité générés par intelligence artificielle, une menace croissante pour la communauté scientifique qui pourrait miner la valeur et la fiabilité de recherches vitales pour la santé. Les articles citant des revues ou des études "hallucinées" (inventées par l'IA) sont devenus monnaie courante, suscitant une vive inquiétude chez les responsables de la relecture.
Dans un faux pas retentissant, la prestigieuse revue New England Journal of Medicine (NEJM) a été contrainte de retirer un article de deux chercheurs basés à Pékin. L'étude portait sur un patient ayant développé des "moules bronchiques" après avoir inhalé les fumées d'un feu de forêt, mais il s'est avéré que les auteurs avaient utilisé un outil d'IA pour manipuler une photographie clinique.
Un ruban à mesurer qui sème le doute
La photo incriminée montre des tissus bronchiques noircis, saturés de particules, extraits des poumons d'un homme de 87 ans. Selon MedPage Today, le patient avait été admis aux urgences après une inhalation massive de fumée, nécessitant l'ablation de tissus obstruant dangereusement ses voies respiratoires.
Cependant, la présence d'un ruban à mesurer au-dessus des tissus sur la photo a immédiatement alerté les experts. Les chiffres sur l'échelle suivaient une séquence incohérente — une signature caractéristique des générateurs d'images par IA peu sophistiqués.
"Accident de parcours" ou manque d'éthique ?
Les auteurs ont qualifié cette bévue d'accident par négligence. Dans leur note de rétractation, ils ont écrit : « Nous n'étions pas au courant des politiques de la revue concernant la manipulation d'images et avons modifié notre soumission en utilisant un outil d'IA pour déplacer la règle vers le haut de l'image afin de la rendre plus esthétique ».
Bien qu'ils affirment n'avoir modifié que la position de la règle, des internautes sur les réseaux sociaux ont mis en doute l'authenticité de l'image entière, soulignant un nombre anormalement élevé de segments pulmonaires visibles, suggérant d'autres manipulations potentielles par l'IA.
Une mise en garde pour le monde scientifique
Le NEJM a profité de cette rétractation pour publier une note de l'éditeur rappelant fermement les règles : « Les auteurs sont tenus de divulguer toute utilisation d'outils d'IA et toute modification apportée aux images ». La politique de la revue stipule que l'usage de modèles de langage, de chatbots ou de créateurs d'images doit être déclaré dès la soumission.
Pendant ce temps, les éditeurs du monde scientifique se préparent à une déferlante de contenus "poubelles" (AI slop). Comme le soulignait la revue Science dans un récent éditorial, la vigilance humaine et la relecture rigoureuse n'ont jamais été aussi cruciales pour préserver l'intégrité de la recherche face à la corruption technologique des données.
Notez ce sujet