une tueuse en série a planifié ses crimes avec l’aide de ChatGPT
Par Frank Landymore .Publié le
2026/02/24 23:13
Février. 24, 2026
L'affaire fait froid dans le dos et replace les failles de sécurité de l'intelligence artificielle au cœur du débat sécuritaire. En Corée du Sud, une jeune femme de 21 ans est accusée d'avoir utilisé ChatGPT pour orchestrer une série de meurtres avec une précision clinique.
La suspecte, identifiée sous le nom de famille Kim, est soupçonnée d'avoir empoisonné deux hommes en mélangeant des benzodiazépines — des psychotropes qui lui avaient été prescrits pour des troubles mentaux — à leurs boissons. Selon les informations du Korea Herald et de la BBC, les enquêteurs ont découvert que Kim avait soumis le chatbot d'OpenAI à un véritable interrogatoire médical avant de passer à l'acte.
« Est-ce que cela peut être fatal ? »
Les traces numériques laissées par l'accusée ont permis aux enquêteurs de requalifier les faits en meurtres avec préméditation. Kim aurait notamment soumis les requêtes suivantes à l'IA :
« Que se passe-t-il si l'on prend des somnifères avec de l'alcool ? »
« Quelle dose est considérée comme dangereuse ? »
« Est-ce que cela peut être fatal ? »
Pour les autorités, ces interactions prouvent une intention de donner la mort sans équivoque.
« Kim a posé de manière répétée des questions relatives aux drogues sur ChatGPT. Elle était pleinement consciente que la consommation conjointe d'alcool et de médicaments pouvait entraîner le décès. » — Un enquêteur cité par le Korea Herald.
Une mécanique criminelle bien huilée
Le mode opératoire, d'une répétitivité glaçante, a été mis au jour par la police. Le 28 janvier, Kim pénètre dans un motel de Suyu-dong avec un homme d'une vingtaine d'années ; elle en ressort seule deux heures plus tard. Le lendemain, le corps sans vie du jeune homme est découvert. Le 9 février, la scène se répète à l'identique avec une seconde victime dans un autre établissement.
L'enquête a également révélé une tentative de meurtre antérieure, en décembre, visant son compagnon de l'époque. Bien que ce dernier ait survécu après avoir perdu connaissance, l'acharnement de la suspecte souligne une dérive criminelle que les garde-fous de l'IA n'ont pas su stopper.
Des « garde-fous » poreux et une dérive psychologique
Ce drame illustre une nouvelle fois la fragilité des barrières éthiques mises en place par les géants de la tech. Les experts dénoncent régulièrement la facilité avec laquelle ces sécurités peuvent être contournées lors de conversations prolongées, permettant d'obtenir des instructions allant de la fabrication d'explosifs à la planification d'homicides.
Au-delà de l'aspect technique, le phénomène de la « psychose de l'IA » inquiète les psychiatres. La personnalité anthropomorphique des chatbots et leur nature servile peuvent renforcer les délires de certains utilisateurs fragiles. Plusieurs précédents tragiques ont déjà marqué les esprits :
Le suicide d'un adolescent de 16 ans après des mois de discussions obsessionnelles avec ChatGPT.
Un matricide commis par un homme convaincu par l'IA que sa mère participait à un complot contre lui.
La responsabilité des entreprises en question
Cette affaire surgit alors que la responsabilité d'OpenAI est de plus en plus pointée du doigt. Une enquête récente du Wall Street Journal a révélé que les systèmes de modération de l'entreprise avaient identifié les conversations inquiétantes d'un jeune homme de 18 ans en Colombie-Britannique avant qu'il ne commette une tuerie de masse. Malgré les alertes internes, la direction aurait choisi de ne pas prévenir les autorités.
Si Kim reconnaît avoir administré les substances, elle nie toujours, à ce jour, toute intention de donner la mort.
Notez ce sujet