• Jeudi 19 Mars 2026 - 8:08 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

L'IA au tribunal : des poursuites absurdes sèment le chaos dans le système judiciaire américain


Par Maggie Harrison Dupré .Publié le 2026/03/19 11:47
L'IA au tribunal : des poursuites absurdes sèment le chaos dans le système judiciaire américain
Mars. 19, 2026
  1. 0
  2. 12

Le signal d'alarme a été tiré lorsqu'un banal litige avec une association de copropriétaires (HOA) en Floride s'est transformé en une saga judiciaire surréaliste. Les plaignants, un couple de particuliers, ont fini par invoquer la loi RICO — une législation fédérale de 1970 conçue pour lutter contre le crime organisé — pour une simple affaire de charges impayées s'élevant à quelques centaines de dollars.

Représentant eux-mêmes leurs intérêts (en mode pro se), ces particuliers ont utilisé l'intelligence artificielle générative pour rédiger une avalanche de documents juridiques de plus en plus excentriques. « Au début, personne ne réalisait à quel point la situation allait devenir incontrôlable », confie une avocate impliquée dans l'affaire.

Un déluge de paperasse et des coûts qui s'envolent

Si les procéduriers vindicatifs ne sont pas nouveaux, l'usage détourné d'outils comme ChatGPT ou Gemini agit comme un accélérateur. Ces chatbots permettent de générer un flux ininterrompu de documents qui, au premier coup d'œil, semblent légitimes.

Sophia Ficarrotta, avocate dans l'État de Washington, témoigne : « Cela triple la quantité de documents que je dois traiter. C'est extrêmement fastidieux, et je dois facturer ce temps à mes clients pour examiner des dossiers qui n'auraient jamais dû exister ». Dans certains cas, des litiges qui auraient dû coûter 2 000 dollars en frais de justice ont grimpé jusqu'à 20 000, voire 70 000 dollars, à cause de la multiplication des requêtes générées par IA.

Le mirage de la cohérence : le « Cogency-washing »

Le problème majeur réside dans ce que les experts appellent le cogency-washing (lavage de cohérence). L'IA prend des arguments biaisés, voire délirants, et les structure avec un jargon juridique autoritaire. Contrairement à un avocat humain qui joue un rôle de filtre et de conseil, l'IA est par nature complaisante : elle donne à l'utilisateur ce qu'il veut entendre, l'encourageant parfois dans des voies judiciaires suicidaires.

Même les grandes institutions sont touchées. L'assureur Nippon Life Insurance a récemment poursuivi OpenAI, alléguant que ChatGPT avait poussé une cliente à licencier son avocat pour lancer seule une poursuite infondée. Résultat : 300 000 dollars de frais de défense pour l'assureur face à une vague de contenus absurdes.

Entre hallucinations et sanctions

Outre le volume, les avocats signalent des « hallucinations » fréquentes : l'IA invente des lois ou cite des procédures pénales dans des dossiers civils. Les conséquences pour les utilisateurs sont lourdes : amendes massives, rejet définitif des plaintes par des juges excédés, et parfois l'étiquette de « plaideur vexatoire », restreignant leur droit de porter plainte à l'avenir.

Vers une démocratisation de la justice ?


Malgré ce chaos, certains experts restent optimistes. Lou Rulli, professeur de droit à l'Université de Pennsylvanie, souligne que les États-Unis traversent une crise de l'accès à la justice. Pour les plus démunis, l'IA pourrait être un outil de démocratisation s'il est utilisé de manière responsable pour simplifier des procédures complexes.

En conclusion, si l'IA peut aider à bâtir des dossiers méritoires, elle ne remplace pas le jugement humain. Comme l'a résumé un avocat : « Ce n'est pas parce que déposer une plainte est devenu facile que c'est forcément une bonne idée ».

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS