Premier avocat suspendu à vie aux US pour ses citations IA. La France suit la même pente.
Un avocat de l'Omaha vient d'être suspendu indéfiniment pour avoir déposé une mémoire d'appel truffée de jurisprudence inventée par ChatGPT. La France suit la même courbe avec 12 mois de retard.

57 citations sur 63
Le 15 avril 2026, la Cour suprême du Nebraska a prononcé la suspension indéfinie d'un avocat d'Omaha, Greg Lake. Première suspension intégrale d'un avocat américain pour usage d'IA dans une procédure judiciaire. La sanction n'est ni une amende, ni une formation obligatoire : c'est une radiation provisoire, sine die.
Le motif est précis. Lake avait déposé en février 2026 une mémoire d'appel dans un dossier de divorce. Sur 63 citations jurisprudentielles, 57 étaient défectueuses. Vingt étaient des hallucinations IA pures : des arrêts qui n'ont jamais existé, dans aucune juridiction du pays. Quatre étaient totalement inventés, avec des numéros de rôle plausibles et des résumés convaincants.
Quand les juges l'ont interrogé en audience, Lake a d'abord plaidé l'erreur de fichier déposé pendant un voyage compliqué. Avant d'admettre, sous la pression, qu'il avait bien utilisé un outil d'IA générative et n'avait rien vérifié. Le Counsel for Discipline du Nebraska a qualifié cette première version d'"atteinte au devoir de candeur envers la cour". La sanction est tombée deux mois plus tard.
La courbe Q1 2026 : du dérapage à l'escalade
Le cas Lake n'est pas un fait divers. C'est le pic visible d'une vague qui monte vite.
Sur le seul premier trimestre 2026, les tribunaux fédéraux et d'État américains ont infligé au moins 145 000 dollars de sanctions financières pour citations IA fabriquées. La répartition raconte tout. Janvier : 5 000 dollars. Février : 250 dollars. Mars : plus de 100 000 dollars en l'espace de quelques semaines.
Deux décisions ont fait basculer le mois de mars. Le 6e circuit fédéral a sanctionné deux avocats à hauteur de 30 000 dollars (15 000 chacun) pour des écritures bourrées de citations imaginaires. Et un avocat de l'Oregon a écopé de 109 700 dollars de sanctions et de frais adverses cumulés, le record actuel pour un seul dossier.
Le message des juges est devenu clair. La courbe d'apprentissage est terminée. L'argument "je ne savais pas que ChatGPT inventait" ne tient plus. La base de données du juriste américain Damien Charlotin recense désormais des centaines de cas documentés à travers le monde. Le Nebraska vient de poser la barre un cran au-dessus : la radiation est désormais sur la table.
Le paradoxe que personne ne pose à voix haute
Pendant que les barreaux durcissent le ton, une enquête de l'Ethics Reporter publiée en avril a révélé un chiffre que personne n'a vraiment voulu commenter : 61,6 % des juges fédéraux américains ont déclaré utiliser au moins un outil d'IA dans leur travail. Recherche jurisprudentielle, synthèse de mémoires, première analyse de pièces.
Les mêmes magistrats qui sanctionnent les avocats pour 30 000 dollars utilisent les mêmes outils, parfois pour les mêmes tâches. La différence officielle : eux vérifient. Personne n'a publié d'audit sur la qualité de cette vérification.
Cette asymétrie crée un précédent étrange. La justice américaine est en train d'écrire une jurisprudence qui interdit aux praticiens ce que les juges s'autorisent. Ce n'est pas illogique en soi : un juge qui contrôle son propre travail n'engage que lui, alors qu'un avocat qui pollue le dossier engage le justiciable. Mais on touche à un point sensible. Le système exige des avocats une diligence qu'il n'impose pas à ceux qui les jugent.
Greg Lake est devenu l'illustration parfaite de cette tension. Suspendu à vie pour avoir fait, sans la rigueur attendue, ce que la majorité des juges qui l'ont sanctionné font dans leurs bureaux.
Et en France, on en est où
La France suit la même courbe que les États-Unis, avec environ douze mois de retard.
Le 18 décembre 2025, le tribunal judiciaire de Périgueux a relevé pour la première fois en France des références jurisprudentielles fictives produites par un outil d'IA générative dans des conclusions. Des numéros d'arrêts inventés, des décisions réelles citées avec des dates et des sujets erronés. Quelques jours plus tôt, le tribunal administratif de Grenoble avait identifié dans deux ordonnances séparées (3 et 9 décembre) un usage non vérifié d'IA dans des écritures contentieuses. Le tribunal administratif d'Orléans et la cour administrative d'appel de Bordeaux ont depuis adressé des avertissements solennels à des avocats, en leur rappelant l'obligation de vérifier que les références citées ne sont pas des hallucinations.
Aucun barreau français n'a encore prononcé de suspension. Mais le Conseil National des Barreaux a adopté lors de son assemblée générale des 12 et 13 mars 2026 un rapport de référence sur les hallucinations algorithmiques et leurs implications déontologiques. Le rapport rappelle ce que la profession sait déjà : la responsabilité de l'avocat reste entière, quel que soit l'outil utilisé. La méconnaissance est désormais une source potentielle de sanction disciplinaire pouvant aller jusqu'à la radiation.
Sur le terrain, l'écart est saisissant. Selon un baromètre publié début 2026, 81 % des avocats français déclarent utiliser l'IA générative dans leur pratique. Quatre-vingt-un pour cent. À comparer aux trois sanctions disciplinaires majeures effectivement prononcées en 2024-2025. La proportion d'usage est massive, la proportion de contrôle est marginale.
La vague arrive
Aux États-Unis, il a fallu deux ans et trois mois entre le premier cas Mata vs Avianca (juin 2023, sanction symbolique) et la première radiation effective (avril 2026, Greg Lake). En France, la première détection officielle date de décembre 2025. Si la même cinétique se répète, la première suspension d'un avocat français pour citations IA inventées devrait tomber entre la fin 2027 et le premier semestre 2028.
Sauf si l'AI Act vient accélérer les choses. À partir du 2 août 2026, les obligations sur les systèmes IA dits à haut risque deviennent pleinement opposables. Les outils utilisés dans le contexte juridique professionnel ne sont pas explicitement classés Annexe III, mais le débat est ouvert : un assistant qui rédige des conclusions, qui sélectionne de la jurisprudence, qui suggère un raisonnement, intervient bien dans une décision qui affecte les droits d'un justiciable.
Greg Lake n'a probablement pas pensé qu'il serait le premier. Quand un juge français prononcera une décision équivalente dans dix-huit mois, il pourra dire qu'il avait été prévenu.



