Erster US-Anwalt lebenslang gesperrt wegen KI-Zitaten. Frankreich folgt derselben Kurve.
Ein Anwalt aus Omaha wurde unbefristet gesperrt, weil er einen Berufungsschriftsatz mit von ChatGPT erfundener Rechtsprechung eingereicht hat. Frankreich liegt zwölf Monate zurück.

57 Zitate von 63
Am 15. April 2026 hat der Oberste Gerichtshof von Nebraska die unbefristete Sperre eines Anwalts aus Omaha namens Greg Lake angeordnet. Es ist die erste vollständige Sperre eines US-Anwalts wegen KI-Nutzung in einem Gerichtsverfahren. Die Sanktion ist weder eine Geldstrafe noch eine Pflichtfortbildung: Sie ist eine vorläufige Entziehung der Zulassung, sine die.
Der Tatbestand ist präzise. Lake hatte im Februar 2026 einen Berufungsschriftsatz in einem Scheidungsverfahren eingereicht. Von 63 Rechtsprechungszitaten waren 57 fehlerhaft. Zwanzig waren reine KI-Halluzinationen: Urteile, die nie existiert haben, in keiner Gerichtsbarkeit des Landes. Vier waren komplett erfunden, mit plausiblen Aktenzeichen und überzeugenden Zusammenfassungen.
Als die Richter ihn in der Verhandlung befragten, berief sich Lake zunächst auf einen Dateifehler während einer komplizierten Reise. Bevor er unter Druck zugab, dass er ein generatives KI-Tool genutzt und nichts überprüft hatte. Der Counsel for Discipline von Nebraska qualifizierte diese erste Version als "Verstoß gegen die Wahrheitspflicht gegenüber dem Gericht". Die Sanktion folgte zwei Monate später.
Die Kurve Q1 2026: vom Ausrutscher zur Eskalation
Der Fall Lake ist keine isolierte Episode. Er ist die sichtbare Spitze einer schnell ansteigenden Welle.
Allein im ersten Quartal 2026 haben US-Bundes- und Landesgerichte Geldsanktionen in Höhe von mindestens 145.000 Dollar wegen erfundener KI-Zitate verhängt. Die Verteilung ist aufschlussreich. Januar: 5.000 Dollar. Februar: 250 Dollar. März: über 100.000 Dollar innerhalb weniger Wochen.
Zwei Entscheidungen haben den März kippen lassen. Der 6. Bundesberufungsbezirk hat zwei Anwälte mit 30.000 Dollar (jeweils 15.000) sanktioniert für Schriftsätze voller imaginärer Zitate. Und ein Anwalt aus Oregon erhielt 109.700 Dollar an kumulierten Sanktionen und Gegenparteiengebühren, der derzeitige Rekord für einen einzelnen Fall.
Die Botschaft der Richter ist klar geworden. Die Lernkurve ist abgeschlossen. Das Argument "Ich wusste nicht, dass ChatGPT Dinge erfindet" hält nicht mehr. Die Datenbank des französischen Juristen Damien Charlotin verzeichnet inzwischen weltweit hunderte dokumentierte Fälle. Nebraska legt die Latte eine Stufe höher: Die Entziehung der Zulassung steht nun zur Debatte.
Das Paradox, das niemand laut ausspricht
Während die Anwaltskammern die Tonart verschärfen, hat eine im April veröffentlichte Erhebung des Ethics Reporter eine Zahl ans Licht gebracht, die niemand wirklich kommentieren wollte: 61,6 Prozent der US-Bundesrichter geben an, mindestens ein KI-Tool in ihrer Arbeit zu nutzen. Rechtsprechungsrecherche, Schriftsatzsynthese, erste Aktenanalyse.
Dieselben Magistraten, die Anwälte mit 30.000 Dollar sanktionieren, nutzen dieselben Tools, manchmal für dieselben Aufgaben. Der offizielle Unterschied: Sie überprüfen. Niemand hat ein Audit über die Qualität dieser Überprüfung veröffentlicht.
Diese Asymmetrie schafft einen seltsamen Präzedenzfall. Die US-Justiz schreibt eine Rechtsprechung, die den Praktikern verbietet, was sich die Richter selbst erlauben. Das ist an sich nicht unlogisch: Ein Richter, der seine eigene Arbeit kontrolliert, bindet nur sich selbst, während ein Anwalt, der die Akte verschmutzt, seinen Mandanten bindet. Aber man berührt einen empfindlichen Punkt. Das System fordert von Anwälten eine Sorgfalt, die es denen, die sie richten, nicht auferlegt.
Greg Lake ist zur perfekten Illustration dieser Spannung geworden. Lebenslang gesperrt, weil er ohne die erwartete Sorgfalt das getan hat, was die Mehrheit der Richter, die ihn sanktioniert haben, in ihren Büros tun.
Und in Frankreich, wie steht es?
Frankreich folgt derselben Kurve wie die Vereinigten Staaten, mit etwa zwölf Monaten Verspätung.
Am 18. Dezember 2025 hat das Tribunal judiciaire von Périgueux erstmals in Frankreich fiktive Rechtsprechungsverweise festgestellt, die von einem generativen KI-Tool in einem Schriftsatz produziert wurden. Erfundene Aktenzeichen, reale Urteile mit falschen Daten und Themen zitiert. Wenige Tage zuvor hatte das Verwaltungsgericht von Grenoble in zwei separaten Verfügungen (3. und 9. Dezember) eine ungeprüfte KI-Nutzung in Streitschriften identifiziert. Das Verwaltungsgericht von Orléans und der Verwaltungsberufungshof von Bordeaux haben seitdem Anwälten förmliche Verwarnungen ausgesprochen und sie an die Pflicht erinnert, zitierte Verweise auf Halluzinationen zu prüfen.
Keine französische Anwaltskammer hat bisher eine Sperre ausgesprochen. Der Conseil National des Barreaux hat jedoch auf seiner Generalversammlung am 12. und 13. März 2026 einen Referenzbericht über algorithmische Halluzinationen und ihre berufsethischen Implikationen verabschiedet. Der Bericht erinnert an das, was die Profession bereits weiß: Die Verantwortung des Anwalts bleibt ungeschmälert, unabhängig vom verwendeten Werkzeug. Unkenntnis ist nun ein potenzieller Grund für disziplinarische Sanktionen bis hin zur Entziehung der Zulassung.
Auf dem Boden ist die Kluft frappierend. Laut einer Anfang 2026 veröffentlichten Erhebung geben 81 Prozent der französischen Anwälte an, generative KI in ihrer Praxis zu nutzen. Einundachtzig Prozent. Im Vergleich zu den drei größeren Disziplinarsanktionen, die in den Jahren 2024-2025 tatsächlich verhängt wurden. Die Nutzungsquote ist massiv, die Kontrollquote ist marginal.
Die Welle kommt
In den USA dauerte es zwei Jahre und drei Monate zwischen dem ersten Fall Mata vs Avianca (Juni 2023, symbolische Sanktion) und der ersten effektiven Sperre (April 2026, Greg Lake). In Frankreich datiert die erste offizielle Feststellung vom Dezember 2025. Wenn sich dieselbe Dynamik wiederholt, sollte die erste Sperre eines französischen Anwalts wegen erfundener KI-Zitate zwischen Ende 2027 und dem ersten Halbjahr 2028 erfolgen.
Es sei denn, der AI Act beschleunigt die Dinge. Ab dem 2. August 2026 werden die Verpflichtungen für sogenannte Hochrisiko-KI-Systeme vollständig durchsetzbar. Im juristischen Berufskontext eingesetzte Tools sind nicht ausdrücklich in Anhang III klassifiziert, aber die Debatte ist offen: Ein Assistent, der Schlussfolgerungen verfasst, der Rechtsprechung auswählt, der eine Argumentation vorschlägt, greift sehr wohl in eine Entscheidung ein, die die Rechte eines Rechtssuchenden betrifft.
Greg Lake hat wahrscheinlich nicht gedacht, dass er der Erste sein würde. Wenn ein französischer Richter in achtzehn Monaten eine vergleichbare Entscheidung trifft, wird er sagen können, dass er gewarnt war.



