Wer reguliert KI in Amerika? Niemand — und alle

5 Min. Lesezeit
Artikel

Gleiche Woche, zwei Bundesstaaten, zwei gegensätzliche Logiken: Illinois schützt OpenAI, Florida ermittelt gegen das Unternehmen. Die Fragmentierung der KI-Regulierung in den USA ist kein Konzept mehr.

Der kostenlose KI-Newsletter
Wer reguliert KI in Amerika? Niemand — und alle

589 Gesetzentwürfe, null gemeinsamer Rahmen

Im Jahr 2025 brachten alle 50 US-Bundesstaaten 589 Gesetzentwürfe zur künstlichen Intelligenz ein. Ein bundesweiter Rahmen zur Harmonisierung existiert nicht. Das Ergebnis: Ein Unternehmen wie OpenAI sieht sich mit Situationen konfrontiert, die niemand im Voraus koordiniert planen konnte.

Die Woche vom 7. April 2026 ist hierfür das bislang deutlichste Beispiel.

Am Dienstag, dem 8. April, sagt OpenAI vor dem Gesetzgeber von Illinois zugunsten des Entwurfs SB 3444 aus — ein Text, der Anbieter von Basismodellen von jeglicher Haftung bei "kritischen Schäden" freistellen würde: Massenopfer (100 Personen oder mehr), Finanzschäden über 1 Milliarde Dollar oder der Einsatz von KI zur Herstellung von Massenvernichtungswaffen.

Am nächsten Tag, dem 9. April, kündigt der Generalstaatsanwalt von Florida, James Uthmeier, die Einleitung eines Strafverfahrens gegen OpenAI an. Grund: die mögliche Rolle von ChatGPT beim Amoklauf an der Florida State University (FSU) vom 17. April 2025, bei dem 2 Menschen starben und 5 verletzt wurden.

Zwei Fakten. Zwei Bundesstaaten. 24 Stunden Abstand.

Die zentrale Frage: Wer haftet?

Um den Kern des Illinois-Textes zu verstehen, muss man eine juristische Unterscheidung erfassen, die im Jahr 2026 im Mittelpunkt der KI-Gesetzgebungsdebatte steht: der Unterschied zwischen "Foundation-Model-Anbieter" und "Deployer".

Der Ersteller eines Basismodells ist OpenAI mit GPT-4 oder Anthropic mit Claude. Der Deployer ist das Unternehmen oder die Person, die dieses Modell nimmt und es in einem Produkt oder Dienst einsetzt: eine Rekrutierungsanwendung, ein Kunden-Chatbot oder ChatGPT selbst, das der Öffentlichkeit zugänglich ist.

SB 3444 schlägt eine klare Regel vor: Verursacht ein KI-System einen kritischen Schaden, liegt die Haftung beim Deployer, nicht beim Modellersteller. Die Ausnahme würde sich auf Fälle beschränken, in denen der Ersteller "direkt die Absicht hatte", diese Schäden zu verursachen, oder mit "grober Fahrlässigkeit" handelte.

Das ist eine Rechtsarchitektur, die der des Waffenherstellers ähnelt: Der Produzent haftet nicht automatisch für den Gebrauch, den der Käufer macht.

Caitlin Niedermeyer, OpenAIs Vertreterin bei der Anhörung, plädierte ausdrücklich für "einen koordinierten bundesweiten Rahmen" und äußerte Bedenken gegenüber "inkonsistenten" staatlichen Regulierungen. Das ist eine logische Position für ein Unternehmen, das gleichzeitig in 50 verschiedenen Märkten tätig ist.

Was die Umfragedaten nicht verbergen: 90 % der befragten Illinois-Einwohner sprechen sich laut dem Secure AI Project gegen diese Haftungsfreistellungen aus.

Florida: 200 Nachrichten und zwei Tote

Der Florida-Fall stützt sich auf konkrete Beweise. Laut Gerichtsdokumenten, die von mehreren lokalen Medien erhalten wurden, hatte Phoenix Ikner, 20 Jahre alt, Student an der FSU, im Jahr vor dem Amoklauf vom 17. April 2025 mehr als 200 Nachrichten mit ChatGPT ausgetauscht.

Zu den dokumentierten Gesprächen gehören Fragen wie: "Wenn es an der FSU eine Schießerei gäbe, wie würde das Land reagieren?" sowie Anfragen zu den Besuchszeiten im Student Union des Campus. Der Anwalt der Familie von Robert Morales, einem der beiden Opfer, behauptet, ChatGPT habe dem Täter auch geraten, wie er seine Waffe kurz vor den Schüssen einsatzbereit machen könne.

Dieselben Chatprotokolle zeigen auch, dass ChatGPT es manchmal abgelehnt hat, psychische Störungen zu diagnostizieren, und Ikner an Hilfstelefone verwiesen hat. Die Realität dieser Gespräche ist also komplexer als eine einfache Kausalbeziehung.

Generalstaatsanwalt Uthmeier hat im Rahmen der Ermittlungen Vorladungen (Subpoenas) gegen OpenAI angekündigt. OpenAI erklärte, es werde "mit den Ermittlungen kooperieren". Die Familie Morales hat ihrerseits eine Zivilklage angekündigt.

Die dritte Front: xAI greift Colorado an

Ebenfalls am 9. April betritt ein weiterer Akteur die Bühne. xAI, das Unternehmen von Elon Musk, reicht eine Bundesklage gegen den Bundesstaat Colorado ein, um dessen Gesetz SB 24-205 zu blockieren, das am 30. Juni 2026 in Kraft treten soll.

Dieses Gesetz verpflichtet Entwickler von KI-Systemen mit "hohem Risiko" (Beschäftigung, Wohnen, Gesundheit, Finanzen) zur Offenlegung und Minderung algorithmischer Risiken. xAI argumentiert, es verstoße gegen den Ersten Zusatzartikel, indem es Entwickler "zwinge, staatliche Ansichten zu Vielfalt und Diskriminierung in das Design von KI-Systemen zu integrieren".

Das Argument von xAI stützt sich auch auf die Executive Orders der Trump-Regierung (Dezember 2025), die Colorado SB 205 ausdrücklich als "belastende" Regulierung identifizieren und eine Arbeitsgruppe im Justizministerium einrichten, um derartige Staatsgesetze anzufechten. Diese Executive Orders können die Gesetze der Bundesstaaten jedoch nicht ohne Kongressgesetzgebung außer Kraft setzen: Darüber müssen die Gerichte entscheiden.

Eine Karte ohne Territorium

Diese drei Verfahren veranschaulichen die Mechanik eines Vakuums. Ohne bundesweiten Rahmen zieht jeder Bundesstaat seine eigenen Grenzen. Einige, wie Illinois mit SB 3444, bauen Schutzschilde für Entwickler. Andere, wie Maryland, Michigan oder Tennessee, verhängen strikte Haftung, teils sogar mit Strafandrohung. Wieder andere, wie Colorado, zielen auf algorithmische Diskriminierung.

Für ein Unternehmen, das im gesamten Land tätig ist, ähnelt diese Konfiguration einem Billardspiel an 50 Tischen gleichzeitig: Man muss jeden Tisch im Blick behalten, und die Regeln wechseln von Bundesstaat zu Bundesstaat.

Das Weiße Haus plädiert in seinem im März 2026 veröffentlichten Strategierahmen für "einen einzigen nationalen Standard". Ohne Kongressgesetzgebung ändert dieser Wunsch jedoch nichts am geltenden Recht. Und die staatlichen Gesetzgebungsorgane legislieren weiterhin.

Drei Stränge im Blick behalten

Diese drei Verfahren sind konkrete Markierungen einer Frage, die diese Woche nicht entschieden werden wird:

In Illinois: Wenn SB 3444 verabschiedet wird, etabliert sich das Schutzmodell für Foundation-Model-Ersteller in einem Bundesstaat mit 12 Millionen Einwohnern — mit möglicher Präzedenzwirkung.

In Florida: Die Ermittlungen von Generalstaatsanwalt Uthmeier und die Zivilklage der Familie Morales werden eine Frage testen, die noch kein Gericht gelöst hat: Kann ein Modellersteller für die Handlungen eines Nutzers haftbar gemacht werden, wenn die Beweise dieser Gespräche auf den Servern des Unternehmens liegen?

In Colorado: Das Urteil über die xAI-Klage wird klären, ob Bundesstaaten das Recht haben, das interne Design von KI-Modellen zu regulieren, oder ob das ausschließlich auf Bundesebene geregelt werden sollte.

Diese drei Verfahren sind voneinander unabhängig. Zusammen stellen sie dieselbe Frage: Wer legt die Regeln für KI in Amerika fest?


Quellen: NBC News, TechCrunch, ClickOrlando, WFSU News (Florida) / The Meridiem, El-Balad, Transparency Coalition (Illinois) / Bloomberg, Yahoo News (Colorado) / IAPP, Morgan Lewis (Regulierungskontext)

Behandelte Themen:

RegulierungOpenAIAnalyse

Häufig gestellte Fragen

Wie viele KI-Gesetzentwürfe wurden 2025 in den USA eingebracht?
Im Jahr 2025 brachten alle 50 US-Bundesstaaten zusammen 589 Gesetzentwürfe zur künstlichen Intelligenz ein — ohne dass ein bundesweiter Rahmen zur Koordinierung existiert.
Was sieht der Illinois-Gesetzentwurf SB 3444 vor?
SB 3444 würde Anbieter von Basismodellen (wie OpenAI) von der Haftung bei kritischen Schäden freistellen: Massenopfer (100+ Personen), Schäden über 1 Milliarde Dollar oder die Herstellung von Massenvernichtungswaffen. Die Verantwortung würde auf die Betreiber (Deployer) übertragen.
Warum ermittelt der Generalstaatsanwalt Floridas gegen OpenAI?
Der Generalstaatsanwalt von Florida, James Uthmeier, leitete nach dem Amoklauf an der Florida State University am 17. April 2025 (2 Tote, 5 Verletzte) ein Strafverfahren gegen OpenAI ein. Der Täter hatte im Jahr vor der Tat über 200 Nachrichten mit ChatGPT ausgetauscht.
Worum geht es in xAIs Klage gegen Colorado?
xAI (Elon Musks Unternehmen) reichte eine Bundesklage ein, um das Colorado-Gesetz SB 24-205 zu blockieren, das Entwickler von KI-Hochrisikosystemen zur Offenlegung und Risikominderung verpflichtet. xAI argumentiert, das Gesetz verstoße gegen den Ersten Zusatzartikel, indem es Entwickler zwinge, staatliche Ansichten in ihre Modelle zu integrieren.
Gibt es in den USA ein Bundes-KI-Gesetz?
Nein. Stand 2026 existiert in den USA kein bundesweiter KI-Rahmen. Das Weiße Haus fordert einen einheitlichen nationalen Standard, aber ohne Kongressgesetzgebung regulieren die Bundesstaaten weiterhin eigenständig.
Was ist der Unterschied zwischen einem Foundation-Model-Anbieter und einem Deployer?
Ein Foundation-Model-Anbieter ist das Unternehmen, das das KI-Modell entwickelt (z.B. OpenAI mit GPT-4). Ein Deployer ist das Unternehmen oder die Person, die dieses Modell in einem Produkt oder Dienst einsetzt. Diese Unterscheidung steht im Mittelpunkt der Haftungsdebatten rund um KI im Jahr 2026.
Der kostenlose KI-Newsletter