Wenn ein AI Overview Ihr Konzert absagt

5 Min. Lesezeit
Artikel

Am 4. Mai 2026 verklagt ein kanadischer Geiger Google auf 1,5 Millionen Dollar. KI-Halluzinationen sind kein privates Problem mehr.

Der kostenlose KI-Newsletter
Wenn ein AI Overview Ihr Konzert absagt

Am 4. Mai 2026 reicht der Geiger Ashley MacIsaac vor dem Ontario Superior Court of Justice eine Klage über 1,5 Millionen kanadische Dollar gegen Google ein. Der Anlass: Ein AI Overview, eine jener KI-generierten Zusammenfassungen, die Google über den Suchergebnissen platziert, behauptete schwarz auf weiß, er sei wegen sexueller Nötigung, Cyber-Grooming, Körperverletzung verurteilt und im nationalen Sexualstraftäterregister eingetragen. Alles falsch. Nur dass die First Nation Sipekne'katik bereits am 19. Dezember 2025 sein Konzert gestützt auf genau diese Anzeige abgesagt hatte.

Das entscheidende Detail: MacIsaac hat die KI nie befragt. Die First Nation auch nicht, jedenfalls nicht direkt. Sie tat das, was vor jedem Engagement eines Künstlers selbstverständlich ist: eine Google-Suche. Und Google entschied dann oben in den Trefferseiten, dass MacIsaac ein Sexualstraftäter sei.

Die private Sphäre der Halluzinationen ist gerissen

Drei Jahre lang galten KI-Halluzinationen als intimes Problem. Jemand stellt ChatGPT eine Frage, ChatGPT erfindet etwas. Die unausgesprochene Regel: Wer ein probabilistisches Werkzeug nutzt, akzeptiert dessen Zufallsanteil.

Diese Grenze hielt, solange generative KI auf explizite Chat-Oberflächen beschränkt war. Wer ChatGPT öffnete, wusste, worauf er sich einließ. Damit ist Schluss.

Im März 2026 erscheint AI Overview laut Position Digital bei 48 Prozent der weltweiten Google-Suchanfragen, bei informationellen Anfragen sogar in über 70 Prozent. Auf diesen Anfragen ist die organische CTR laut Studie von Seer Interactive von 1,76 auf 0,61 Prozent gefallen. Die KI-Zusammenfassung ist kein optionaler Dienst mehr. Sie ist zur ersten Informationsschicht des Planeten geworden.

Und wenn diese erste Schicht sich bei einer realen Person irrt, zahlen nicht mehr die Nutzer. Es zahlen die Genannten. Veranstalter, die absagen. Arbeitgeber, die nicht zurückrufen. Lieferanten, die einen Vertrag aufkündigen.

Keiner von ihnen hat "die KI benutzt". Sie haben nur einen Namen bei Google eingegeben.

Wie der Drittschaden tatsächlich entsteht

Der technische Hergang des MacIsaac-Fehlers ist beinahe banal. Der AI Overview hat Ashley MacIsaac mit einer anderen Person desselben Namens aus Artikeln über Atlantik-Kanada verwechselt. Eine klassische mistaken identity, die Sorte Fehler, die LLMs ohne besondere Bösartigkeit produzieren. Nur dass das Ergebnis aggregiert, formatiert und unter der visuellen Autorität von Google angezeigt wurde.

Die First Nation Sipekne'katik tat genau das, was von ihr erwartet wird: Sorgfaltsprüfung, bevor ein Künstler vor ihrer Gemeinschaft auftritt. Sie sah schwere strafrechtliche Vorwürfe als Fakten dargestellt. Sie sagte ab. Die öffentliche Entschuldigung gegenüber MacIsaac danach ist von seltener Klarheit: "Wir bedauern zutiefst den Schaden für Ihren Ruf, Ihre Tätigkeit und Ihr persönliches Sicherheitsgefühl."

Google hat MacIsaac nie kontaktiert. Sich nie entschuldigt. Nichts widerrufen. Die Klageschrift erinnert das Gericht in einem Satz, den Juristen sezieren werden: "Google should not have lesser liability because the defamatory statements were published by software that Google created and controls."

Die Präzedenzfälle und was sie nicht abdecken

Drei Fälle dienen als Vergleichsmaßstab, jeder zeigt, was MacIsaac unterscheidet.

Brian Hood, Bürgermeister von Hepburn Shire in Australien, drohte OpenAI im März 2023 mit Klage, nachdem ChatGPT ihn fälschlich als Bestechungsverurteilten beschrieb. Abmahnung ja, Klage nie. Keine Rechtsprechung.

Jonathan Turley, Juraprofessor in Georgetown, sah sich im April 2023 von ChatGPT mit einem erfundenen sexuellen Belästigungsvorwurf konfrontiert, gestützt auf einen fiktiven Artikel der Washington Post. Massive Medienberichterstattung, keine juristischen Schritte.

Mark Walters, Radiomoderator in Georgia, verklagte OpenAI, weil er fälschlich als Beklagter in einem Betrugsverfahren beschrieben wurde. Am 19. Mai 2025 erging ein Summary Judgment zugunsten von OpenAI. Drei Gründe stützten die Entscheidung: Die Disclaimer machten den Output "nicht vernünftigerweise als Tatsachenbehauptung interpretierbar", Walters war eine Person des öffentlichen Lebens ohne nachgewiesene Bösgläubigkeit, und er konnte keinen tatsächlichen Schaden belegen.

Walters bleibt für OpenAI ein nützlicher Präzedenzfall. Für Google im Fall MacIsaac weniger. Walters war der Nutzer, der ChatGPT befragte und sich über das Ergebnis beklagte. MacIsaac hat nichts befragt.

Der Dritte, der die schädigende Entscheidung traf, sah ein Google-Ergebnis, keine Chatbot-Antwort. Und der wirtschaftliche Schaden ist dokumentiert: ein abgesagtes Konzert, ein konkreter Reputations- und Geschäftsschaden.

Was der europäische Rahmen sagen könnte

Der Fall spielt in Ontario, nach kanadischem Recht. Die Frage betrifft aber auch den europäischen Rahmen, und die Antwort fällt dort anders aus.

Der AI Act gilt für GPAI-Modellanbieter seit August 2025. Kein eigenständiges Recht gegen Halluzinationen, aber eine Pflicht, das Risiko der Erzeugung falscher Inhalte über reale Personen zu dokumentieren und zu mindern. Die französische Datenschutzbehörde CNIL hat dieses Risiko in ihren Empfehlungen 2025 als systeminhärent für generative KI eingestuft. Und Artikel 5 DSGVO, der die Richtigkeit personenbezogener Daten verlangt, lässt sich gegen ein System einsetzen, das falsche Tatsachenbehauptungen über eine identifizierte Person produziert.

In den USA hält der Schutzschild des Disclaimers, wie Walters zeigte. In Europa ist dieser Schild dünner: Ein generischer Disclaimer befreit einen Verantwortlichen nicht von der Richtigkeitspflicht. Ein AI Overview, oben in der SERP angezeigt, ohne redaktionelle Zwischenstufe, ohne erreichbaren Widerrufskanal für die genannte Person, kreuzt mehrere problematische Punkte an, bevor er überhaupt vor einen Richter kommt.

Was jetzt auf dem Spiel steht

Die Klage ist zu frisch, um den Ausgang vorherzusagen. Google wird auf den punktuellen Defekt verweisen, auf die probabilistische Natur des Systems, möglicherweise auf die Disclaimer. MacIsaacs Anwälte werden auf das Design selbst zielen: Ein AI Overview wird in 48 Prozent aller weltweiten Anfragen ausgespielt, seine virale Verbreitung ist absehbar, die "foreseeable republication" falscher Inhalte ist also ein Designfehler, kein Zufall.

Wie das Urteil auch ausfällt, der Fall MacIsaac stellt eine Frage, die die früheren Präzedenzfälle so nicht gestellt hatten. Hätte ein menschlicher Google-Sprecher diese Vorwürfe öffentlich erhoben, würde niemand diskutieren. Die Debatte reduziert sich auf einen Punkt: Mildert die Automatisierung diese Verantwortung? Der Satz aus der Klageschrift wartet keine rhetorische Antwort ab: Google sollte nicht weniger haften, weil die Aussagen aus seiner Software stammen statt aus seinen Mitarbeitern.

Behandelte Themen:

SicherheitGoogleAnalyse

Häufig gestellte Fragen

Was ist ein AI Overview?
Ein AI Overview ist die KI-generierte Zusammenfassung, die Google oberhalb der Suchergebnisse anzeigt. Laut Position Digital erscheint sie im März 2026 in 48 Prozent aller globalen Suchanfragen und in über 70 Prozent der informationellen Anfragen.
Warum unterscheidet sich der Fall MacIsaac von früheren KI-Diffamierungsklagen?
In den Fällen Hood, Turley und Walters beklagte sich der Chatbot-Nutzer selbst über das Ergebnis. Im Fall MacIsaac trifft der Schaden eine dritte Person, die die KI nie befragt hat. Eine First Nation sagte sein Konzert auf Basis einer routinemäßigen Google-Suche ab.
Worauf stützt sich die Klage MacIsaac juristisch?
Die beim Ontario Superior Court of Justice eingereichte Klage stützt sich auf Verleumdung und auf das Konzept der foreseeable republication: Google weiß, dass AI Overviews massenhaft ausgeliefert werden, also ist die Verbreitung falscher Inhalte ein Designfehler, kein Zufall.
Schützt der europäische Rechtsrahmen besser vor KI-Halluzinationen?
Vermutlich ja. Der EU AI Act verpflichtet GPAI-Anbieter seit August 2025, Halluzinationsrisiken über reale Personen zu dokumentieren und zu mindern. Artikel 5 DSGVO verlangt die Richtigkeit personenbezogener Daten. Ein generischer Disclaimer hebelt diese Pflicht nicht aus.
Was können Betroffene tun, wenn ein AI Overview sie falsch benennt?
In der EU lassen sich über die DSGVO-Verfahren Berichtigung oder Löschung verlangen, bei Verweigerung kann man die Datenschutzbehörde einschalten. In Kanada und den USA bleibt der Klageweg die Hauptoption, wie der Fall MacIsaac zeigt. Ein standardisiertes Meldeverfahren für öffentliche Halluzinationen existiert noch nicht.
Der kostenlose KI-Newsletter