600.000 unbeantwortete Fragen: Wie KI medizinische Versorgungslücken füllt (und ausnutzt)

4 Min. Lesezeit
Artikel

Am selben Tag: ChatGPT bearbeitet 600.000 medizinische Anfragen pro Woche aus unterversorgten Regionen, und ein Zwei-Personen-Startup erwirtschaftete 1,8 Milliarden mit gefälschten KI-Ärzten. Kein Zufall — dieselbe Lücke, zwei sehr unterschiedliche Nutzungen.

Der kostenlose KI-Newsletter
600.000 unbeantwortete Fragen: Wie KI medizinische Versorgungslücken füllt (und ausnutzt)

Am Montag, dem 6. April 2026, erschienen auf The Decoder, vom selben Journalisten, im Abstand von zwei Stunden zwei Artikel.

Der erste: OpenAI enthüllte, dass ChatGPT wöchentlich 600.000 medizinische Fragen aus Gebieten ohne Krankenhausversorgung erhält. Siebzig Prozent dieser Anfragen kommen außerhalb der regulären Öffnungszeiten von Arztpraxen.

Der zweite: Das US-amerikanische Telemedizin-Startup Medvi soll mit zwei Mitarbeitern, KI, gefälschten Arztprofilen, fabrizierten Testimonialvideos und KI-generierten Vorher-Nachher-Vergleichen 1,8 Milliarden Euro Umsatz erzielt haben.

Zwei Geschichten. Eine einzige Lücke.

Der Arzt um 3 Uhr morgens

Die Zahlen von OpenAI verdienen Aufmerksamkeit. 600.000 wöchentliche medizinische Anfragen aus dem, was Amerikaner als "Hospital Deserts" bezeichnen — Gebiete, in denen das nächste Krankenhaus mehr als 30 Fahrminuten entfernt ist. Und 70 % dieser Fragen werden außerhalb der Sprechstundenzeiten gestellt.

Was diese Daten beschreiben, ist simpel: Menschen, die einen medizinischen Rat brauchen, ihn nicht bekommen können und sich an das wenden, was verfügbar ist. Um 3 Uhr morgens schläft ChatGPT nicht.

In Frankreich ist das Problem der medizinischen Unterversorgung gut dokumentiert. Fast sechs Millionen Franzosen leben in Gebieten mit zu wenigen Hausärzten. Die durchschnittlichen Wartezeiten für Facharzttermine überschreiten oft 80 Tage. Vergleichbare französische Statistiken zu den OpenAI-Zahlen gibt es nicht, aber es wäre überraschend, wenn das Verhalten grundlegend anders wäre.

Diese 600.000 Anfragen sind keine medizinische Neugier. Es sind Menschen, die konkrete Antworten suchen, weil sie in diesem Moment keine andere Wahl haben.

OpenAI nutzt die Gelegenheit, diese Daten zu präsentieren. Das Unternehmen hat in ChatGPT einen eigenen Gesundheitsbereich eingeführt, mit Apple Health-Integration, Wellness-Daten und Krankenakten. Gesundheitsgespräche werden getrennt gespeichert und, so heißt es, nicht für das Modelltraining verwendet. Krankenhauspartnerschaften in den USA sind in Vorbereitung.

Diese Zahlen sollte man für das nehmen, was sie sind: Daten, die OpenAI selbst veröffentlicht hat, mit einem offensichtlichen Interesse daran, seinen positiven gesellschaftlichen Einfluss zu demonstrieren. Das macht sie nicht wertlos, aber es ist einen Hinweis wert.

Medvi, oder wie dieselbe Lücke 1,8 Milliarden einbrachte

Die New York Times hatte Medvi zunächst als leuchtendes Beispiel des KI-gestützten "Ein-Personen-Imperiums" präsentiert. Ein winziges Team, enormer Umsatz, beeindruckende operative Effizienz.

Was die Times nicht erwähnte: gefälschte Arztprofile in sozialen Netzwerken. Fabrizierte Erfahrungsberichte. KI-generierte Vorher-Nachher-Vergleiche. Eine gesamte medizinische Werbeinfrastruktur auf Falschem aufgebaut.

Medvi verkaufte GLP-1-Medikamente, die beliebten Abnehmbehandlungen. Ein boomender Markt, oft verzweifelte Patienten und eine US-Regulierung, die der Telemedizin hinterherhinkte. Perfekte Bedingungen.

Was an dieser Geschichte auffällt, ist weniger der Betrug selbst als sein Ausmaß und seine Unsichtbarkeit. Zwei Personen. 1,8 Milliarden. Und eine weltbekannte Zeitung, die nichts bemerkte.

KI hat keine gefälschte Medizinwerbung erfunden. Das gab es schon lange vorher. Aber sie hat etwas Neues möglich gemacht: einen Betrug von so hoher visueller Qualität und so großer Reichweite, dass er selbst für erfahrene Journalisten kaum vom Legitimen zu unterscheiden ist.

Es ist derselbe Markt

Was diese beiden Nachrichten gemeinsam so interessant macht, ist, dass sie dasselbe Phänomen aus zwei verschiedenen Perspektiven beschreiben.

ChatGPT füllt eine reale Lücke. Die 600.000 Anfragen existieren, weil das traditionelle Gesundheitssystem sie in dem Moment nicht beantworten kann, in dem sie entstehen. Das ist ein Signal für Nützlichkeit, nicht für blindes Vertrauen in KI.

Medvi hat genau dieselbe Lücke ausgenutzt. Patienten, die Zugang zur Gesundheitsversorgung brauchen, nach Alternativen suchen und dem vertrauen, was medizinisch aussieht. Derselbe Boden, andere Ernte.

Es ist ein bisschen wie ein Viertel ohne Bäckerei. Wenn jemand ein Geschäft eröffnet und echtes Brot verkauft, sind die Bewohner froh. Wenn jemand anderes ein Geschäft mit falschen Bio-Etiketten und erfundenen Bauernhoffotos eröffnet, kaufen die Bewohner dort auch — weil sie Hunger haben.

Das Problem ist nicht das Geschäft. Es ist die fehlende Bäckerei.

Die Frage, die niemand stellen will

Es wird viel über die medizinische Zuverlässigkeit von KI diskutiert. Gibt ChatGPT gute Gesundheitsratschläge? Ist es gefährlich, ein Sprachmodell um eine Diagnose zu bitten?

Das sind echte Fragen, aber sie sind nicht die richtigen Fragen für diese beiden Nachrichten.

Die eigentliche Frage lautet: Wer darf diese Lücke füllen?

Ein Arzt praktiziert unter Zulassung, rechtlicher Haftung und Berufshaftpflicht. Ein Krankenhaus unterliegt Kontrollen, Akkreditierungen und Ergebnispflichten. Diese Schutzmechanismen sind nicht zum Schutz der Ärzte da. Sie sind zum Schutz der Patienten da.

ChatGPT hat keinen dieser Schutzmechanismen. Medvi auch nicht. Und doch haben beide Zugang zu demselben Raum erhalten — eines mit erklärten guten Absichten, das andere mit industriellem Betrug.

Die medizinische Lücke existierte lange vor der KI. Wir haben kollektiv, über Jahrzehnte, entschieden, sie nicht zu schließen. KI hat diese Wüste nicht geschaffen. Aber sie hat sie sichtbar gemacht — indem sie zeigt, wie viele Menschen dort ohne Gesundheitsversorgung leben, und indem sie zeigt, was böswillige Akteure dort aufbauen können.

Die Regulierung von KI im Gesundheitswesen ist keine theoretische Debatte mehr. Sie findet bereits statt, bei 600.000 Fragen pro Woche und bei Videos von Ärzten, die nicht existieren.


Quellen: The Decoder, 6. April 2026 — OpenAI health queries / Medvi scandal

Behandelte Themen:

GesundheitOpenAIAnalyse

Häufig gestellte Fragen

Kann ChatGPT wirklich einen Arzt ersetzen?
Nein. ChatGPT kann allgemeine Gesundheitsinformationen liefern, ist jedoch nicht zugelassen, trägt keine rechtliche Verantwortung und kann keinen Patienten untersuchen. Die 600.000 wöchentlichen Anfragen, die OpenAI nennt, belegen eine reale Nutzung, keine medizinische Validierung.
Was ist ein medizinisches Versorgungsgebiet?
Eine Region mit eingeschränktem Zugang zur Gesundheitsversorgung aufgrund fehlender Fachkräfte. In den USA bezeichnet dies Gebiete mehr als 30 Autominuten von einem Krankenhaus entfernt. In Frankreich leben fast 6 Millionen Menschen in Gebieten mit zu wenigen Hausärzten.
Wie konnte Medvi mit gefälschten Anzeigen 1,8 Milliarden erwirtschaften?
Durch die Kombination von KI-generierten Inhalten (gefälschte Arztprofile, fabrizierte Erfahrungsberichte, KI-generierte Vorher-Nachher-Vergleiche) mit einem wenig regulierten Markt: GLP-1-Abnehmmittel per Telemedizin in den USA. Die New York Times hatte Medvi zunächst als positives KI-Erfolgsbeispiel vorgestellt.
Ist KI im Gesundheitswesen reguliert?
Nur teilweise. In Europa stuft der AI Act bestimmte medizinische KI-Geräte als 'Hochrisiko' ein, mit strengen Anforderungen. Consumer-Tools wie ChatGPT unterliegen jedoch nicht denselben Regeln wie zertifizierte Medizinprodukte, auch wenn sie für medizinische Zwecke genutzt werden.
Was sollte ich tun, wenn ich ChatGPT für Gesundheitsfragen nutze?
Es kann nützlich sein, um eine Situation zu verstehen oder einen Arztbesuch vorzubereiten, sollte jedoch niemals eine Diagnose ersetzen. Informationen müssen immer von einem Arzt überprüft werden. Im Notfall den Notruf (112) oder den ärztlichen Bereitschaftsdienst (116 117) anrufen.
Der kostenlose KI-Newsletter