600 000 questions sans réponse : comment l'IA remplit (et exploite) les déserts médicaux

5 min de lecture
Article

Le même jour, deux news sur l'IA en santé : ChatGPT répond à 600 000 requêtes médicales par semaine depuis des zones sans hôpital, et une startup de 2 personnes fait 1,8Md$ avec de faux médecins IA. Ce n'est pas une coïncidence, c'est le même vide.

La newsletter IA gratuite
600 000 questions sans réponse : comment l'IA remplit (et exploite) les déserts médicaux

Le lundi 6 avril 2026, deux articles sont sortis sur The Decoder, du même journaliste, à deux heures d'intervalle.

Le premier : OpenAI révèle que ChatGPT reçoit 600 000 questions médicales par semaine depuis des zones sans accès à un hôpital. Soixante-dix pour cent de ces requêtes arrivent en dehors des heures d'ouverture des cabinets.

Le second : une startup de téléconsultation américaine, Medvi, aurait généré 1,8 milliard de dollars de revenus avec deux employés, de l'IA, des faux profils de médecins, des vidéos fabriquées et des before/after générés.

Deux histoires. Un seul vide.

Le médecin de 3h du matin

Les chiffres d'OpenAI méritent qu'on s'y arrête. 600 000 requêtes médicales hebdomadaires depuis ce que les Américains appellent les "hospital deserts", des zones où le plus proche hôpital est à plus de 30 minutes de route. Et 70 % de ces questions posées après les heures de bureau.

Ce que ces données décrivent, c'est une réalité simple : des gens qui ont besoin d'un avis médical, qui ne peuvent pas en obtenir un, et qui se retournent vers ce qui est disponible. À 3h du matin, ChatGPT ne dors pas.

En France, le phénomène des déserts médicaux est bien documenté. Près de six millions de Français vivent dans des zones sous-dotées en médecins généralistes. Les délais moyens pour obtenir un rendez-vous chez un spécialiste dépassent souvent 80 jours. Il n'y a pas de statistiques françaises comparables à celles d'OpenAI, mais il serait surprenant que le comportement soit fondamentalement différent.

Le truc, c'est que ces 600 000 requêtes viennent de gens qui cherchent une réponse à quelque chose de concret, parce qu'ils n'ont pas d'autre option à ce moment précis. Pas de la curiosité médicale abstraite, mais du besoin immédiat.

OpenAI ne rate pas l'occasion de le faire valoir. La société a lancé une section santé dédiée dans ChatGPT, connectée à Apple Health, aux applis de bien-être et aux dossiers médicaux. Les données de santé sont stockées séparément et, dit-on, pas utilisées pour l'entraînement des modèles. Des partenariats hospitaliers sont en cours aux États-Unis.

Il faut prendre ces chiffres pour ce qu'ils sont : des données publiées par OpenAI elle-même, avec un intérêt évident à montrer son impact social positif. Cela ne les invalide pas, mais ça vaut la peine de le noter.

Medvi, ou comment le même vide rapporte 1,8 milliard

Le New York Times avait d'abord présenté Medvi comme un exemple brillant du "one-person empire" dopé à l'IA. Une startup minuscule, des revenus colossaux, une efficacité opérationnelle impressionnante.

Ce que le Times n'avait pas mentionné : les faux profils de médecins sur les réseaux sociaux. Les vidéos de témoignages fabriquées. Les comparaisons avant/après générées par IA. Une infrastructure de publicité médicale entièrement construite sur du faux.

Medvi vendait des médicaments GLP-1, les fameux traitements contre l'obésité. Un marché en pleine explosion, des patients souvent désespérés, une réglementation américaine en retard sur la téléconsultation. Le terrain parfait.

Ce qui frappe dans cette histoire, c'est moins la fraude elle-même que son échelle et son invisibilité. Deux personnes. 1,8 milliard. Et un journal de référence mondiale qui n'y a vu que du feu.

L'IA n'a pas inventé la fausse publicité médicale. Ça existait bien avant. Mais elle a rendu possible quelque chose de nouveau : une fraude d'une telle sophistication visuelle et d'une telle ampleur qu'elle devient difficile à distinguer du légitime, même pour des journalistes aguerris.

C'est le même marché

Ce qui rend ces deux news si intéressantes ensemble, c'est ce qu'elles décrivent du même phénomène, vu par deux portes différentes.

ChatGPT remplit un vide réel. Les 600 000 requêtes sont là parce que le système de santé traditionnel ne peut pas y répondre au moment où elles se posent. C'est un signal d'utilité, pas un signal de confiance aveugle dans l'IA.

Medvi a exploité exactement le même vide. Des patients qui ont besoin d'un accès aux soins, qui cherchent des solutions alternatives, qui font confiance à ce qui ressemble à du médical. Le terreau est identique.

C'est un peu comme un quartier sans boulangerie. Si quelqu'un ouvre une boutique et vend du bon pain, les habitants sont contents. Si quelqu'un d'autre ouvre une boutique avec de fausses céréales bio et des photos de fermes inventées, les habitants achètent aussi, parce qu'ils ont faim. Le vrai problème reste l'absence de la boulangerie au départ.

La question que personne ne veut poser

On débat beaucoup de la fiabilité médicale de l'IA. Est-ce que ChatGPT donne de bons conseils santé ? Est-ce dangereux de demander un diagnostic à un modèle de langage ? Ces questions sont vraies, mais elles dépassent le sujet.

La vraie question posée par ces deux news est différente : qui a le droit de remplir ce vide ?

Un médecin exerce sous accréditation, sous responsabilité légale, avec une assurance professionnelle. Un hôpital est soumis à des contrôles, des accréditations, des obligations de résultats. Ces garde-fous ne sont pas là pour protéger les médecins. Ils sont là pour protéger les patients.

ChatGPT n'a aucun de ces garde-fous. Medvi non plus. Et pourtant les deux accèdent au même espace, l'un avec de bonnes intentions affichées, l'autre avec de la fraude industrielle.

Le vide médical existait bien avant l'IA. On a collectivement décidé, pendant des décennies, de ne pas le combler. L'IA n'a pas créé ce désert. Mais elle l'a rendu visible, en montrant exactement combien de personnes y vivaient sans accès aux soins, et en montrant aussi ce que les acteurs malveillants pouvaient y construire.

La régulation de l'IA en santé n'est plus un débat théorique. Elle se joue déjà, sur 600 000 questions par semaine et sur des vidéos de médecins qui n'existent pas.


Sources : The Decoder, 6 avril 2026 — OpenAI health queries / Medvi scandal

Sujets abordés :

SantéOpenAIDécryptage

Questions fréquentes

ChatGPT peut-il vraiment remplacer un médecin ?
Non. ChatGPT peut fournir des informations médicales générales, mais il n'est pas accrédité, n'a pas de responsabilité légale et ne peut pas examiner un patient. Les 600 000 requêtes hebdomadaires qu'OpenAI cite montrent un usage réel, pas une validation médicale.
Qu'est-ce qu'un désert médical ?
Une zone où l'accès aux soins est limité faute de professionnels de santé en nombre suffisant. Aux États-Unis, cela désigne les zones à plus de 30 minutes d'un hôpital. En France, près de 6 millions de personnes vivent dans des zones sous-dotées en médecins généralistes.
Comment Medvi a-t-il pu générer 1,8 milliard avec de fausses publicités ?
En combinant l'IA générative (faux profils de médecins, vidéos fabriquées, before/after générés) avec un marché peu régulé : la téléconsultation de médicaments GLP-1 (traitements contre l'obésité) aux États-Unis. Le New York Times avait initialement présenté Medvi comme un exemple positif.
L'IA en santé est-elle réglementée ?
Très partiellement. En Europe, l'AI Act classe certains dispositifs médicaux IA comme 'haut risque' avec des obligations strictes. Mais les outils grand public comme ChatGPT ne sont pas soumis aux mêmes règles qu'un dispositif médical certifié, même quand ils sont utilisés à des fins médicales.
Que faire si on utilise ChatGPT pour des questions de santé ?
C'est utile pour comprendre une situation ou préparer une consultation, mais pas pour remplacer un diagnostic. Les informations doivent être vérifiées par un professionnel de santé. En cas d'urgence, appeler le 15 (SAMU) ou le 116 117 (médecin de garde).
La newsletter IA gratuite