600 000 questions sans réponse : comment l'IA remplit (et exploite) les déserts médicaux
Le même jour, deux news sur l'IA en santé : ChatGPT répond à 600 000 requêtes médicales par semaine depuis des zones sans hôpital, et une startup de 2 personnes fait 1,8Md$ avec de faux médecins IA. Ce n'est pas une coïncidence, c'est le même vide.

Le lundi 6 avril 2026, deux articles sont sortis sur The Decoder, du même journaliste, à deux heures d'intervalle.
Le premier : OpenAI révèle que ChatGPT reçoit 600 000 questions médicales par semaine depuis des zones sans accès à un hôpital. Soixante-dix pour cent de ces requêtes arrivent en dehors des heures d'ouverture des cabinets.
Le second : une startup de téléconsultation américaine, Medvi, aurait généré 1,8 milliard de dollars de revenus avec deux employés, de l'IA, des faux profils de médecins, des vidéos fabriquées et des before/after générés.
Deux histoires. Un seul vide.
Le médecin de 3h du matin
Les chiffres d'OpenAI méritent qu'on s'y arrête. 600 000 requêtes médicales hebdomadaires depuis ce que les Américains appellent les "hospital deserts", des zones où le plus proche hôpital est à plus de 30 minutes de route. Et 70 % de ces questions posées après les heures de bureau.
Ce que ces données décrivent, c'est une réalité simple : des gens qui ont besoin d'un avis médical, qui ne peuvent pas en obtenir un, et qui se retournent vers ce qui est disponible. À 3h du matin, ChatGPT ne dors pas.
En France, le phénomène des déserts médicaux est bien documenté. Près de six millions de Français vivent dans des zones sous-dotées en médecins généralistes. Les délais moyens pour obtenir un rendez-vous chez un spécialiste dépassent souvent 80 jours. Il n'y a pas de statistiques françaises comparables à celles d'OpenAI, mais il serait surprenant que le comportement soit fondamentalement différent.
Le truc, c'est que ces 600 000 requêtes viennent de gens qui cherchent une réponse à quelque chose de concret, parce qu'ils n'ont pas d'autre option à ce moment précis. Pas de la curiosité médicale abstraite, mais du besoin immédiat.
OpenAI ne rate pas l'occasion de le faire valoir. La société a lancé une section santé dédiée dans ChatGPT, connectée à Apple Health, aux applis de bien-être et aux dossiers médicaux. Les données de santé sont stockées séparément et, dit-on, pas utilisées pour l'entraînement des modèles. Des partenariats hospitaliers sont en cours aux États-Unis.
Il faut prendre ces chiffres pour ce qu'ils sont : des données publiées par OpenAI elle-même, avec un intérêt évident à montrer son impact social positif. Cela ne les invalide pas, mais ça vaut la peine de le noter.
Medvi, ou comment le même vide rapporte 1,8 milliard
Le New York Times avait d'abord présenté Medvi comme un exemple brillant du "one-person empire" dopé à l'IA. Une startup minuscule, des revenus colossaux, une efficacité opérationnelle impressionnante.
Ce que le Times n'avait pas mentionné : les faux profils de médecins sur les réseaux sociaux. Les vidéos de témoignages fabriquées. Les comparaisons avant/après générées par IA. Une infrastructure de publicité médicale entièrement construite sur du faux.
Medvi vendait des médicaments GLP-1, les fameux traitements contre l'obésité. Un marché en pleine explosion, des patients souvent désespérés, une réglementation américaine en retard sur la téléconsultation. Le terrain parfait.
Ce qui frappe dans cette histoire, c'est moins la fraude elle-même que son échelle et son invisibilité. Deux personnes. 1,8 milliard. Et un journal de référence mondiale qui n'y a vu que du feu.
L'IA n'a pas inventé la fausse publicité médicale. Ça existait bien avant. Mais elle a rendu possible quelque chose de nouveau : une fraude d'une telle sophistication visuelle et d'une telle ampleur qu'elle devient difficile à distinguer du légitime, même pour des journalistes aguerris.
C'est le même marché
Ce qui rend ces deux news si intéressantes ensemble, c'est ce qu'elles décrivent du même phénomène, vu par deux portes différentes.
ChatGPT remplit un vide réel. Les 600 000 requêtes sont là parce que le système de santé traditionnel ne peut pas y répondre au moment où elles se posent. C'est un signal d'utilité, pas un signal de confiance aveugle dans l'IA.
Medvi a exploité exactement le même vide. Des patients qui ont besoin d'un accès aux soins, qui cherchent des solutions alternatives, qui font confiance à ce qui ressemble à du médical. Le terreau est identique.
C'est un peu comme un quartier sans boulangerie. Si quelqu'un ouvre une boutique et vend du bon pain, les habitants sont contents. Si quelqu'un d'autre ouvre une boutique avec de fausses céréales bio et des photos de fermes inventées, les habitants achètent aussi, parce qu'ils ont faim. Le vrai problème reste l'absence de la boulangerie au départ.
La question que personne ne veut poser
On débat beaucoup de la fiabilité médicale de l'IA. Est-ce que ChatGPT donne de bons conseils santé ? Est-ce dangereux de demander un diagnostic à un modèle de langage ? Ces questions sont vraies, mais elles dépassent le sujet.
La vraie question posée par ces deux news est différente : qui a le droit de remplir ce vide ?
Un médecin exerce sous accréditation, sous responsabilité légale, avec une assurance professionnelle. Un hôpital est soumis à des contrôles, des accréditations, des obligations de résultats. Ces garde-fous ne sont pas là pour protéger les médecins. Ils sont là pour protéger les patients.
ChatGPT n'a aucun de ces garde-fous. Medvi non plus. Et pourtant les deux accèdent au même espace, l'un avec de bonnes intentions affichées, l'autre avec de la fraude industrielle.
Le vide médical existait bien avant l'IA. On a collectivement décidé, pendant des décennies, de ne pas le combler. L'IA n'a pas créé ce désert. Mais elle l'a rendu visible, en montrant exactement combien de personnes y vivaient sans accès aux soins, et en montrant aussi ce que les acteurs malveillants pouvaient y construire.
La régulation de l'IA en santé n'est plus un débat théorique. Elle se joue déjà, sur 600 000 questions par semaine et sur des vidéos de médecins qui n'existent pas.
Sources : The Decoder, 6 avril 2026 — OpenAI health queries / Medvi scandal



