Quand un AI Overview fait annuler ton concert
Le 4 mai 2026, un violoniste canadien attaque Google pour 1,5 million de dollars. Les hallucinations IA ne sont plus un problème privé.

Le 4 mai 2026, le violoniste Ashley MacIsaac dépose une plainte de 1,5 million de dollars canadiens contre Google devant l'Ontario Superior Court of Justice. Le motif : un AI Overview, ces résumés générés par IA que Google sert en haut des résultats de recherche, affirmait noir sur blanc qu'il avait été condamné pour agression sexuelle, leurre internet d'enfant, agression causant des lésions, et inscrit au registre national des délinquants sexuels. Tout faux. Sauf que le 19 décembre 2025, la Première Nation Sipekne'katik avait déjà annulé son concert sur la base exacte de cet affichage.
Le détail qui change tout : MacIsaac n'a jamais interrogé l'IA. La Première Nation non plus, pas vraiment. Elle a fait ce que tout le monde fait avant de programmer un artiste, une recherche Google. Et c'est Google qui a décidé, en haut de SERP, que MacIsaac était un délinquant sexuel.
La sphère privée des hallucinations vient de craquer
Pendant trois ans, on a parlé des hallucinations IA comme d'un problème intime. Quelqu'un pose une question à ChatGPT, ChatGPT invente. La règle implicite : tu utilises un outil probabiliste, tu acceptes son aléa.
Cette frontière a tenu tant que l'IA générative était cantonnée à des interfaces de discussion explicites. Tu allais sur ChatGPT, tu y allais en connaissance de cause. C'est fini.
En mars 2026, AI Overview apparaît dans 48% des requêtes Google globales selon Position Digital, et dans plus de 70% des requêtes informationnelles. Sur ces requêtes, le CTR organique a chuté de 1,76% à 0,61% d'après l'étude Seer Interactive. Le résumé IA n'est plus un service optionnel. C'est devenu la première couche d'information de la planète.
Et quand cette première couche se trompe sur une personne réelle, ce ne sont plus les utilisateurs qui paient. Ce sont les personnes nommées. Les programmateurs qui annulent, les employeurs qui ne rappellent pas, les fournisseurs qui rompent un contrat.
Aucun d'eux n'a "utilisé l'IA". Ils ont juste cherché un nom sur Google.
Le mécanisme du préjudice tiers
Le détail technique de l'erreur MacIsaac est presque banal. L'AI Overview a confondu Ashley MacIsaac avec un autre individu portant le même nom dans des articles d'Atlantique Canada. Une mistaken identity classique, le type d'erreur que les LLM produisent sans malice particulière. Sauf que l'output a été agrégé, formaté, et affiché sous l'autorité visuelle de Google.
La Première Nation Sipekne'katik a fait ce qu'on attend d'elle : une diligence raisonnable avant de programmer un artiste devant sa communauté. Elle a vu des accusations criminelles graves présentées comme des faits. Elle a annulé. Ses excuses publiques à MacIsaac, après coup, sont d'une honnêteté rare : "Nous regrettons profondément le préjudice causé à votre réputation, à votre activité, et à votre sentiment de sécurité personnelle."
Google, lui, n'a jamais contacté MacIsaac. N'a jamais présenté d'excuses. N'a jamais rétracté. Sa plainte le rappelle dans une formulation que les juristes vont disséquer : "Google should not have lesser liability because the defamatory statements were published by software that Google created and controls."
Les précédents qui éclairent ce qui change
Trois cas servent de comparatifs, et tous éclairent ce que MacIsaac a de différent.
Brian Hood, maire de Hepburn Shire en Australie, a menacé OpenAI de poursuites en mars 2023 après que ChatGPT l'avait faussement décrit comme condamné pour corruption. Mise en demeure envoyée. Procès jamais déposé. Pas de jurisprudence.
Jonathan Turley, professeur à Georgetown, s'est retrouvé en avril 2023 accusé par ChatGPT d'un harcèlement sexuel inventé, avec un article du Washington Post fictif comme source. Couverture médiatique massive, aucune action judiciaire engagée.
Mark Walters, animateur radio en Géorgie, a poursuivi OpenAI pour avoir été décrit à tort comme défendeur dans une affaire de fraude. Le 19 mai 2025, summary judgment en faveur d'OpenAI. Trois motifs retenus par la cour : les disclaimers d'OpenAI rendaient l'output "non interprétable comme factuel", Walters était une figure publique sans malice prouvée, et il n'avait pas démontré de dommages réels.
Walters reste utile à OpenAI. Il l'est moins à Google dans le cas MacIsaac. Walters était l'utilisateur qui interrogeait ChatGPT et qui se plaignait du résultat. MacIsaac, lui, n'a rien interrogé.
Le tiers qui a pris la décision dommageable a vu un résultat Google, pas une réponse de chatbot. Et le dommage économique est documenté : un concert annulé, une atteinte concrète à la réputation et à l'activité.
Ce que le cadre européen pourrait dire
Le cas se joue en Ontario, sous droit canadien. Mais la question travaille aussi le cadre européen, et la réponse n'y est pas la même.
L'AI Act applique depuis août 2025 ses obligations aux fournisseurs de modèles GPAI. Pas de droit spécifique contre l'hallucination, mais une obligation de documenter et d'atténuer les risques de génération de contenu erroné sur des personnes réelles. La CNIL, dans ses recommandations 2025, a inscrit ce risque comme inhérent aux systèmes d'IA générative. Et l'article 5 du RGPD, qui exige l'exactitude des données personnelles, reste mobilisable face à un système qui produit des affirmations factuelles fausses sur un individu identifié.
Côté américain, le bouclier des disclaimers tient, comme l'a montré Walters. Côté européen, ce bouclier est plus fragile : un disclaimer générique ne libère pas un responsable de traitement de l'obligation d'exactitude. Un AI Overview affiché en haut de SERP, sans intermédiaire éditorial, sans rétractation accessible à la personne nommée, coche plusieurs cases problématiques avant même d'arriver devant un juge.
Ce qui se joue maintenant
La plainte est trop fraîche pour anticiper l'issue. Google va plaider la défaillance ponctuelle, le caractère probabiliste du système, peut-être les disclaimers. Les avocats de MacIsaac vont insister sur la conception même : un AI Overview est servi à 48% des requêtes mondiales, sa diffusion virale est prévisible, donc la "foreseeable republication" du contenu erroné est un défaut de design, pas un accident.
Quel que soit le verdict, le cas MacIsaac pose une question que les autres précédents n'avaient pas vraiment posée. Si un porte-parole humain de Google avait déclaré ces accusations en conférence de presse, personne ne discuterait. Le débat se réduit à une seule chose : est-ce que l'automatisation atténue cette responsabilité ? La citation de la plainte tient en huit mots et n'attend pas de réponse rhétorique : Google ne devrait pas avoir une responsabilité moindre parce que ce sont ses logiciels, et non ses humains, qui ont parlé.



