Copilot lisait tes emails confidentiels : quand l'assistant IA devient indiscret
Pendant un mois, un bug de Microsoft Copilot lui a permis de lire et résumer des emails marqués confidentiels. Et ça en dit long sur la course à l'IA.

Tu sais ce moment où tu réalises que quelqu'un a lu ton journal intime ? Ce petit froid dans le dos, ce mélange de colère et de malaise. C'est à peu près ce que des milliers d'entreprises viennent de découvrir avec Microsoft Copilot.
Ce qui s'est passé, concrètement
Imagine que tu ranges tes documents sensibles dans un tiroir fermé à clé. Contrats, fiches de paie, échanges confidentiels. Sauf que ton assistant numérique, celui qui est censé t'aider à retrouver tes fichiers, a passé un mois à ouvrir ce tiroir, lire ce qu'il y a dedans, et t'en faire des résumés quand tu lui posais des questions. Sans te prévenir. Sans que tu lui aies donné la permission.
C'est exactement ce qui s'est passé avec Copilot, l'assistant IA intégré à Microsoft 365.
Entre le 21 janvier et début février 2026, un bug (référencé CW1226324 pour les curieux) a fait sauter les protections censées empêcher Copilot d'accéder aux données sensibles. En clair : tes propres emails marqués "confidentiels" dans tes brouillons et tes envoyés étaient lisibles par l'IA. Et elle les résumait tranquillement quand tu lui posais une question.
Microsoft a reconnu le problème et déployé un correctif, mais il est encore en cours d'installation chez tous les clients. Et surtout, on sait pas combien d'entreprises ont été touchées. Microsoft classe l'incident comme un simple "avis consultatif". Ce qui est une façon polie de dire "on préfère pas donner de chiffres".
Pourquoi c'est pas juste un "petit bug"
Prenons un cas concret. Sophie, responsable RH dans une PME, prépare un plan de réorganisation. Elle échange par email avec sa direction, chaque message soigneusement marqué "Confidentiel" pour que les outils automatisés n'y touchent pas.
Le lendemain, Sophie ouvre Copilot pour préparer une réunion. Elle pose une question anodine sur l'équipe. Et Copilot lui ressort un résumé de ses propres emails confidentiels, ceux qu'il aurait dû ignorer. Le contenu sensible se retrouve dans une réponse Copilot, copiable, partageable, hors du cadre protégé.
Le truc, c'est que c'est pas un hacker qui a forcé une porte. C'est l'outil lui-même qui a ignoré les règles qu'on lui avait données. Et ça, c'est un problème de confiance. Parce que tout le système repose sur l'idée que quand tu mets un cadenas sur un email, il reste fermé. Même pour l'IA.
Le vrai problème est plus grand que Copilot
Ce bug, c'est un symptôme. Pas la maladie.
Microsoft publie chaque année un rapport sur la sécurité des données. Et dans l'édition 2026, il y a un chiffre qui fait réfléchir : 32% des incidents de sécurité impliquent désormais l'IA générative. C'est leur propre rapport qui le dit. Un tiers des problèmes de sécurité sont liés à ces outils que tout le monde déploie à toute vitesse.
C'est un peu comme une course automobile où les voitures vont de plus en plus vite, mais personne a pensé à renforcer les barrières de sécurité sur le bord de la piste. On construit le moteur avant les freins.
Et le timing est presque comique. La veille de l'annonce de ce bug, le 17 février 2026, le Parlement Européen a décidé de bloquer tous les outils IA sur les appareils de ses députés. Raison invoquée : risques de sécurité. Comme si quelqu'un, quelque part, avait vu venir le problème.
Ce n'est pas un cas isolé non plus. En juin 2025, une faille baptisée "EchoLeak" permettait d'exfiltrer des données via Copilot en manipulant les requêtes. En novembre 2024, des documents RH confidentiels étaient accessibles parce que les permissions étaient trop larges. Le pattern se répète : on branche l'IA sur les données de l'entreprise, et on découvre après coup que les garde-fous sont pas au niveau.
Ce que ça veut dire pour toi
Tu utilises peut-être pas Copilot. Mais le problème te concerne quand même, parce que la logique est la même partout : on connecte des IA à nos données en espérant que les protections vont tenir.
Voici trois choses concrètes à garder en tête :
1. Vérifie ce que ton IA peut voir. Si tu utilises un outil IA connecté à tes emails, tes fichiers ou ton CRM, prends 10 minutes pour comprendre à quoi il a accès. C'est pas sexy, mais c'est essentiel.
2. Les labels "confidentiel" c'est pas de la magie. C'est des règles logicielles. Et les règles logicielles, ça peut buguer. Il faut une deuxième couche de protection : qui peut demander quoi à l'IA, et sur quelles données.
3. Pose la question à ton prestataire. Si ton entreprise utilise des outils IA, demande comment les données sensibles sont protégées. Si personne peut te répondre clairement, c'est un signal.
On fait quoi avec tout ça ?
Le truc, c'est que personne dit qu'il faut arrêter d'utiliser l'IA. Ce serait aussi absurde que de débrancher Internet après le premier virus. Mais il faut arrêter de faire comme si la sécurité allait se régler toute seule pendant qu'on court après les fonctionnalités.
Microsoft a corrigé le bug. Très bien. Mais la vraie question c'est : combien de bugs similaires existent en ce moment, dans combien d'outils, sans que personne s'en soit rendu compte ?
Si tu veux suivre ce genre de sujets et comprendre l'IA sans le jargon, c'est exactement ce qu'on fait chez Déclic. Abonne-toi à la newsletter, c'est gratuit et c'est une fois par mois.
Alexandre



