IA et droits d'auteur : le Sénat renverse la charge de la preuve

5 min de lecture
Article

Le Sénat a voté à l'unanimité une loi qui oblige les entreprises d'IA à prouver qu'elles n'ont pas utilisé de contenus protégés. Un renversement de logique que le droit d'auteur classique n'avait pas réussi.

La newsletter IA gratuite
IA et droits d'auteur : le Sénat renverse la charge de la preuve

40 réunions. Aucun résultat.

Entre juin et novembre 2025, ayants droit et entreprises d'IA se sont réunis à cinq reprises en séances plénières et ont tenu 40 réunions bilatérales. Objectif : trouver un accord sur le partage de la valeur quand un modèle génératif est entraîné sur des oeuvres protégées.

Le 8 avril 2026, le Sénat a voté à l'unanimité une loi en un seul article. Ce qu'un an de négociation n'avait pas produit, le vote parlementaire l'a tranché en quelques heures.

Ce que le droit d'auteur ne pouvait pas faire

Le problème avec le droit d'auteur classique, c'est qu'il suppose qu'on peut identifier le vol. Tu vois ton livre reproduit sans autorisation, tu attaques. Mais les données d'entraînement d'un modèle d'IA, elles sont enfouies dans des corpus de centaines de téraoctets. Personne n'en publie la liste complète.

Prouver qu'une IA a ingéré tes oeuvres, c'est comme démontrer à un juge qu'un cambrioleur est entré chez toi sans avoir vu son visage, sans empreintes, sans caméra. Tu sais que quelque chose a été pris. Tu ne peux pas le prouver selon les règles en vigueur.

Résultat: depuis 2022, les poursuites judiciaires contre les développeurs d'IA pour utilisation non autorisée de données s'accumulent, mais elles peinent à aboutir faute de preuves. Le terrain légal était asymétrique par construction.

La présomption d'exploitation : de quoi s'agit-il exactement

La loi adoptée par le Sénat crée une "présomption réfragable d'exploitation". Le mécanisme tient en une idée simple : quand une IA produit un résultat qui ressemble à une oeuvre protégée (même style, extraits similaires, ressemblances caractérisées), la justice part du principe que ce contenu a été utilisé lors de l'entraînement.

La charge de la preuve s'inverse. L'artiste n'a plus à prouver le pillage. C'est l'entreprise d'IA qui doit démontrer à un juge qu'elle n'a pas utilisé telle oeuvre spécifique. C'est comparable à obliger un fabricant alimentaire à prouver l'absence d'un allergène, plutôt que d'attendre que le consommateur tombe malade pour en rapporter la preuve.

Le Conseil d'État, consulté par le Sénat, a validé l'approche constitutionnelle de ce mécanisme, avec quelques ajustements rédactionnels mineurs. La loi s'applique aux développeurs de modèles et aux systèmes qui les déploient. Elle vaut aussi pour les procédures en cours au moment du vote.

La proposition est transpartisane: signée par des sénateurs allant d'Horizons (Laure Darcos) au PCF (Pierre Ouzoulias) en passant par LR, les Centristes, le PS et l'UDI. Le vote unanime n'est pas un détail.

Ce que ça change pour un musicien, un auteur, un photographe

Prenons le cas d'un compositeur qui découvre qu'un modèle génératif reproduit fidèlement son style. Avant cette loi, la procédure était la suivante: prouver que son catalogue figurait dans les données d'entraînement, obtenir les logs du modèle (souvent inexistants ou confidentiels), convaincre un juge sans documentation.

Après la loi, le cadre se retourne. L'entreprise qui déploie ou développe le modèle doit être en mesure de documenter l'origine de ses données d'entraînement. Si elle ne peut pas prouver la non-utilisation d'une oeuvre spécifique, la présomption joue contre elle.

La SACEM a salué le vote comme "une avancée importante pour les créateurs, face au déséquilibre profond qui existe entre les fournisseurs d'IA et les titulaires de droits." Le SNE (syndicat national de l'édition) a parlé d'un "premier pas nécessaire."

L'argument technique de l'opposition

Mistral AI et France Digitale (le lobby du secteur tech français) s'y opposent. Leur argument: prouver la non-utilisation d'un contenu particulier parmi des dizaines de téraoctets est techniquement impossible. L'argument est sérieux, pas une posture.

Mais il pointe précisément le problème structurel. Si on ne peut pas tracer ce qui a été ingéré, c'est que le modèle économique actuel repose sur une zone grise assumée. "Impossible de prouver la non-utilisation" revient à admettre l'absence totale de traçabilité des données d'entraînement. Ce n'est pas un argument contre la loi: c'est une description du problème qu'elle tente de résoudre.

La Ministre déléguée au Numérique, Anne Le Hénanff, a parlé d'un "risque juridique dévastateur" pour l'innovation. Bercy et Matignon sont en retrait: la protection du champion français Mistral pèse dans la balance. La fracture réelle n'est pas entre pro-artistes et pro-tech: elle traverse l'État lui-même, tiraillé entre son industrie culturelle et sa startup nationale.

La vraie décision reste à venir

Le texte doit maintenant passer devant l'Assemblée nationale. C'est là que le rapport de force politique sera visible. Le Sénat, chambre plus distante des intérêts économiques immédiats, a pu voter à l'unanimité. L'Assemblée, sous influence plus directe de l'exécutif et de Bercy, sera un autre terrain.

Si la loi est adoptée, la France serait le premier pays au monde à légiférer ainsi. Laure Darcos l'a dit clairement: "Nous souhaitons simplement mettre le pied dans la porte et adresser un signal aux opérateurs et à Bruxelles." L'Union européenne observe: la Commission débat encore de son approche, et un précédent français créerait une pression législative sur le reste du continent.

La question à poser à l'Assemblée: quand un acteur ne peut pas documenter ce qu'il a utilisé pour construire un produit commercial, est-ce que le vide juridique doit jouer en sa faveur ou contre lui?

Le Sénat vient de répondre. L'Assemblée devra trancher.


Pour aller plus loin: si tu veux comprendre comment les procédures judiciaires en cours (notamment celle de la Sacem contre plusieurs développeurs d'IA) pourraient évoluer avec ce nouveau cadre légal, suis la discussion législative à l'Assemblée nationale dans les prochaines semaines.

Sujets abordés :

RéglementationDécryptage

Questions fréquentes

Qu'est-ce que la présomption réfragable d'exploitation votée par le Sénat ?
C'est un mécanisme légal qui inverse la charge de la preuve : quand une IA produit un résultat ressemblant à une oeuvre protégée, la justice part du principe que cette oeuvre a été utilisée lors de l'entraînement. C'est à l'entreprise d'IA de prouver la non-utilisation, pas à l'artiste de prouver le pillage.
Pourquoi le droit d'auteur classique était-il insuffisant face aux IA génératives ?
Les données d'entraînement sont enfouies dans des corpus de centaines de téraoctets que personne ne publie intégralement. Il était techniquement impossible pour un artiste de prouver que ses oeuvres figuraient dans ces données, rendant le terrain légal asymétrique par construction.
Quelles entreprises sont concernées par cette loi ?
La loi s'applique aux développeurs de modèles d'IA et aux systèmes qui les déploient. Elle vaut également pour les procédures judiciaires en cours au moment du vote.
La loi est-elle déjà en vigueur en France ?
Non. Le texte voté par le Sénat le 8 avril 2026 doit encore passer devant l'Assemblée nationale. L'Assemblée, sous influence plus directe de l'exécutif et de Bercy, représente un terrain politique différent du Sénat.
Quel est l'argument principal de l'opposition à cette loi ?
Mistral AI et France Digitale soutiennent que prouver la non-utilisation d'un contenu particulier parmi des dizaines de téraoctets est techniquement impossible. Les partisans de la loi répondent que c'est précisément le problème : l'absence de traçabilité des données d'entraînement ne peut pas jouer en faveur de celui qui en bénéficie.
La newsletter IA gratuite