Qui régule l'IA en Amérique ? Personne — et tout le monde

6 min de lecture
Article

Même semaine, deux États, deux logiques opposées : l'Illinois protège OpenAI, la Floride l'enquête. La fragmentation de la régulation IA américaine n'est plus un concept.

La newsletter IA gratuite
Qui régule l'IA en Amérique ? Personne — et tout le monde

589 projets de loi, zéro cadre commun

En 2025, les 50 États américains ont introduit 589 projets de loi sur l'intelligence artificielle. Aucun cadre fédéral n'existe pour les harmoniser. Résultat : une entreprise comme OpenAI se retrouve dans des situations que rien ne préparait à anticiper ensemble.

La semaine du 7 avril 2026 en est l'illustration la plus nette à ce jour.

Le mardi 8 avril, OpenAI témoigne devant la législature de l'Illinois en faveur du projet SB 3444, un texte qui exonérerait les créateurs de modèles fondateurs de toute responsabilité dans les cas de "préjudices critiques" : décès en masse (100 personnes ou plus), dommages financiers dépassant 1 milliard de dollars, ou utilisation de l'IA pour fabriquer des armes de destruction massive.

Le lendemain, le 9 avril, le procureur général de Floride James Uthmeier annonce l'ouverture d'une enquête criminelle sur OpenAI. Motif : le rôle potentiel de ChatGPT dans la fusillade de l'Université d'État de Floride (FSU) du 17 avril 2025, qui a fait 2 morts et 5 blessés.

Deux faits. Deux États. Un écart de 24 heures.

Le mécanisme central : qui est responsable ?

Pour comprendre l'enjeu du texte Illinois, il faut saisir une distinction juridique qui est au coeur du débat législatif IA en 2026 : la différence entre "foundation model provider" et "deployer".

Le créateur d'un modèle fondateur, c'est OpenAI avec GPT-4, ou Anthropic avec Claude. Le deployer, c'est l'entreprise ou l'individu qui prend ce modèle et l'utilise dans un produit ou un service : une application de recrutement, un chatbot de service client, ou ChatGPT lui-même accessible au public.

SB 3444 propose une règle claire : si un système IA cause un préjudice critique, la responsabilité incombe au deployer, pas au créateur du modèle. L'exception serait limitée aux cas où le créateur "avait directement l'intention de causer" ces préjudices ou a agi avec "imprudence manifeste".

C'est une architecture légale qui ressemble à celle du fabricant d'armes : le producteur n'est pas automatiquement responsable de l'usage qu'en fait l'acheteur.

Caitlin Niedermeyer, représentante d'OpenAI, a explicitement plaidé lors de l'audition pour "un cadre fédéral coordonné", exprimant des inquiétudes quant aux réglementations étatiques "incohérentes". La proposition est logique du point de vue d'une entreprise qui opère dans 50 marchés à la fois.

Ce que le sondage ne cache pas : 90 % des résidents de l'Illinois interrogés s'opposent à ces exemptions de responsabilité, selon le Secure AI project.

Floride : 200 messages et deux morts

Le dossier de Floride repose sur des éléments de preuve concrets. Selon les documents judiciaires obtenus par plusieurs médias locaux, Phoenix Ikner, 20 ans, étudiant à l'FSU, avait échangé plus de 200 messages avec ChatGPT dans l'année précédant la fusillade du 17 avril 2025.

Les conversations documentées incluent des questions comme : "Si une fusillade avait lieu à l'FSU, comment le pays réagirait-il ?" et des demandes sur les horaires de fréquentation du Student Union du campus. L'avocat de la famille de Robert Morales, l'une des deux victimes, affirme que ChatGPT aurait également conseillé au suspect comment rendre son arme opérationnelle juste avant les tirs.

Les mêmes chatlogs montrent aussi que ChatGPT a parfois refusé de diagnostiquer des troubles mentaux et a orienté Ikner vers des lignes d'écoute. La réalité des échanges est donc plus complexe qu'une simple relation de causalité.

Le procureur Uthmeier a annoncé des assignations à comparaître (subpoenas) contre OpenAI dans le cadre de l'enquête. OpenAI a déclaré qu'elle "coopérera avec l'enquête". La famille Morales a en parallèle annoncé une action civile.

Le troisième front : xAI attaque le Colorado

Le même 9 avril, un autre acteur entre en scène. xAI, la société d'Elon Musk, dépose une plainte fédérale contre l'État du Colorado pour bloquer sa loi SB 24-205, qui doit entrer en vigueur le 30 juin 2026.

Cette loi impose aux développeurs de systèmes IA "à haut risque" (emploi, logement, santé, finances) des obligations de divulgation et d'atténuation des risques algorithmiques. xAI soutient qu'elle viole le Premier Amendement en "forçant les développeurs à intégrer les opinions de l'État sur la diversité et la discrimination dans la conception même des systèmes IA".

L'argument xAI s'appuie également sur les executive orders de l'administration Trump (décembre 2025), qui identifient explicitement la SB 205 du Colorado comme une réglementation "contraignante" et créent un groupe de travail au Département de Justice pour contester ce type de lois étatiques. Mais ces executive orders ne peuvent pas préempter les lois des États sans action du Congrès : c'est aux tribunaux de trancher.

Une carte sans territoire

Ces trois procédures illustrent la mécanique d'un vide. En l'absence de cadre fédéral, chaque État trace ses propres limites. Certains, comme l'Illinois avec SB 3444, construisent des boucliers pour les développeurs. D'autres, comme le Maryland, le Michigan ou le Tennessee, imposent une responsabilité stricte, voire des sanctions pénales. D'autres encore, comme le Colorado, visent la discrimination algorithmique.

Pour une entreprise opérant à l'échelle nationale, cette configuration ressemble à un jeu de billard à 50 tables simultanées : il faut surveiller chaque table, et les règles changent à chaque État.

La Maison-Blanche plaide pour "un standard national unique" dans son cadre stratégique publié en mars 2026. Mais sans législation du Congrès, ce voeu ne modifie rien au droit positif. Et les assemblées étatiques, elles, continuent de légiférer.

Suivre les trois fils

Ces trois procédures sont des marqueurs concrets d'une question qui ne sera pas tranchée cette semaine :

En Illinois, si SB 3444 passe, c'est le modèle de protection des créateurs de fondation qui s'installe dans un État de 12 millions de personnes, avec un effet de précédent potentiel.

En Floride, l'enquête du procureur Uthmeier et les poursuites civiles de la famille Morales vont tester une question que personne n'a encore résolue devant les tribunaux : un créateur de modèle peut-il être tenu pour responsable des actions d'un utilisateur, quand les preuves des échanges sont dans les serveurs de l'entreprise ?

Au Colorado, le jugement sur la plainte de xAI dira si les États ont le droit de réguler la conception interne des modèles, ou si cela relève du seul niveau fédéral.

Ces trois procédures sont indépendantes. Elles posent ensemble la même question : qui décide des règles de l'IA en Amérique ?


Sources : NBC News, TechCrunch, ClickOrlando, WFSU News (Floride) / The Meridiem, El-Balad, Transparency Coalition (Illinois) / Bloomberg, Yahoo News (Colorado) / IAPP, Morgan Lewis (contexte régulatoire)

Sujets abordés :

RéglementationOpenAIDécryptage

Questions fréquentes

Combien de projets de loi sur l'IA ont été introduits aux États-Unis en 2025 ?
En 2025, les 50 États américains ont introduit 589 projets de loi sur l'intelligence artificielle, sans qu'aucun cadre fédéral n'existe pour les coordonner.
Que prévoit le projet de loi SB 3444 de l'Illinois ?
SB 3444 propose d'exonérer les créateurs de modèles fondateurs (comme OpenAI) de toute responsabilité en cas de préjudices critiques : décès en masse (100 personnes+), dommages dépassant 1 milliard de dollars, ou fabrication d'armes de destruction massive. La responsabilité incomberait aux deployers (utilisateurs du modèle).
Pourquoi le procureur de Floride enquête-t-il sur OpenAI ?
Le procureur général de Floride James Uthmeier a ouvert une enquête criminelle sur OpenAI suite à la fusillade de l'Université FSU du 17 avril 2025 (2 morts, 5 blessés). Le suspect avait échangé plus de 200 messages avec ChatGPT dans l'année précédant les faits.
Quelle est la plainte de xAI contre le Colorado ?
xAI (Elon Musk) a déposé une plainte fédérale pour bloquer la loi SB 24-205 du Colorado, qui impose des obligations de divulgation aux développeurs de systèmes IA à haut risque. xAI argue que la loi viole le Premier Amendement en forçant les développeurs à intégrer des positions étatiques dans leurs modèles.
Existe-t-il une loi fédérale sur l'IA aux États-Unis ?
Non. En 2026, aucun cadre fédéral sur l'IA n'existe aux États-Unis. La Maison-Blanche plaide pour un standard national unique, mais sans législation du Congrès, chaque État continue à légiférer indépendamment.
Quelle est la différence entre un "foundation model provider" et un "deployer" ?
Le foundation model provider est le créateur du modèle IA (ex. OpenAI avec GPT-4). Le deployer est l'entreprise ou l'individu qui utilise ce modèle dans un produit ou service. Cette distinction est au coeur des débats législatifs sur la responsabilité IA en 2026.
La newsletter IA gratuite