Le 11 décembre 2025, Donald Trump a signé un décret intitulé « Ensuring a National Policy Framework for Artificial Intelligence » qui marque un tournant dans la régulation américaine de l'intelligence artificielle. Ce texte vise à empêcher les 50 États de légiférer sur l'IA, arguant que cette fragmentation nuit à la compétitivité des entreprises américaines face à la Chine.
Les mécanismes du décret : une offensive juridique et financière
Le décret instaure plusieurs mécanismes pour neutraliser les législations étatiques jugées « contraignantes » :
- AI Litigation Task Force : le ministère de la Justice doit créer dans les 30 jours une unité spéciale chargée de contester en justice les lois des États sur l'IA
- Évaluation des lois : le secrétaire au Commerce dispose de 90 jours pour identifier les réglementations étatiques « excessives »
- Pression financière : les États récalcitrants pourraient perdre l'accès aux fonds fédéraux du programme BEAD (Broadband Equity, Access and Deployment), soit plus de 42 milliards de dollars destinés au développement du haut débit
- Préemption réglementaire : la FTC et la FCC sont chargées d'élaborer des standards fédéraux qui supplanteraient les règles étatiques
« Pour gagner, les entreprises américaines d'IA doivent être libres d'innover sans réglementation contraignante », affirme le décret, ajoutant que « la réglementation État par État crée par définition un patchwork de 50 régimes réglementaires différents ».
Le Colorado dans le viseur : une loi pionnière menacée
Le décret cite explicitement la loi SB 24-205 du Colorado comme exemple de réglementation problématique. Ce texte, adopté le 17 mai 2024 et devant entrer en vigueur le 1er février 2026, constitue la première loi américaine encadrant globalement l'utilisation de l'IA dans les décisions à fort impact.
Cette législation impose aux entreprises utilisant des systèmes d'IA « à haut risque » de :
- Mettre en place une politique de gestion des risques algorithmiques
- Réaliser des évaluations d'impact annuelles
- Informer les consommateurs lorsqu'une décision défavorable les concernant (prêt refusé, candidature rejetée) est prise avec l'aide de l'IA
- Signaler au procureur général toute discrimination algorithmique découverte dans les 90 jours
La loi couvre des secteurs sensibles : services financiers, emploi, logement, santé, éducation et assurance. L'administration Trump considère qu'elle pourrait « forcer les modèles d'IA à produire de faux résultats pour éviter un impact différentiel sur les groupes protégés ».
Impact sur les services financiers : entre soulagement et incertitude
Le secteur financier américain, qui devrait investir 97 milliards de dollars dans l'IA d'ici 2027, observe attentivement l'évolution de ce cadre réglementaire. Les banques utilisent massivement l'IA pour l'évaluation des risques de crédit, la détection des fraudes et les décisions de prêt.
« Indépendamment des orientations de l'OCC, la perception compte, et cela pèsera toujours lourd. Les banques qui cessent de tester [leurs algorithmes] s'exposent à un risque de réputation. »
— Mark Wuchte, responsable de l'équipe conseil risques services financiers chez Baker Tilly
En juillet 2025, la société de prêts étudiants Earnest Operations a payé 2,5 millions de dollars pour régler des accusations de discrimination algorithmique portées par le procureur général du Massachusetts, illustrant les risques juridiques persistants au niveau des États.
Réactions du secteur bancaire
L'American Bankers Association note que les banques opérant dans plusieurs États font face à une incertitude sur les réglementations qui survivront aux contestations fédérales. Si certains établissements pourraient réduire leurs contrôles internes, la plupart devraient maintenir leurs pratiques de surveillance des biais algorithmiques par prudence.
Contestations juridiques attendues : un décret fragile ?
Plusieurs experts juridiques remettent en question la légalité du décret. Le pouvoir exécutif peut-il véritablement neutraliser des lois votées par les États sans passer par le Congrès ?
« Un décret n'est pas nécessairement le bon véhicule pour annuler des lois que les États ont dûment adoptées. »
— Gary Kibel, associé chez Davis + Gilbert
Robert Weissman, co-président de Public Citizen, qualifie le décret de « principalement du bluff », affirmant que le président « ne peut pas unilatéralement préempter les lois des États ». « Nous nous attendons à ce que ce décret soit contesté en justice et rejeté », a-t-il déclaré.
Une décision de la Cour suprême de 2023 a confirmé l'autorité de la Californie à réglementer son industrie porcine malgré les effets sur le commerce interétatique, un précédent qui pourrait compliquer la stratégie de l'administration.
Les startups, premières victimes de l'incertitude
Si les géants de la tech disposent des ressources juridiques pour naviguer dans ce flou réglementaire, les startups et PME se trouvent dans une position délicate.
« L'incertitude fait le plus de mal aux startups, particulièrement celles qui ne peuvent pas lever des milliards de financement à volonté. »
— Andrew Gamino-Cheong, directeur technique de Trustible
Cette ambiguïté juridique allonge les cycles de vente pour les entreprises d'IA et augmente leurs coûts d'assurance. Plusieurs observateurs notent que l'incertitude créée par le décret pourrait paradoxalement avantager les grandes entreprises technologiques aux dépens de leurs concurrents plus modestes.
Contexte transatlantique : Europe vs États-Unis
Ce décret s'inscrit dans une divergence croissante entre les approches américaine et européenne de la régulation de l'IA. L'AI Act européen, entré en vigueur le 1er août 2024, impose une approche fondée sur le risque avec des obligations strictes pour les systèmes d'IA à haut risque.
En février 2025, le vice-président américain JD Vance avait critiqué l'approche européenne lors du Sommet de Paris sur l'IA, affirmant qu'une réglementation excessive « pourrait tuer une industrie transformatrice au moment même où elle décolle ». L'Union européenne a depuis annoncé un report de certaines dispositions de l'AI Act à décembre 2027, témoignant des pressions exercées par l'industrie technologique.
Pour les entreprises françaises et européennes, cette divergence réglementaire crée un environnement complexe où les règles applicables dépendent du marché visé et de la localisation des utilisateurs.
Ce qu'il faut surveiller
Les développements suivants détermineront l'impact réel de ce décret :
- Création de la Task Force : l'unité du DOJ devrait être opérationnelle début janvier 2026
- Liste des lois « contraignantes » : le rapport du Commerce Department attendu en mars 2026
- Contestations judiciaires : plusieurs États ont annoncé leur intention de défendre leurs lois en justice
- Élaboration des standards fédéraux : la FTC et la FCC doivent proposer des règles préemptives
- Réponse du Congrès : l'administration a appelé les législateurs à voter un cadre fédéral unifié
Implications pour les investisseurs français
Pour les épargnants et investisseurs français exposés aux marchés américains, ce décret introduit un nouveau facteur d'incertitude. Les entreprises technologiques américaines pourraient bénéficier d'un environnement réglementaire plus souple, mais les contestations juridiques créent une volatilité potentielle.
Les secteurs financiers utilisant massivement l'IA (fintech, assurtech, gestion d'actifs) devront naviguer entre les exigences européennes de l'AI Act et l'évolution du cadre américain, avec des implications sur leurs coûts de conformité et leur stratégie de développement produit.