L’approche de la régulation de l’IA au Royaume-Uni : essayer de jongler avec les deux
Le Royaume-Uni se trouve dans une position délicate en matière de régulation de l’IA. Après le Brexit, ils voulaient prouver qu’ils pouvaient agir plus rapidement et plus intelligemment que l’UE. Mais ils ne veulent pas non plus être perçus comme un Far West pour l’IA. Ils essaient donc de trouver un équilibre — et cela devient compliqué.
Pas de loi sur l’IA, pas de problème ?
Tandis que l’UE a passé des années à élaborer la loi sur l’IA, le Royaume-Uni a délibérément choisi la direction opposée. Pas de loi unique sur l’IA. Pas d’autorité réglementaire centrale (jusqu’à peut-être maintenant). Au lieu de cela, ils ont dit aux régulateurs existants — la FCA pour la finance, Ofcom pour les communications, l’ICO pour la protection des données — de déterminer la gouvernance de l’IA au sein de leurs propres secteurs.
L’idée était simple : les régulateurs qui comprennent déjà leurs industries sont mieux placés pour réguler l’IA dans ces industries qu’une nouvelle autorité centrale sur l’IA.
Sur le papier, cela semble intelligent. En pratique ? Cela a créé un patchwork qui est déroutant pour tout le monde.
Ce qui se passe réellement en 2026
Le gouvernement britannique a présenté son « Plan pour la régulation de l’IA » en octobre 2025, et les choses avancent depuis :
Le projet de loi sur l’IA arrive (probablement). Après des années à dire qu’ils n’en avaient pas besoin, le gouvernement travaille maintenant sur un projet de loi sur l’IA. Il a commencé en tant que projet de loi de membre privé à la Chambre des Lords en mars 2025, et le gouvernement a signalé qu’il introduirait sa propre version. Le périmètre ne cesse de s’élargir — à l’origine uniquement la sécurité de l’IA, maintenant potentiellement également la protection des droits de propriété intellectuelle.
Le laboratoire de croissance de l’IA. C’est intéressant. C’est essentiellement un environnement de test intersectoriel où les entreprises peuvent tester des déploiements d’IA avec des conseils réglementaires. Pensez-y comme à un programme « essayez avant de vous conformer ». L’appel à contributions s’est terminé en janvier 2026, et le gouvernement est maintenant en train de concevoir le cadre.
Les régulateurs sectoriels font réellement des choses. La FCA a publié des directives sur l’IA pour les services financiers. L’ICO enquête activement sur les entreprises d’IA pour le respect de la protection des données. Ofcom examine le contenu généré par l’IA dans la radiodiffusion. Ce n’est pas coordonné, mais cela se passe.
Les cinq principes (que personne ne peut faire respecter)
Le livre blanc de 2023 du Royaume-Uni a énoncé cinq principes pour l’IA :
- Sécurité, sûreté et solidité
- Transparence et explicabilité appropriées
- Équité
- Responsabilité et gouvernance
- Contestabilité et recours
De grands principes. Un problème : ils ne sont pas juridiquement contraignants. Les régulateurs sont « censés » les appliquer, mais il n’y a pas de mécanisme d’application s’ils ne le font pas. Et les différents régulateurs les interprètent différemment.
La version de la FCA de la « transparence » dans les algorithmes de trading alimentés par l’IA n’a rien à voir avec celle d’Ofcom sur la « transparence » dans le contenu d’actualités généré par l’IA. Ce qui est en quelque sorte le but de la régulation spécifique au secteur — mais aussi une partie du problème.
Comment cela se compare à l’UE et au Japon
Le Royaume-Uni essaie sincèrement de trouver un chemin intermédiaire :
vs. l’UE : Moins prescriptif, pas de niveaux de classification des risques, pas d’amendes massives (pour l’instant). Le Royaume-Uni soutient que cela les rend plus attrayants pour les investissements dans l’IA. L’UE soutient que le Royaume-Uni ne fait que retarder l’inévitable.
vs. le Japon : Plus structuré que l’approche purement volontaire du Japon, mais moins centralisé. Le Japon a un quartier général de stratégie sur l’IA présidé par le Premier ministre. Le Royaume-Uni a… beaucoup de régulateurs différents qui agissent chacun de leur côté.
L’évaluation honnête : l’approche du Royaume-Uni fonctionne bien pour les grandes entreprises qui peuvent naviguer entre plusieurs régulateurs. C’est plus difficile pour les startups qui n’ont pas les ressources nécessaires pour comprendre quelles règles leur sont applicables.
Ce que les entreprises d’IA devraient savoir
Si vous opérez sur le marché britannique, voici la réalité pratique :
La protection des données est le véritable mécanisme d’application. L’ICO a du pouvoir et l’utilise. Si votre IA traite des données personnelles (et c’est probablement le cas), les règles équivalentes au RGPD s’appliquent, peu importe qu’il existe ou non une loi spécifique sur l’IA.
Les services financiers sont les plus régulés. Si votre IA touche quoi que ce soit de financier — prêt, assurance, trading, scoring de crédit — les règles de la FCA sont détaillées et appliquées.
Le projet de loi sur l’IA va changer les choses. Lorsqu’il sera adopté (probablement fin 2026 ou en 2027), attendez-vous à de nouvelles exigences pour les modèles d’IA les plus puissants. Les détails sont encore en discussion, mais les exigences de sécurité pour l’« IA de pointe » sont presque certaines.
Le laboratoire est à surveiller. Le laboratoire de croissance de l’IA pourrait devenir un véritable avantage concurrentiel pour le Royaume-Uni. Si cela fonctionne, les entreprises qui participent tôt auront une longueur d’avance sur la conformité lorsque les règles formelles arriveront.
Mon avis
L’approche du Royaume-Uni est pragmatique mais chaotique. Ils ont raison de dire que la régulation spécifique au secteur a plus de sens que des règles uniformes. Mais l’absence de coordination entre les régulateurs est un véritable problème, et l’absence de principes contraignants signifie que les entreprises s’autorégulent essentiellement.
Le projet de loi sur l’IA aidera, mais il est en « préparation » depuis plus d’un an maintenant. À un moment donné, « nous sommes encore en consultation » cesse d’être une stratégie et commence à être un retard.
Pour l’instant, si vous développez de l’IA pour le marché britannique : suivez les règles de protection des données de l’ICO, vérifiez si votre secteur a des directives spécifiques, et gardez un œil sur le projet de loi sur l’IA. C’est à peu près tout ce que vous pouvez faire — ce qui est soit rafraîchissant de simplicité, soit frustrant de vague, selon votre point de vue.
🕒 Published: