Les régulateurs au Royaume-Uni sont avertis que leur approche actuelle de l'intelligence artificielle dans les services financiers pourrait exposer les consommateurs à des préjudices gravesLes régulateurs au Royaume-Uni sont avertis que leur approche actuelle de l'intelligence artificielle dans les services financiers pourrait exposer les consommateurs à des préjudices graves

Les régulateurs britanniques « exposent les consommateurs à un danger grave » alors que les lacunes de surveillance de l'IA s'élargissent — avertit le comité

Les régulateurs au Royaume-Uni sont avertis que leur approche actuelle de l'intelligence artificielle dans les services financiers pourrait exposer les consommateurs à des préjudices graves, car les failles de la réglementation augmentent alors que l'IA se développe plus rapidement dans le secteur.

Le Comité restreint du Trésor a émis cet avertissement, affirmant que la Banque d'Angleterre, la Financial Conduct Authority et le Trésor de Sa Majesté se sont trop appuyés sur une stratégie d'attentisme alors que l'IA est déjà au cœur de la prise de décision financière.

Dans un rapport publié le 20 janvier, le comité a déclaré que le rythme d'adoption de l'IA a dépassé la capacité des régulateurs à gérer ses risques.

Environ 75 % des entreprises de services financiers au Royaume-Uni utilisent actuellement l'IA, avec l'adoption la plus intense parmi les assureurs et les grandes banques mondiales.

Bien que les députés aient admis que l'IA est capable d'améliorer l'efficacité, d'accélérer le service client et de renforcer les défenses cybernétiques, ils ont conclu que tout cela est compromis par des risques non traités pour les consommateurs et la stabilité financière.

Les législateurs affirment que l'approche de l'IA du Royaume-Uni en matière de finance est trop réactive

Actuellement, il n'existe pas de législation spécifique sur l'IA pour les services financiers au Royaume-Uni. Au contraire, les régulateurs utilisent des règles préexistantes et affirment qu'elles sont suffisamment flexibles pour inclure les nouvelles technologies.

La FCA a souligné le Consumer Duty et le Senior Managers and Certification Regime comme offrant une protection suffisante, tandis que la Banque d'Angleterre a déclaré que son rôle est de réagir lorsque des problèmes surviennent plutôt que de réglementer l'IA à l'avance.

Le comité a rejeté cette position, affirmant qu'elle place trop de responsabilité sur les entreprises pour interpréter des règles complexes par elles-mêmes.

Les décisions pilotées par l'IA en matière de crédit et d'assurance sont souvent opaques, ce qui rend difficile pour les clients de comprendre ou de contester les résultats.

L'adaptation automatisée des produits pourrait approfondir l'exclusion financière, en particulier pour les groupes vulnérables. Les conseils financiers non réglementés générés par des outils d'IA risquent d'induire les utilisateurs en erreur, tandis que l'utilisation de l'IA par les criminels pourrait augmenter la fraude.

Le comité a déclaré que ces problèmes ne sont pas hypothétiques et nécessitent plus qu'une surveillance après coup.

Les régulateurs ont pris certaines mesures, notamment la création d'un Consortium IA et des programmes de tests volontaires tels que l'AI Live Testing de la FCA et le Supercharged Sandbox.

Cependant, les députés ont déclaré que ces initiatives n'atteignent qu'un petit nombre d'entreprises et ne fournissent pas la clarté dont le marché plus large a besoin.

Les participants de l'industrie ont déclaré au comité que l'approche actuelle est réactive, laissant les entreprises incertaines quant à la responsabilité, en particulier lorsque les systèmes d'IA se comportent de manière imprévisible.

Les risques de l'IA augmentent alors que les régulateurs britanniques prennent du retard sur les tests et la surveillance

Le rapport a également soulevé des préoccupations concernant la stabilité financière, car l'IA pourrait amplifier les risques cybernétiques, concentrer la dépendance opérationnelle sur un petit nombre de fournisseurs de cloud computing basés aux États-Unis et intensifier le comportement grégaire sur les marchés.

Malgré cela, ni la FCA ni la Banque d'Angleterre n'effectuent actuellement de tests de résistance spécifiques à l'IA. Les membres du Comité de politique financière de la Banque ont déclaré que de tels tests pourraient être précieux, mais aucun calendrier n'a été établi.

La dépendance vis-à-vis des fournisseurs de technologie tiers était un autre point d'attention.

Bien que le Parlement ait créé le Critical Third Parties Regime en 2023 pour donner aux régulateurs une surveillance des entreprises fournissant des services essentiels, aucun fournisseur majeur d'IA ou de cloud n'a encore été désigné.

Ce retard persiste malgré des pannes très médiatisées, notamment une interruption d'Amazon Web Services en octobre 2025 qui a affecté les principales banques britanniques.

Le comité a déclaré que le déploiement lent du régime laisse le système financier exposé.

Les conclusions arrivent alors que le Royaume-Uni continue de promouvoir une stratégie d'IA pro-innovation, basée sur des principes, visant à soutenir la croissance tout en évitant une réglementation lourde.

Le gouvernement a soutenu cette position par le biais d'initiatives telles que le AI Opportunities Action Plan et le AI Safety Institute.

Cependant, les députés ont déclaré que l'ambition doit être accompagnée d'actions.

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.