يتم تحذير الجهات التنظيمية في المملكة المتحدة من أن نهجها الحالي تجاه الذكاء الاصطناعي في الخدمات المالية قد يعرض المستهلكين لأضرار جسيمة، حيث تزداد الثغرات في التنظيم عندما ينطلق الذكاء الاصطناعي بسرعة أكبر في الصناعة.
أصدرت لجنة اختيار الخزانة هذا التحذير، قائلة إن بنك إنجلترا وهيئة السلوك المالي وخزانة صاحبة الجلالة اعتمدت بشكل مفرط على استراتيجية الانتظار والترقب عندما يكون الذكاء الاصطناعي بالفعل في قلب عملية صنع القرار المالي.
في تقرير نُشر في 20 يناير، قالت اللجنة إن وتيرة اعتماد الذكاء الاصطناعي قد تجاوزت قدرة الجهات التنظيمية على إدارة مخاطره.
حوالي 75٪ من شركات الخدمات المالية في المملكة المتحدة تستخدم حاليًا الذكاء الاصطناعي، مع أكثر تبني مكثف بين شركات التأمين والبنوك العالمية الكبرى.
على الرغم من أن أعضاء البرلمان اعترفوا بأن الذكاء الاصطناعي قادر على تعزيز الكفاءة وتسريع خدمات العملاء وتعزيز الدفاعات الإلكترونية، إلا أنهم خلصوا إلى أن كل ذلك يتعرض للخطر بسبب المخاطر التي لم يتم معالجتها لكل من المستهلكين والاستقرار المالي.
حاليًا، لا يوجد تشريع محدد للذكاء الاصطناعي للخدمات المالية في المملكة المتحدة. بدلاً من ذلك، تستخدم الجهات التنظيمية القواعد الموجودة مسبقًا وتدعي أنها مرنة بما يكفي لتشمل التقنيات الجديدة.
أشارت هيئة السلوك المالي إلى واجب المستهلك ونظام كبار المديرين والشهادات باعتباره يوفر حماية كافية، بينما قال بنك إنجلترا إن دوره هو الاستجابة عندما تنشأ المشاكل بدلاً من تنظيم الذكاء الاصطناعي مسبقًا.
رفضت اللجنة هذا الموقف، قائلة إنه يضع الكثير من المسؤولية على الشركات لتفسير القواعد المعقدة بمفردها.
القرارات القائمة على الذكاء الاصطناعي في الائتمان والتأمين غالبًا ما تكون غامضة، مما يجعل من الصعب على العملاء فهم النتائج أو الطعن فيها.
يمكن أن يؤدي تخصيص المنتجات الآلية إلى تعميق الاستبعاد المالي، خاصة للمجموعات الضعيفة. تشكل المشورة المالية غير المنظمة التي تولدها أدوات الذكاء الاصطناعي خطر تضليل المستخدمين، بينما يمكن أن يؤدي استخدام الذكاء الاصطناعي من قبل المجرمين إلى زيادة الاحتيال.
قالت اللجنة إن هذه القضايا ليست افتراضية وتتطلب أكثر من المراقبة بعد الحدث.
اتخذت الجهات التنظيمية بعض الخطوات، بما في ذلك إنشاء اتحاد الذكاء الاصطناعي ومخططات الاختبار الطوعية مثل اختبار الذكاء الاصطناعي المباشر لهيئة السلوك المالي وصندوق الحماية المعزز.
ومع ذلك، قال أعضاء البرلمان إن هذه المبادرات تصل فقط إلى عدد صغير من الشركات ولا توفر الوضوح الذي يحتاجه السوق الأوسع.
أخبر المشاركون في الصناعة اللجنة أن النهج الحالي هو رد فعل، مما يترك الشركات غير متأكدة من المساءلة، خاصة عندما تتصرف أنظمة الذكاء الاصطناعي بطرق غير متوقعة.
أثار التقرير أيضًا مخاوف بشأن الاستقرار المالي، حيث يمكن أن يضخم الذكاء الاصطناعي المخاطر الإلكترونية، ويركز الاعتماد التشغيلي على عدد صغير من مزودي الحوسبة السحابية المقيمين في الولايات المتحدة، ويكثف سلوك القطيع في الأسواق.
على الرغم من ذلك، لا تجري هيئة السلوك المالي ولا بنك إنجلترا حاليًا اختبارات ضغط خاصة بالذكاء الاصطناعي. قال أعضاء لجنة السياسة المالية في البنك إن مثل هذا الاختبار يمكن أن يكون ذا قيمة، لكن لم يتم تحديد جدول زمني.
كان الاعتماد على مزودي التكنولوجيا من طرف ثالث محور تركيز آخر.
على الرغم من أن البرلمان أنشأ نظام الأطراف الثالثة الحرجة في عام 2023 لمنح الجهات التنظيمية إشرافًا على الشركات التي تقدم خدمات أساسية، لم يتم تعيين أي مزود رئيسي للذكاء الاصطناعي أو السحابة بعد.
يستمر هذا التأخير على الرغم من الانقطاعات البارزة، بما في ذلك انقطاع خدمات أمازون ويب في أكتوبر 2025 الذي أثر على البنوك الرئيسية في المملكة المتحدة.
قالت اللجنة إن الطرح البطيء للنظام يترك النظام المالي معرضًا للخطر.
تأتي النتائج بينما تواصل المملكة المتحدة تعزيز استراتيجية ذكاء اصطناعي قائمة على الذكاء الاصطناعي ومبنية على المبادئ تهدف إلى دعم النمو مع تجنب التنظيم الثقيل.
دعمت الحكومة هذا الموقف من خلال مبادرات مثل خطة عمل فرص الذكاء الاصطناعي ومعهد سلامة الذكاء الاصطناعي.
ومع ذلك، قال أعضاء البرلمان إن الطموح يجب أن يتطابق مع العمل.


