يجب أن يكون التوضيح هو الأساس لمنظمة العفو الدولية في الامتثال

الإفصاح: الآراء والآراء المعبر عنها هنا تنتمي فقط إلى المؤلف ولا تمثل وجهات نظر وآراء تحرير crypto.news.
الذكاء الاصطناعي هو جرائم مالية فائقة الشحن ، وتتخلف دفاعات الصناعة المالية. يستخدم المجرمون الآن الذكاء الاصطناعى لإنشاء Deepfakes المقنع ، وهجمات التصيد الحرف المصممة خصيصًا ، وتصنيع الهويات الاصطناعية على نطاق واسع. تتحرك هذه التكتيكات بشكل أسرع من أنظمة الامتثال التقليدية التي يمكن أن تتبعها ، مما يعرض عيبًا قاتلًا في الأساليب الحالية.
على الرغم من حجم هذا التهديد ، فإن العديد من المنظمات تتسارع إلى نشر أنظمة الذكاء الاصطناعى الخاصة بها دون ضمان تفسير هذه الأدوات أو شفافة أو حتى مفهومة تمامًا. ما لم تصبح القابلية للشرح شرطًا أساسيًا لأي نظام منظمة العفو الدولية المستخدمة في الامتثال المالي ، فإننا نخاطر باستبدال شكل من أشكال العتامة بأخرى ، والتي لن تبني الثقة مع الجمهور أو المنظمين.
لقد بدأ سباق التسلح بالفعل
يتم استخدام الذكاء الاصطناعي لجعل الجرائم القديمة أسرع وأرخص ، وتسهيل ارتكاب أنواع جديدة من الجريمة. النظر في الطفرة الأخيرة في الاحتيال الهوية الاصطناعية. يستخدم مجرمي الإنترنت الذكاء الاصطناعي لخياطة بيانات حقيقية ومزيفة في هويات واقعية ملفقة. يمكن لهذه الملفات الشخصية فتح الحسابات ، والحصول على الائتمان ، وأنظمة التحقق الالتفافية مع عدم تمييزها تقريبًا عن المستخدمين الأصليين.
أضافت تقنية Deepfake سلاحًا آخر إلى الترسانة. يمكن الآن توليد الانتحال الشخصي للمديرين التنفيذيين أو المنظمين أو حتى أفراد الأسرة بأقل جهد. يتم استخدام مقاطع الفيديو هذه ومقاطع الصوت لبدء المعاملات الاحتيالية ، وتضليل الموظفين ، وتسرب البيانات الداخلية.
حتى التصيد قد تطورت. يمكن لأدوات اللغة الطبيعية التي تحركها الذكاء الاصطناعى صياغة الرسائل المفرطة للشخصية ، وهي رسائل صحيحة نحوية مصممة لكل هدف بناءً على بياناتها العامة ، وسلوكها عبر الإنترنت ، والسياق الاجتماعي. هذه ليست رسائل البريد العشوائي التي تم إملائها في الماضي. إنها هجمات مخصصة مصممة لكسب الثقة والقيمة. في مساحة التشفير ، يزدهر التصيد ، ويسارع الذكاء الاصطناعى الاتجاه.
أدوات الامتثال عالقة في عصر ما قبل AI
التحدي ليس مجرد سرعة أو مقياس هذه التهديدات ؛ إنه عدم التوافق بين ابتكار المهاجم وقصور الذكر. أنظمة الامتثال التقليدية القائمة على القواعد تفاعلية وهشة. أنها تعتمد على المشغلات المحددة مسبقا والتعرف على الأنماط الثابتة.
توفر التعلم الآلي والتحليلات التنبؤية حلولًا أكثر تكيفية ، ولكن العديد من هذه الأدوات غير شفافة. أنها تولد المخرجات دون وضوح حول كيفية توصل إلى استنتاج. إن قضية “BLACK BOX” هي أكثر من مجرد قيود فنية. إنه صداع الامتثال.
دون توضيح ، لا توجد مساءلة. إذا لم تتمكن المؤسسة المالية من شرح كيف قام نظام AI الخاص به بإبلاغ معاملة (أو فشل في الإشارة إلى معاملة) ، فلن تتمكن من الدفاع عن قرارها بالمنظمين أو العملاء أو المحاكم. والأسوأ من ذلك ، أنه قد لا يكون قادرًا على اكتشاف عندما يتخذ النظام نفسه قرارات متحيزة أو غير متسقة.
التوضيح هو شرط أمني
يجادل البعض بأن مطالبة أنظمة الذكاء الاصطناعى يمكن تفسيرها سيؤدي إلى إبطاء الابتكار. هذا قصير النظر. التوضيح ليس رفاهية. إنه شرط للثقة والشرعية. وبدون ذلك ، فإن فرق الامتثال تطير أعمى. قد يكتشفون الحالات الشاذة ، لكنهم لن يعرفوا السبب. قد يوافقون على النماذج ، لكنهم لن يتمكنوا من تدقيقها.
يجب أن يتوقف القطاع المالي عن معالجة القابلية للشرح كمكافأة فنية. يجب أن يكون شرط النشر ، خاصة بالنسبة للأدوات التي ينطوي عليها KYC/AML ، والكشف عن الاحتيال ، ومراقبة المعاملات. هذه ليست مجرد أفضل ممارسة. إنها بنية أساسية أساسية.
في مساحة سريعة الحركة مثل Crypto ، حيث تكون الثقة هشة بالفعل والتدقيق مرتفع ، يصبح هذا أكثر إلحاحًا. يجب ألا يكون استخدام الذكاء الاصطناعي في الأمن والامتثال فعالًا فحسب ، بل أيضًا عادلاً بشكل واضح ، قابل للتدقيق ، ومفهوم.
استجابة منسقة غير قابلة للتفاوض
لم تعد الجريمة المالية مسألة حوادث معزولة. في عام 2024 وحده ، بلغ حجم المعاملات غير المشروعة 51 مليار دولار ، وهو رقم من المحتمل أن يقلل من دور الهجمات المحسّنة من الذكاء الاصطناعي. لا يمكن لأي شركة أو منظم أو مزود تقنية معالجة هذا التهديد وحده.
يجب أن تشمل الاستجابة المنسقة:
- إلغاء التوضيح في أي نظام AI يستخدم في وظائف الامتثال عالية الخطورة.
- تمكين ذكاء التهديد المشترك لتسطح أنماط الهجوم الجديدة عبر الشركات.
- تدريب المتخصصين في الامتثال لاستجواب وتقييم مخرجات الذكاء الاصطناعي.
- تتطلب عمليات تدقيق خارجية لأنظمة ML المستخدمة في اكتشاف الاحتيال و KYC.
السرعة سوف تهم دائما. لكن السرعة بدون شفافية هي التزام ، وليس ميزة.
الذكاء الاصطناعى ليس محايدًا ، ولا هو سوء استخدامه
يجب أن تتحول المحادثة. لا يكفي أن نسأل ما إذا كان “AI” يعمل في الامتثال. يجب أن نسأل ما إذا كان يمكن الوثوق به. هل يمكن استجوابها؟ مراجعة؟ مفهومة؟
الفشل في الإجابة على هذه الأسئلة يعرض النظام المالي بأكمله للخطر. ليس فقط من المجرمين ، ولكن من الأدوات التي نعتمد عليها لإيقافهم.
إذا لم نقم ببناء شفافية في دفاعاتنا ، فلن ندافع عن النظام. نحن أتم أتمتة فشلها.