كشف أحدث تقرير صادر عن جمعية فاحصي الاحتيال المعتمدين (ACFE) وشركة SAS أن المؤسسات العالمية تواجه صعوبة متزايدة في مواكبة تطور أساليب الاحتيال المدعومة بالذكاء الاصطناعي.
ووفقًا للتقرير، فإن 7% فقط من المتخصصين في مكافحة الاحتيال يرون أن مؤسساتهم مستعدة بشكل يتجاوز المستوى المتوسط لرصد أو منع عمليات الاحتيال المعتمدة على الذكاء الاصطناعي، في وقت تتوسع فيه أنشطة الاحتيال الرقمي إلى مستويات غير مسبوقة.
الاحتيال المدعوم بالذكاء الاصطناعي يتسارع عالميًا
استند التقرير إلى استطلاع شمل 713 متخصصًا في مكافحة النصب عبر ثماني مناطق حول العالم، وكشف عن ارتفاع حاد في استخدام تقنيات الذكاء الاصطناعي من قبل المجرمين.
وتشمل أبرز أساليب الاحتيال المتنامية:
- الاحتيال عبر تقنيات التزييف العميق (Deepfake)
- الاحتيال باستخدام المستندات المولدة بالذكاء الاصطناعي
- عمليات الاحتيال على المستهلكين عبر الهندسة الاجتماعية الرقمية
وأشار 75% من المشاركين إلى زيادة ملحوظة في عمليات النصب المدعومة بتقنيات توليد المحتوى الرقمي.
المؤسسات في سباق غير متكافئ
أكد التقرير أن المجرمين يسبقون المؤسسات في استخدام أدوات الذكاء الاصطناعي منخفضة التكلفة، ما يمنحهم ميزة تشغيلية كبيرة.
وقال جون جيل، رئيس جمعية ACFE، إن النصب المدعوم بالذكاء الاصطناعي لم يعد تهديدًا مستقبليًا بل واقعًا قائمًا يتطور بوتيرة سريعة، محذرًا من أن المؤسسات التي لا تعزز دفاعاتها ستكون أكثر عرضة للاستهداف.
الإمارات والسعودية في موقع قيادي لمواجهة المخاطر
أشار التقرير إلى أن منطقة الخليج، وخاصة الإمارات العربية المتحدة والمملكة العربية السعودية، تمتلك فرصة استراتيجية لقيادة الجيل القادم من مكافحة الاحتيال.
ويعود ذلك إلى قوة الأطر التنظيمية، وتسارع التحول الرقمي، وتطور البنية التحتية المالية، إضافة إلى الدور المحوري للبنوك المركزية في كلا البلدين في تنظيم المنظومة المالية الرقمية.
تبني متزايد للذكاء الاصطناعي في مكافحة الاحتيال
أوضح التقرير أن 25% فقط من المؤسسات تستخدم الذكاء الاصطناعي أو التعلم الآلي في أنظمة مكافحة النصب، مع توقع ارتفاع النسبة خلال السنوات المقبلة.
ورغم هذا التقدم، ما تزال هناك فجوة واضحة في الجاهزية، حيث تعتمد نسبة محدودة من المؤسسات على اختبارات الشفافية والتحقق من العدالة في نماذج الذكاء الاصطناعي.
تحديات الحوكمة والشفافية
أبرز التقرير وجود فجوة كبيرة بين استخدام الذكاء الاصطناعي وتطبيق مبادئ الحوكمة، حيث:
- 86% من المؤسسات تعتبر دقة النتائج أمرًا بالغ الأهمية
- 18% فقط تختبر النماذج للتحقق من التحيز أو العدالة
- 6% فقط واثقون تمامًا من قدرتهم على تفسير قرارات الذكاء الاصطناعي
هذا التباين يثير مخاوف تنظيمية وقانونية، خاصة في القطاعات المالية والتأمينية.
تقنيات ناشئة تعيد تشكيل مشهد مكافحة الاحتيال
يشير التقرير إلى تسارع تبني تقنيات جديدة مثل:
- الذكاء الاصطناعي التوليدي (GenAI)
- الوكلاء الذكيون (Agentic AI)
- القياسات الحيوية
- الحوسبة الكمية
ورغم ذلك، لا تزال بعض التقنيات مثل المنصات السحابية المتخصصة في كشف النصب غير مستغلة بالشكل الكافي.
الذكاء الاصطناعي التوليدي يتوسع تدريجيًا
أوضح التقرير أن 16% فقط من المؤسسات تستخدم حاليًا الذكاء الاصطناعي التوليدي في مكافحة الاحتيال، بينما تخطط 58% لاعتماده مستقبلًا.
وتشمل أبرز استخداماته الحالية كشف التصيد الاحتيالي، وتقييم المخاطر، وإعداد التقارير التحليلية.
المستقبل: سباق مع الزمن
يحذر التقرير من أن وتيرة تطور المجرمين تفوق في كثير من الأحيان قدرة المؤسسات على التكيف، ما يجعل عامل السرعة والجاهزية التقنية عنصرًا حاسمًا في حماية الأنظمة المالية.
ومع استمرار تطور الذكاء الاصطناعي والحوسبة الكمية، يتوقع أن تتسع فجوة التهديدات ما لم يتم تسريع تبني الحلول الذكية وتعزيز أطر الحوكمة.





