تمثل تكنولوجيا الذكاء الاصطناعي مخاطر جديدة – وفرصًا جديدة – للمؤسسات المالية التي تأمل في تحسين أمنها السيبراني والحد من الاحتيال.
اضطرت البنوك ومجموعات الخدمات المالية إلى مواجهة الهجمات السيبرانية لعقود من الزمن، حيث أن أصولها المالية وقواعد بيانات العملاء الضخمة تجعلها أهدافًا رئيسية للقراصنة.
ومع ذلك، فهم الآن يواجهون المجرمين الذين يستخدمون الذكاء الاصطناعي التوليدي – والذي يمكنه التدريب على الصور ومقاطع الفيديو لعملاء أو مديرين تنفيذيين حقيقيين، لإنتاج مقاطع صوتية وفيديو تنتحل شخصياتهم. ويحذر الخبراء من أن هذه الأنظمة لديها القدرة على خداع أنظمة الأمن السيبراني. وفقًا لتقرير صادر عن منصة التحقق من الهوية Sumsub، ارتفع عدد حوادث “التزييف العميق” في قطاع التكنولوجيا المالية بنسبة 700 في المائة في عام 2023، على أساس سنوي.
وفي الوقت نفسه، تستخدم العصابات الإجرامية تقنيات الذكاء الاصطناعي التوليدية لنشر البرامج الضارة أو البرامج الضارة. في إحدى التجارب، استخدم باحثو الأمن السيبراني نموذج لغة كبير يعتمد على الذكاء الاصطناعي (LLM) لتطوير شكل حميد من البرامج الضارة التي يمكنها جمع المعلومات الشخصية، مثل أسماء المستخدمين وكلمات المرور وأرقام بطاقات الائتمان. ووجد الباحثون أنه من خلال تغيير الكود الخاص بها باستمرار، تمكنت البرامج الضارة من التهرب من أنظمة أمن تكنولوجيا المعلومات.
ولمواجهة هذا التهديد، تقوم شركات الخدمات المالية – التي تعد من بين أكبر المنفقين على التكنولوجيا – بنشر الذكاء الاصطناعي في دفاعاتها السيبرانية. منذ عقد من الزمان على الأقل، تستخدم البنوك أنواعًا مختلفة من الذكاء الاصطناعي، مثل التعلم الآلي، للكشف عن الاحتيال من خلال اكتشاف الأنماط في المعاملات والإبلاغ عن الحالات الشاذة.
تكمن الصعوبة في مواكبة مجرمي الإنترنت الذين لديهم إمكانية الوصول إلى أحدث أدوات الذكاء الاصطناعي. وتكافح العديد من البنوك للقيام بذلك، وفقًا لتقرير نشرته وزارة الخزانة الأمريكية في شهر مارس. وخلص التقرير إلى أن شركات التمويل يجب أن تفكر في زيادة استخدام الذكاء الاصطناعي لمواجهة مجرمي الإنترنت البارعين في التكنولوجيا، ومشاركة المزيد من المعلومات حول التهديدات الأمنية للذكاء الاصطناعي.
ومع ذلك، فإن نشر الذكاء الاصطناعي بهذه الطريقة يمكن أن يخلق مخاطر أخرى. أحد المخاوف هو أن المجرمين قد يحاولون حقن بيانات كاذبة في برامج LLM التي تدعم أنظمة الذكاء الاصطناعي التوليدية، مثل ChatGPT من OpenAI، والتي تستخدمها شركات الخدمات المالية.
“إذا قام المهاجم بالحقن بشكل طبيعي [finance] المعاملات بأنها احتيالية، أو العكس، ثم [AI] يحذر أندرو شوارتز، كبير المحللين في شركة سيلينت، وهي شركة استشارية متخصصة في الخدمات المالية، من أن النموذج سيتعلم تصنيف هذه الأنشطة بشكل غير صحيح.
ومع ذلك، فإن بعض شركات الخدمات المالية تضغط على أنظمة الذكاء الاصطناعي التوليدية. في فبراير/شباط، قامت شركة ماستركارد، شركة تكنولوجيا المدفوعات، بمعاينة برنامج الذكاء الاصطناعي التوليدي الخاص بها، والذي قالت إنه يمكن أن يساعد البنوك على اكتشاف الاحتيال بشكل أفضل. سيكون هذا البرنامج، الذي يحلل المعاملات على شبكة ماستركارد، قادرًا على مسح 1 تريليون نقطة بيانات للتنبؤ بما إذا كانت المعاملة حقيقية.
وتقول ماستركارد إن التكنولوجيا قد تكون قادرة على زيادة معدلات اكتشاف الاحتيال في البنوك بنسبة 20 في المائة في المتوسط، وفي بعض الحالات بنسبة تصل إلى 300 في المائة.
يمكن لمراقبة المعاملات المعززة بالذكاء الاصطناعي أن تحقق فائدة كبيرة أخرى: انخفاض بنسبة تزيد عن 85 في المائة في “الإيجابيات الكاذبة” المبلغ عنها، وفقا لشركة ماستركارد. هذه هي الحالات التي يشير فيها البنك عن طريق الخطأ إلى معاملة مشروعة باعتبارها معاملة احتيالية. تخطط Mastercard لجعل ميزة الذكاء الاصطناعي متاحة تجاريًا في وقت لاحق من هذا العام.
“[Our AI] يقول يوهان جربر، نائب الرئيس التنفيذي للأمن السيبراني والابتكار في ماستركارد: “إنها تساعد حقًا في تقديم تجربة أفضل للمستهلكين، مع الاستمرار في اكتشاف عمليات الاحتيال الصحيحة بدقة”.
300%زيادة في معدل اكتشاف الاحتيال في بعض الحالات، كما تدعي شركة Mastercard عند استخدام برنامج الذكاء الاصطناعي الخاص بها
يمكن أيضًا أتمتة وظائف الأمن السيبراني الأخرى، مثل تحليل التهديدات في الوقت الفعلي وتنسيق الإجراءات الأسرع ضدها.
على سبيل المثال، تستخدم الشركة الأيرلندية FBD Insurance برنامج أمان قائم على الذكاء الاصطناعي من Smarttech247 لتحليل ما يصل إلى 15000 “حدث” لتكنولوجيا المعلومات في الثانية على شبكتها بحثًا عن تهديدات أمنية محتملة. يمكن أن تشمل مثل هذه الأحداث وصول الموظف إلى أنظمة تكنولوجيا المعلومات أو البريد الإلكتروني المحظورة، أو انتهاكات جدار الحماية.
يقول إندا كين، كبير مسؤولي التكنولوجيا والعمليات في FBD: “إن التغيير الكبير في الذكاء الاصطناعي لدينا هو أننا نفسر ونفحص الأشياء فور حدوثها”. ويوضح أن تكنولوجيا الأمن السيبراني التقليدية تستغرق وقتًا أطول لاكتشاف التهديدات، ويتم ذلك “بعد وقوعها”.
ومع ذلك، يؤكد الخبراء أن الدفاعات السيبرانية التي تعتمد على الذكاء الاصطناعي لن تحل محل متخصصي تكنولوجيا المعلومات وإدارة المخاطر في المجموعات المالية في المستقبل المنظور. إن العيوب الناشئة في الذكاء الاصطناعي التوليدي – مثل تلفيق الحقائق، أو “الهلوسة” – تعني أن التكنولوجيا لا تزال بحاجة إلى مراقبة دقيقة.
ياشين أحمد، الذي يقود خدمات الأمن السيبراني في الخدمات المالية في مجموعة التكنولوجيا IBM، لديه وجهات نظر متباينة حول استخدام شركات التمويل للذكاء الاصطناعي للأمن السيبراني. على الرغم من أن الذكاء الاصطناعي يمكن أن يخلق “كفاءات هائلة” لأمن المعلومات، إلا أنه يضيف أن شركات الخدمات المالية “تكافح” لتتبع النمو في استخدامه.
ويشير إلى أنهم “لا يعرفون جميع الأماكن التي تستخدم فيها الشركات الذكاء الاصطناعي بالضرورة”. “وهم لا يعرفون ما إذا كانت الشركة قد قامت بتأمين الذكاء الاصطناعي أثناء عملية التطوير وما إذا كانت الشركة لديها الأدوات اللازمة لتأمين الذكاء الاصطناعي بمجرد نشره في دور يواجه العملاء.”
يمكن أن يساعد تعيين موظفين يتمتعون بالمزيج الصحيح من الذكاء الاصطناعي والمهارات السيبرانية في تقليل العواقب غير المقصودة. لكن العثور على موظفين قد يكون أمرًا صعبًا، نظرًا للنقص العالمي الذي يزيد عن عقد من الزمن في موظفي الأمن السيبراني والمنافسة الشديدة على خبراء الذكاء الاصطناعي من شركات التكنولوجيا الكبرى.
يقول جيانكارلو هيرش، المدير الإداري في شركة Glocomms للتوظيف التكنولوجي، إن عددا “صغيرا جدا” من المرشحين “يتمتعون بمستوى الفهم والخبرة” الذي تريده شركات الخدمات المالية. “لذا فهي مجموعة مرشحين أكثر تخصصًا.”
ومن المرجح أيضًا أن يؤدي الطلب على الأمن السيبراني المعزز بالذكاء الاصطناعي إلى زيادة مبيعات البرامج الجاهزة. من المتوقع أن ينمو السوق العالمي لمنتجات وخدمات الأمن السيبراني المستندة إلى الذكاء الاصطناعي من حوالي 24 مليار دولار في عام 2023 إلى ما يقرب من 134 مليار دولار بحلول عام 2030، وفقًا لمزود البيانات Statista.
يقول روم إلياهو، مدير تطوير الأعمال في شركة BlueVoyant، وهي شركة للأمن السيبراني: “سيستخدم المهاجمون الذكاء الاصطناعي أكثر فأكثر في السنوات المقبلة”. “ولا يمكنك ببساطة مكافحة حجم النشاط دون استخدام الذكاء الاصطناعي والتعلم الآلي بنفسك. سيكون هناك الكثير من التهديدات هناك.”