ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
الكاتب هو مدير السياسة الدولية في مركز السياسات السيبرانية بجامعة ستانفورد والمستشار الخاص للمفوضية الأوروبية
تتسابق الحكومات الغربية فيما بينها لإنشاء معاهد سلامة الذكاء الاصطناعي. وقد أعلنت كل من المملكة المتحدة والولايات المتحدة واليابان وكندا عن مثل هذه المبادرات، في حين أضافت وزارة الأمن الداخلي الأمريكية مجلس سلامة وأمن الذكاء الاصطناعي إلى هذا المزيج في الأسبوع الماضي فقط. ونظراً لهذا التركيز الشديد على السلامة، فمن اللافت للنظر أن أياً من هذه الهيئات لا تحكم الاستخدام العسكري للذكاء الاصطناعي. وفي الوقت نفسه، تُظهر ساحة المعركة في العصر الحديث بالفعل إمكانية وجود مخاطر واضحة على سلامة الذكاء الاصطناعي.
وفقا لتحقيق أجرته مؤخرا المجلة الإسرائيلية +972، استخدم جيش الدفاع الإسرائيلي برنامجا مدعوما بالذكاء الاصطناعي يسمى لافندر لتحديد الأهداف لهجمات الطائرات بدون طيار. ويجمع النظام بين البيانات ومصادر الاستخبارات لتحديد هوية المسلحين المشتبه بهم. ويُزعم أن البرنامج حدد عشرات الآلاف من الأهداف، وأسفرت القنابل التي ألقيت على غزة عن وفيات وأضرار جانبية مفرطة. وينفي الجيش الإسرائيلي عدة جوانب من التقرير.
يعمل أصحاب رأس المال المغامر على تعزيز سوق “التكنولوجيا الدفاعية” – أو تكنولوجيا الدفاع. تحرص شركات التكنولوجيا على أن تكون جزءًا من هذا الطفرة الأخيرة وتسرع في بيع فوائد الذكاء الاصطناعي في ساحة المعركة. وتفيد التقارير أن شركة مايكروسوفت قد عرضت Dalle-E، وهي أداة ذكاء اصطناعي توليدية للجيش الأمريكي، في حين تفتخر شركة Clearview AI المثيرة للجدل للتعرف على الوجه بأنها ساعدت أوكرانيا في التعرف على الجنود الروس من خلال تقنيتها. تقوم شركة Anduril بتصنيع أنظمة مستقلة وتقوم شركة Shield AI بتطوير طائرات بدون طيار تعمل بالذكاء الاصطناعي. وحققت الشركتان مئات الملايين من الدولارات في جولاتهما الاستثمارية الأولى.
ولكن على الرغم من أنه من السهل توجيه أصابع الاتهام إلى الشركات الخاصة التي تروج للذكاء الاصطناعي لأغراض الحرب، فإن الحكومات هي التي سمحت لقطاع “التكنولوجيا الدفاعية” بالهروب من إشرافها. لا ينطبق قانون الذكاء الاصطناعي التاريخي للاتحاد الأوروبي على أنظمة الذكاء الاصطناعي “المخصصة حصريًا للأغراض العسكرية أو الدفاعية أو الأمنية الوطنية”. وفي الوقت نفسه، كان الأمر التنفيذي الذي أصدره البيت الأبيض بشأن الذكاء الاصطناعي يشتمل على استثناءات مهمة للذكاء الاصطناعي العسكري (على الرغم من أن وزارة الدفاع لديها مبادئ توجيهية داخلية). على سبيل المثال، فإن تنفيذها لجزء كبير من أمرها التنفيذي “لا يغطي الذكاء الاصطناعي عندما يتم استخدامه كعنصر من عناصر نظام الأمن القومي”. ولم يتخذ الكونجرس أي إجراء لتنظيم الاستخدامات العسكرية لهذه التكنولوجيا.
وهذا يترك الكتلتين الديمقراطيتين الرئيسيتين في العالم بدون قواعد ملزمة جديدة حول أنواع أنظمة الذكاء الاصطناعي التي يمكن أن تستخدمها الأجهزة العسكرية والاستخباراتية. وبالتالي، فإنهم يفتقرون إلى السلطة الأخلاقية لتشجيع الدول الأخرى على وضع حواجز حول استخدامها للذكاء الاصطناعي في جيوشها. إن الإعلان السياسي الأخير بشأن “الاستخدام العسكري المسؤول للذكاء الاصطناعي والحكم الذاتي”، والذي حظي بدعم عدد من البلدان، ليس أكثر من مجرد إعلان.
علينا أن نسأل أنفسنا ما مدى جدوى المناقشات السياسية حول سلامة الذكاء الاصطناعي، إذا لم تغطي الاستخدامات العسكرية لهذه التكنولوجيا. على الرغم من عدم وجود أدلة على أن الأسلحة التي تدعم الذكاء الاصطناعي يمكن أن تمتثل للقانون الدولي بشأن التمييز والتناسب، إلا أنها تباع في جميع أنحاء العالم. وبما أن بعض التقنيات ذات استخدام مزدوج، فإن الخطوط الفاصلة بين الاستخدامات المدنية والعسكرية أصبحت غير واضحة.
إن قرار عدم تنظيم الذكاء الاصطناعي العسكري له ثمن بشري. وحتى لو كانت هذه الأنظمة غير دقيقة بشكل منهجي، فإنها غالبًا ما تحظى بثقة غير مبررة في السياقات العسكرية حيث يُنظر إليها بشكل خاطئ على أنها محايدة. نعم، يمكن للذكاء الاصطناعي أن يساعد في اتخاذ قرارات عسكرية أسرع، لكنه قد يكون أيضًا أكثر عرضة للخطأ وقد لا يلتزم بشكل أساسي بالقانون الإنساني الدولي. تعتبر السيطرة البشرية على العمليات أمرًا بالغ الأهمية في مساءلة الجهات الفاعلة قانونيًا.
وقد حاولت الأمم المتحدة ملء الفراغ. دعا الأمين العام أنطونيو غوتيريش لأول مرة إلى فرض حظر على الأسلحة ذاتية التشغيل في عام 2018، واصفا إياها بأنها “بغيضة أخلاقيا”. وقد أعربت أكثر من 100 دولة عن اهتمامها بالتفاوض واعتماد قوانين دولية جديدة لحظر وتقييد أنظمة الأسلحة المستقلة. لكن روسيا والولايات المتحدة والمملكة المتحدة وإسرائيل عارضت اقتراحًا ملزمًا، مما أدى إلى انهيار المحادثات.
إذا لم تتحرك الدول لحماية المدنيين من الاستخدامات العسكرية للذكاء الاصطناعي، فيجب على النظام الدولي القائم على القواعد أن يكثف جهوده. وستكون الهيئة الاستشارية الرفيعة المستوى التابعة للأمين العام للأمم المتحدة بشأن الذكاء الاصطناعي (التي أخدم فيها) واحدة من عدة مجموعات في وضع جيد يسمح لها بالتوصية بحظر الاستخدامات المحفوفة بالمخاطر للذكاء الاصطناعي العسكري، ولكن القيادة السياسية تظل حيوية لضمان الالتزام بالقواعد.
إن التأكد من استمرار معايير حقوق الإنسان وقوانين النزاعات المسلحة في حماية المدنيين في عصر جديد من الحرب أمر بالغ الأهمية. ولا يمكن أن يستمر الاستخدام غير المنظم للذكاء الاصطناعي في ساحة المعركة.