ماذا لو كان الشيء الوحيد الذي يمكنك الوثوق به حقًا هو شيء ما أو شخص قريب بما يكفي للمس جسديًا؟ قد يكون هذا هو العالم الذي يأخذنا إليه الذكاء الاصطناعي. أطلقت مجموعة من الأكاديميين في جامعة هارفارد وخبراء الذكاء الاصطناعي للتو تقريرًا يهدف إلى وضع حواجز أخلاقية حول تطوير تقنيات يحتمل أن تكون بائسة مثل روبوت الدردشة OpenAI المدعوم من Microsoft ، والذي ظهر لأول مرة في برنامج جديد و “محسن” (اعتمادًا على وجهة نظرك في عرض) الإصدار ، GPT-4 ، الأسبوع الماضي.
المجموعة ، التي تضم جلين ويل ، الاقتصادي والباحث في Microsoft ، ودانييل ألين ، الفيلسوفة بجامعة هارفارد ومديرة مركز الصفرا للأخلاقيات ، والعديد من الشخصيات البارزة الأخرى في الصناعة ، تدق ناقوس الخطر بشأن “العدد الكبير من التجارب مع التقنيات الاجتماعية اللامركزية” . يتضمن ذلك تطوير “محتوى شديد الإقناع يتم إنشاؤه بواسطة الآلة (مثل ChatGPT)” والذي يهدد بتعطيل بنية اقتصادنا وسياستنا ومجتمعنا.
إنهم يعتقدون أننا وصلنا إلى “لحظة دستورية” من التغيير تتطلب إطارًا تنظيميًا جديدًا تمامًا لمثل هذه التقنيات.
بعض مخاطر الذكاء الاصطناعي ، مثل مستقبل على غرار Terminator حيث تقرر الآلات أن البشر قد عاشوا يومهم ، هي منطقة مداولة جيدًا في الخيال العلمي – والتي ، يجب أن نلاحظ ، لديها سجل جيد جدًا للتنبؤ بمكان العلم نفسها ستذهب في المائة عام الماضية أو نحو ذلك. لكن هناك آخرون غير مفهومة جيدًا. على سبيل المثال ، إذا كان بإمكان الذكاء الاصطناعي الآن إنشاء هوية مزيفة لا يمكن اكتشافها تمامًا ، فما فائدة الأطر القانونية والحوكمة التي تعتمد على مثل هذه المستندات للسماح لنا بالقيادة أو السفر أو دفع الضرائب؟
شيء واحد نعرفه بالفعل هو أن الذكاء الاصطناعي يمكن أن يسمح للممثلين السيئين بالظهور مثل أي شخص في أي مكان وفي أي وقت. يقول ويل ، الذي نشر كتابًا على الإنترنت مع الوزيرة الرقمية التايوانية ، أودري تانغ ، “عليك أن تفترض أن الخداع سيصبح أرخص بكثير وأكثر انتشارًا في هذا العصر الجديد”. يوضح هذا المخاطر التي يشكلها الذكاء الاصطناعي وتقنيات المعلومات المتقدمة الأخرى على الديمقراطية ، وعلى الأخص أنها تضع مشكلة المعلومات المضللة على المنشطات.
تشمل التداعيات المحتملة كل جانب من جوانب المجتمع والاقتصاد. كيف سنعرف أن التحويلات المالية الرقمية آمنة أو حتى أصلية؟ هل سيكون كتاب العدل والعقود عبر الإنترنت موثوقًا به؟ هل ستصبح الأخبار المزيفة ، وهي مشكلة كبيرة بالفعل ، غير قابلة للكشف بشكل أساسي؟ وماذا عن التداعيات السياسية للعدد الذي لا يحصى من الاضطرابات الوظيفية ، وهو موضوع سيستكشفه الأكاديميان دارون أسيموغلو وسيمون جونسون في كتاب مهم جدًا في وقت لاحق من هذا العام.
يمكن للمرء أن يتخيل بسهولة عالماً تكافح فيه الحكومات لمواكبة هذه التغييرات ، وكما جاء في تقرير هارفارد ، فإن “العمليات الديمقراطية الحالية الناقصة للغاية تثبت أنها عاجزة. . . وبالتالي يتخلى عنها المواطنون المتشائمون بشكل متزايد “.
لقد رأينا بالفعل تلميحات من هذا. مدينة تكساس الخاصة التي شيدها إيلون ماسك لإيواء موظفي شركته SpaceX و Tesla و Boring Company هي أحدث نسخة من الخيال التحرري في وادي السيليكون حيث يلجأ الأثرياء إلى المجمعات الخاصة في نيوزيلندا ، أو ينقلون ثرواتهم وأعمالهم في الولايات القضائية غير الحكومية و “المناطق الاقتصادية الخاصة”. يتناول مؤرخ ويلزلي كوين سلوبوديان ظهور مثل هذه المناطق في كتابه الجديد ، تصدع الرأسمالية.
في هذا السيناريو ، تنخفض عائدات الضرائب ، وتتآكل نصيب العمالة ، ويؤدي عالم المحصل الصفري الناتج إلى تفاقم “نظام الخروج من” أصحاب الامتيازات.
بالطبع ، يمكن أن يكون المستقبل أكثر إشراقًا أيضًا. يتمتع الذكاء الاصطناعي بإمكانيات مذهلة لزيادة الإنتاجية والابتكار ، وقد يسمح لنا حتى بإعادة توزيع الثروة الرقمية بطرق جديدة. ولكن ما هو واضح بالفعل هو أن الشركات لن تتراجع عن تطوير تقنيات Web3 المتطورة ، من الذكاء الاصطناعي إلى blockchain ، بأسرع ما يمكن. إنهم ينظرون إلى أنفسهم على أنهم في سباق وجودي مع بعضهم البعض ومع الصين في المستقبل.
على هذا النحو ، فهم يبحثون عن طرق لبيع ليس فقط الذكاء الاصطناعي ، ولكن الحلول الأمنية له. على سبيل المثال ، في عالم لا يمكن فيه مصادقة الثقة رقميًا ، يفكر مطورو الذكاء الاصطناعي في Microsoft والشركات الأخرى فيما إذا كانت هناك طريقة لإنشاء إصدارات أكثر تقدمًا من “الأسرار المشتركة” (أو الأشياء التي لا يمكنك غيرك أنت وشخص آخر مقرب منها قد يعرف عنها) رقميًا وعلى نطاق واسع.
هذا ، مع ذلك ، يبدو إلى حد ما مثل حل مشكلة التكنولوجيا بمزيد من التكنولوجيا. في الواقع ، قد يكون الحل الأفضل لمعضلة الذكاء الاصطناعي ، في حدود وجوده ، تناظريًا.
“ما نحتاجه هو إطار عمل لمزيد من اليقظة الحذرة” ، كما يقول ألين ، مستشهداً بتقرير اللجنة الرئاسية لعام 2010 حول أخلاقيات علم الأحياء ، والذي تم طرحه ردًا على صعود علم الجينوم. لقد وضع مبادئ توجيهية للتجارب المسؤولة ، والتي سمحت بتطوير تكنولوجي أكثر أمانًا (على الرغم من أنه يمكن للمرء أن يشير إلى معلومات جديدة حول التسرب المختبري المحتمل في جائحة Covid-19 ، ويقول إنه لا يوجد إطار عمل مضمون دوليًا).
في الوقت الحالي ، بدلاً من حظر الذكاء الاصطناعي أو وجود طريقة تنظيمية مثالية ، قد نبدأ بإجبار الشركات على الكشف عن التجارب التي يقومون بها ، وما الذي نجح ، وما الذي لم ينجح ، وأين قد تظهر العواقب غير المقصودة. الشفافية هي الخطوة الأولى نحو ضمان عدم تفوق الذكاء الاصطناعي على صانعيه.