ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
في الفيلم هاتدور أحداث الفيلم حول كاتب وحيد يُدعى ثيودور تومبلي، يقع في حب صوت سامانثا، المساعد الرقمي الذي تلعب دوره الممثلة سكارليت جوهانسون. “لا أستطيع أن أصدق أنني أجري هذه المحادثة مع جهاز الكمبيوتر الخاص بي،” يقول تومبلي لسامانثا. “أنت لست. “أنت تجري هذه المحادثة معي،” سامانثا كوس.
تكمن عبقرية سيناريو سبايك جونز في استكشافه للمناطق الحدودية بين الاصطناعي والحقيقي. لكن فيلم الخيال العلمي، الذي صدر في عام 2013، اكتسب صدى مثير للسخرية اليوم بعد أن أطلقت شركة OpenAI أحدث روبوت دردشة يعمل بالذكاء الاصطناعي متعدد الوسائط GPT-4o، والذي يبدو أنه يحاكي صوت جوهانسون.
وقالت جوهانسون إنها رفضت طلبات OpenAI لاستخدام صوتها، مضيفة أنها “شعرت بالصدمة والغضب” عندما اكتشفت أن الشركة نشرت صوتًا “مشابهًا بشكل مخيف” لصوتها. ودعت إلى مزيد من الشفافية والتشريعات المناسبة لضمان حماية الحقوق الفردية. أوقفت OpenAI استخدام الصوت مؤقتًا، والذي أوضحت لاحقًا أنه يخص ممثلًا آخر لم يذكر اسمه.
ربما يكون هذا الحادث قد صدم المسؤولين الذين حضروا قمة سلامة الذكاء الاصطناعي الأخيرة في سيول هذا الأسبوع باعتباره نوبة غضب من المشاهير. لكن الخلاف ينسجم مع ثلاثة مخاوف عامة أخرى بشأن الذكاء الاصطناعي التوليدي: سرقة الهوية، وتآكل الملكية الفكرية، وتآكل الثقة. هل تستطيع شركات الذكاء الاصطناعي نشر التكنولوجيا بشكل مسؤول؟ ومن المثير للقلق أن بعض المسؤولين السابقين عن ضمان السلامة يطرحون هذا السؤال.
في الأسبوع الماضي، استقال جان لايكي من منصبه كرئيس لفريق السلامة في شركة OpenAI بعد رحيل إيليا سوتسكيفر، أحد مؤسسي الشركة وكبير العلماء. في برنامج X، ادعى Leike أن السلامة في الشركة تراجعت أمام “المنتجات اللامعة”. وقال إن OpenAI يجب أن تكرس المزيد من النطاق الترددي للأمن والسرية والمواءمة البشرية والتأثير المجتمعي. وقال: “من الصعب جدًا حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”.
وفي كلمته الوداعية، قال سوتسكيفر إنه واثق من أن شركة OpenAI ستبني ذكاءً اصطناعيًا “آمنًا ومفيدًا”. ومع ذلك، كان سوتسكيفر أحد أعضاء مجلس الإدارة الذين حاولوا العام الماضي الإطاحة بالرئيس التنفيذي للشركة سام ألتمان. بعد إعادة ألتمان إلى منصبه بعد ثورة الموظفين، قال سوتسكيفر إنه يأسف لمشاركته في الانقلاب. لكن رحيله سيزيل ثقلاً موازناً آخر لألتمان.
ومع ذلك، لم تكن شركة OpenAI هي الوحيدة التي تعثرت في نشر تكنولوجيا الذكاء الاصطناعي. واجهت Google مشاكلها الخاصة مع الذكاء الاصطناعي التوليدي عندما قام برنامج الدردشة الآلي الخاص بها من نوع Gemini بإنشاء صور غير تاريخية لجنود Stormtroopers النازيين السود والآسيويين. تقول كلتا الشركتين إن الخطوات الخاطئة أمر لا مفر منه عند إطلاق تقنيات جديدة، وتستجيبان بسرعة لأخطائهما.
ومع ذلك، من شأنه أن يغرس المزيد من الثقة إذا كانت شركات الذكاء الاصطناعي الرائدة أكثر شفافية. ولا يزال أمامهم طريق طويل ليقطعوه، كما يظهر من مؤشر الشفافية النموذجي الذي نشرته جامعة ستانفورد هذا الأسبوع. يسلط المؤشر، الذي يحلل 10 من مطوري النماذج الرائدين عبر 100 مؤشر بما في ذلك الوصول إلى البيانات، وموثوقية النماذج، وسياسات الاستخدام والتأثيرات النهائية، الضوء على كيفية اتخاذ الشركات الكبرى خطوات لتحسين الشفافية على مدار الأشهر الستة الماضية، لكن بعض النماذج لا تزال “غامضة للغاية”. .
“ما تسمح به هذه النماذج وما لا تسمح به هو الذي سيحدد ثقافتنا. يقول لي بيرسي ليانج، مدير مركز ستانفورد لأبحاث نماذج الأساس: «من المهم التدقيق فيها». وأكثر ما يقلقه هو تركيز قوة الشركات. “ماذا يحدث عندما يكون لديك عدد قليل من المؤسسات التي تتحكم في محتوى وسلوك أنظمة الذكاء الاصطناعي المستقبلية؟”
وقد تعمل مثل هذه المخاوف على تغذية المطالبات بمزيد من التدخل التنظيمي، مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي، والذي حصل على موافقة المجلس الأوروبي هذا الشهر. ويدرس أكثر من ربع الهيئات التشريعية في الولايات المتحدة أيضًا مشاريع قوانين لتنظيم الذكاء الاصطناعي. لكن البعض في الصناعة يخشون أن التنظيم قد يؤدي فقط إلى تعزيز قبضة شركات الذكاء الاصطناعي الكبرى.
“الأصوات في الغرفة هي شركات التكنولوجيا الكبرى. يقول لي مارتن كاسادو، الشريك الاستثماري في شركة رأس المال الاستثماري أندريسن هورويتز: “يمكنهم ترسيخ قوتهم من خلال التنظيم”. يحتاج صناع السياسات إلى إيلاء المزيد من الاهتمام لشركة Little Tech، وهي عشرات الشركات الناشئة التي تستخدم نماذج الذكاء الاصطناعي مفتوحة المصدر للتنافس ضد الشركات الأكبر.
اتفقت عشر دول والاتحاد الأوروبي في قمة سيول هذا الأسبوع على إنشاء شبكة دولية من معاهد السلامة لمراقبة أداء نماذج الذكاء الاصطناعي الحدودية، وهو أمر موضع ترحيب. ولكن يتعين عليهم الآن أن يستمعوا إلى جوهانسون وأن يتعمقوا كثيراً في الهياكل المؤسسية القوية التي تنشر هذه النماذج.
john.thornhill@ft.com