يقول أحد الباحثين السابقين إن فريق OpenAI المسؤول عن التخفيف من مخاطر الذكاء الاصطناعي الفائق الذكاء قد خسر ما يقرب من نصف أعضائه
فقدت شركة OpenAI ما يقرب من نصف فريق الشركة الذي كان يعمل على سلامة الذكاء الاصطناعي، وفقًا لأحد الباحثين السابقين في مجال الحوكمة، دانييل كوكوتاجلو.
وقال كوكوتاجلو في تقرير نشرته مجلة فورتشن يوم الثلاثاء “لم يكن الأمر منسقا. أعتقد أن الأمر يتعلق فقط بالأشخاص الذين يستسلمون بشكل فردي”.
وقال كوكوتاجلو، الذي غادر شركة OpenAI في أبريل 2023، إن الشركة المصنعة لـ ChatGPT كان لديها في البداية حوالي 30 شخصًا يعملون على قضايا السلامة المتعلقة بالذكاء العام الاصطناعي.
لكن الرحيل المتكرر للأعضاء خلال العام أدى منذ ذلك الحين إلى تقليص عدد أعضاء فريق السلامة إلى حوالي 16 عضوًا، بحسب كوكوتاجلو.
وأضاف كوكوتاجلو في تصريح للصحيفة: “الأشخاص الذين يركزون في المقام الأول على التفكير في سلامة الذكاء الاصطناعي والاستعداد له يتعرضون لتهميش متزايد”.
ولم يتمكن موقع Business Insider من التأكد بشكل مستقل من ادعاءات Kokotajlo بشأن أعداد الموظفين في OpenAI. وعندما طلبنا منه التعليق، قال متحدث باسم OpenAI لمجلة Fortune إن الشركة “فخورة بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر كفاءة وأمانًا وتؤمن بنهجنا العلمي في معالجة المخاطر”.
وأضاف المتحدث باسم OpenAI أن الشركة “ستواصل التعاون مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم” بشأن القضايا المتعلقة بمخاطر الذكاء الاصطناعي وسلامته.
وفي وقت سابق من هذا الشهر، قال جون شولمان، المؤسس المشارك للشركة ورئيس جهود علوم المحاذاة، إنه سيغادر شركة OpenAI للانضمام إلى شركة Anthropic المنافسة.
وقال شولمان في منشور على X في 5 أغسطس إن قراره كان “شخصيًا” ولم يكن “بسبب نقص الدعم لأبحاث المحاذاة في OpenAI”.
وجاء رحيل شولمان بعد أشهر قليلة من إعلان أحد المؤسسين المشاركين، كبير العلماء إيليا سوتسكيفر، استقالته من شركة OpenAI في مايو/أيار. وأطلق سوتسكيفر شركته الخاصة للذكاء الاصطناعي، Safe Superintelligence Inc.، في يونيو/حزيران.
غادر جان لايكي، الذي شارك في قيادة فريق المحاذاة الفائقة في OpenAI مع سوتسكيفر، الشركة في مايو/أيار. ومثله كمثل شولمان، يعمل الآن في Anthropic.
كانت مهمة فريق لايكي وسوتسكيفر هي ضمان أن يظل الذكاء الفائق لشركة OpenAI متوافقًا مع مصالح البشرية.
وكتب لايكي في منشور على X في شهر مايو: “انضممت لأنني اعتقدت أن OpenAI سيكون أفضل مكان في العالم لإجراء هذا البحث”.
وأضاف “لكن على مدى السنوات الماضية، أصبحت ثقافة السلامة والعمليات الخاصة بها أقل أهمية مقارنة بالمنتجات اللامعة”.
ولم تستجب شركة OpenAI على الفور لطلب التعليق من موقع Business Insider الذي تم إرساله خارج ساعات العمل العادية.