أعطت Openai نفسها مساحة للمناورة على السلامة إذا أطلق المنافسون نماذج “عالية الخطورة”

لا يريد Openai أن يعيقها ضمانات AI إذا لم يلعب منافسيها نفس القواعد.
في مدونة الثلاثاء بريدقال Openai إنه قد يغير متطلبات السلامة الخاصة به إذا كان “مطور AI من Frontier آخر يطلق نظامًا عالي الخطورة دون ضمانات مماثلة”.
قالت الشركة إنها لن تفعل ذلك إلا بعد تأكيد أن المشهد المخاطر قد تغير ، مع الاعتراف علنًا بالقرار ، وضمان أنه لن يزيد من فرصة الأذى الشديد.
شارك Openai التغيير في تحديث “إطار الاستعداد” ، وهي عملية الشركة للتحضير لمنظمة العفو الدولية التي يمكن أن تعرض “مخاطر جديدة من الأذى الشديد”. يشمل تركيزها على السلامة مجالات مثل الأمن السيبراني والتهديدات الكيميائية وقدرة الذكاء الاصطناعى على التنفيذ الذاتي.
ويأتي هذا التحول في الوقت الذي تعرض فيه Openai إلى إطلاق نار لاتخاذ طرق مختلفة للسلامة في الأشهر الأخيرة.
في يوم الاثنين ، أطلقت عائلة GPT-4.1 الجديدة من النماذج بدون طراز أو بطاقة نظام-وثيقة السلامة التي ترافق عادةً إصدارات جديدة من الشركة. أخبر متحدث باسم Openai TechCrunch أن النموذج لم يكن “Frontier” ، لذا لم يكن هناك حاجة للتقرير.
في فبراير ، أطلقت Openai أداة البحث العميق قبل أسابيع قبل نشر بطاقة النظام التي تفصل تقييمات السلامة.
أضافت هذه الحالات إلى التدقيق المستمر لالتزام Openai بالسلامة والشفافية في إصدارات نموذج الذكاء الاصطناعى.
“إن Openai يقلل بهدوء من التزامات السلامة” ، “Steven Adler ، باحث سابق في Openai Safety ، تم نشره في X الأربعاء استجابةً للإطار المحدث.
Openai يقلل بهدوء من التزامات السلامة.
تم حذفه من قائمة التغييرات في إطار التأهب:
لم يعد يتطلب اختبارات السلامة للنماذج المحرقة https://t.co/otmeiatsjs
– ستيفن أدلر (sjgadler) 15 أبريل 2025
قال أدلر إن إطار عمل Openai السابق ، الذي تم نشره في ديسمبر 2023 ، يتضمن شرطًا واضحًا لاختبار السلامة النماذج التي تم ضبطها. وقال إن آخر تحديث يتطلب فقط اختبار ما إذا كان النموذج يتم إصداره بأوزان مفتوحة ، وهو عندما يتم نشر معلمات النموذج.
وأضاف “أود أن يكون Openai أكثر وضوحًا بشأن التراجع عن هذا الالتزام السابق”.
لم يرد Openai على الفور على طلب Insider Business للتعليق.
سابقين من موظفي Openai يعودون دعوى Musk
أدلر ليس الموظف السابق الوحيد الذي يتحدث عن مخاوف السلامة في Openai.
في الأسبوع الماضي ، قدم 12 موظفًا سابقًا في Openai اقتراحًا يطلب من القاضي السماح لهم بالقيام بقضايا Elon Musk ضد الشركة.
في موجز Amicus المقترح الذي تم تقديمه يوم الجمعة ، قالوا إن التحويل المخطط لـ Openai إلى كيان ربحي يمكن أن يحفز الشركة على قطع الزوايا على السلامة وتركيز الطاقة بين المساهمين.
تضم المجموعة موظفي Openai السابقين الذين عملوا على السلامة والبحث والسياسة.
يدافع Altman عن نهج Openai
دافع سام ألمان ، الرئيس التنفيذي لشركة Openai ، عن نهج السلامة المتطور للشركة في مقابلة يوم الجمعة في TED2025. وقال إن إطار عمل Openai يحدد كيف يقيم “لحظات الخطر” قبل إصدار نموذج.
عالج Altman أيضًا فكرة أن Openai يتحرك بسرعة كبيرة. وقال إن شركات الذكاء الاصطناعى تتوقف بانتظام أو تأخير النموذج حول مخاوف تتعلق بالسلامة ، لكنها اعترفت بأن Openai قد استرخت مؤخرًا بعض القيود على السلوك النموذجي. وقال “لقد منحنا المستخدمين مزيدًا من الحرية حول ما كنا نفكر فيه تقليديًا كما يضر الكلام”.
وأوضح أن التغيير يعكس “موقف أكثر تساهلاً” يتشكل من خلال ملاحظات المستخدم. وقال “الناس لا يريدون حقًا أن يقوم النماذج بالرقابة عليهم بطرق لا يعتقدون أنها منطقية”.
(tagstotranslate) Openai (T) السلامة (T) Business Insider (T) عالي الخطورة (T) النموذج (T) الشركة (T) الالتزام (T) الإطار (T) منافس (T) Sam Altman (T) سابق