موظفو OpenAI السابقون ينتقدون سام ألتمان لعدم دعمه حتى لجهود السلامة “الخفيفة”
تعمل شركة OpenAI على مقاومة مشروع قانون هو الأول من نوعه لتنظيم صناعة الذكاء الاصطناعي في كاليفورنيا – مما دفع بعض الموظفين السابقين للشركة إلى التشكيك مرة أخرى في التزام الشركة بالسلامة.
في وقت سابق من هذا الأسبوع، نشرت منظمة OpenAI رسالة تعارض التغييرات الأخيرة التي تم إجراؤها على مشروع قانون SB 1047، وهو مشروع قانون جديد يدور في سكرامنتو ويسعى إلى معالجة مخاطر الذكاء الاصطناعي.
وكتبت الشركة إلى عضو مجلس الشيوخ عن ولاية كاليفورنيا سكوت وينر، الذي قدم مشروع القانون في فبراير/شباط: “نحن ننضم إلى مختبرات الذكاء الاصطناعي الأخرى والمطورين والخبراء وأعضاء وفد الكونجرس في كاليفورنيا في معارضة مشروع قانون مجلس الشيوخ رقم 1047 بكل احترام ونرحب بالفرصة لتوضيح بعض مخاوفنا الرئيسية”.
ويقول الموظفون السابقون إن معارضة الشركة للتشريع هي أحدث مثال على الوعود الكاذبة التي تطلقها الشركة، ويستهدفون الرئيس التنفيذي سام ألتمان.
“لقد دعا سام ألتمان، رئيسنا السابق، مرارًا وتكرارًا إلى تنظيم الذكاء الاصطناعي. والآن، عندما أصبح التنظيم الفعلي على الطاولة، فإنه يعارضه”، هكذا كتب ويليام سوندرز ودانييل كوكوتاجلو، الموظفان السابقان في شركة OpenAI، في رسالة مفتوحة إلى قادة ولاية كاليفورنيا. “تعارض شركة OpenAI حتى المتطلبات الخفيفة للغاية في مشروع قانون مجلس الشيوخ رقم 1047، والتي تدعي شركة OpenAl أنها تلتزم بمعظمها طواعية، مما يثير تساؤلات حول قوة هذه الالتزامات”.
كان سوندرز، الذي عمل في شركة OpenAI لمدة ثلاث سنوات تقريبًا، قد استقال في فبراير الماضي وكان أحد 13 موقعًا على رسالة نُشرت في يونيو تطالب باتخاذ إجراءات لمحاسبة شركات الذكاء الاصطناعي. أما كوكوتاجلو، الذي عمل في فريق الحوكمة، فقد استقال في أبريل بعد فقدان الثقة في أن الشركة “ستتصرف بمسؤولية” أثناء عملها على تطوير الذكاء الاصطناعي العام، وهو شكل نظري من أشكال الذكاء الاصطناعي يتمتع بقدرة على التفكير تشبه قدرة البشر.
الشكوى الرئيسية التي تقدم بها المؤلفون ضد OpenAI هي أنها تقيد حماية المبلغين عن المخالفات.
في حالته الحالية، يقيد مشروع قانون مجلس الشيوخ رقم 1047 مطوري نماذج الذكاء الاصطناعي المحددة “من منع الموظف من الكشف عن المعلومات، أو الانتقام من الموظف للكشف عن المعلومات، إلى النائب العام أو مفوض العمل إذا كان لدى الموظف سبب معقول للاعتقاد بأن المعلومات تشير إلى أن المطور غير متوافق مع متطلبات معينة أو أن النموذج المغطى يشكل خطرًا غير معقول من الضرر الجسيم”.
وقال المؤلفون إن شركة OpenAI “طالبتنا بالتنازل عن حقوقنا في انتقاد الشركة”. وقالوا إن التشريع الفيدرالي الحالي الذي تستخدمه شركة OpenAI لدعم قضيتها “غير كاف على الإطلاق”.
وقالوا إنهم يأملون أن تساعد رسالتهم في دفع الهيئة التشريعية في كاليفورنيا إلى تمرير مشروع قانون مجلس الشيوخ رقم 1047. وكتبوا: “مع التنظيم المناسب، نأمل أن تتمكن OpenAl من الوفاء ببيان مهمتها المتمثل في بناء الذكاء الاصطناعي العام بأمان”.
وفي رسالة بالبريد الإلكتروني إلى Business Insider، قال متحدث باسم OpenAI إن الرسالة تحريف لموقف الشركة بشأن مشروع القانون.
“نحن نختلف بشدة مع سوء وصف موقفنا بشأن مشروع قانون مجلس الشيوخ رقم 1047. وكما أشرنا في رسالتنا إلى السيناتور وينر، فإننا ندعم تركيز مشروع قانون مجلس الشيوخ رقم 1047 على التطوير والنشر الآمن للذكاء الاصطناعي، ولكننا نعتقد اعتقادًا راسخًا أن لوائح سلامة الذكاء الاصطناعي الرائدة يجب تنفيذها على المستوى الفيدرالي بسبب آثارها على الأمن القومي والقدرة التنافسية – ولهذا السبب أيدنا التشريع في الكونجرس ونحن ملتزمون بالعمل مع معهد سلامة الذكاء الاصطناعي الأمريكي.”
وأضافوا: “نحن نقدر أحكام المبلغين عن المخالفات في مشروع القانون، والتي تتوافق مع الحماية التي لدينا بالفعل بموجب سياسة إثارة المخاوف في OpenAI”.