استقال باحث آخر في مجال السلامة من OpenAI، مشيرًا إلى حل فريق “AGI Readiness”.
- أعلنت باحثة السلامة روزي كامبل أنها ستترك OpenAI.
- قالت كامبل إنها استقالت جزئيًا لأن OpenAI قامت بحل فريق يركز على السلامة.
- وهي أحدث باحثة في OpenAI تركز على السلامة وتترك الشركة هذا العام.
أعلن باحث آخر في مجال السلامة عن استقالته من OpenAI.
قالت روزي كامبل، باحثة السياسات في OpenAI، في منشور على Substack يوم السبت إنها أكملت أسبوعها الأخير في الشركة.
وقالت إن رحيلها كان بسبب استقالة مايلز بروندج في أكتوبر، وهو مستشار سياسي كبير كان يرأس فريق جاهزية AGI. بعد رحيله، تم حل فريق جاهزية AGI، وتوزع أعضاؤه عبر قطاعات مختلفة من الشركة.
قدم فريق جاهزية AGI المشورة للشركة بشأن القدرة العالمية على إدارة AGI بأمان، وهي نسخة نظرية من الذكاء الاصطناعي يمكن أن تساوي يومًا ما الذكاء البشري أو تتجاوزه.
في مقالتها، كررت كامبل سبب مغادرة بروندج، مشيرة إلى رغبته في الحصول على مزيد من الحرية لمعالجة القضايا التي أثرت على الصناعة بأكملها.
وكتبت: “لقد كنت دائمًا مدفوعًا بقوة بمهمة ضمان AGI آمنة ومفيدة، وبعد رحيل مايلز وحل فريق جاهزية AGI، أعتقد أنني أستطيع متابعة هذا الأمر بشكل أكثر فعالية خارجيًا”.
وأضافت أن OpenAI تظل في طليعة الأبحاث، وخاصة أبحاث السلامة المهمة.
“خلال فترة وجودي هنا، عملت على قضايا السياسة الحدودية مثل تقييمات القدرات الخطيرة، والوعي الرقمي، والأنظمة الوكيلة الحاكمة، وأنا سعيد جدًا لأن الشركة دعمت هذا النوع المهمل والغريب بعض الشيء من أبحاث السياسة التي تصبح مهمة عندما تأخذ على محمل الجد إمكانية الذكاء الاصطناعي التحويلي.”
ومع ذلك، قالت خلال العام الماضي إنها “شعرت بعدم الاستقرار بسبب بعض التحولات” في مسار الشركة.
في سبتمبر، أعلنت شركة OpenAI أنها ستغير هيكلها الإداري وتتحول إلى شركة ربحية، بعد مرور ما يقرب من عقد من الزمن على إطلاقها في الأصل كمنظمة غير ربحية مخصصة لإنشاء ذكاء اصطناعي عام.
شكك بعض الموظفين السابقين في هذه الخطوة باعتبارها تضر بمهمة الشركة المتمثلة في تطوير التكنولوجيا بطريقة تفيد البشرية لصالح طرح المنتجات بشكل أكثر قوة. منذ يونيو/حزيران، قامت الشركة بزيادة عدد موظفي المبيعات بحوالي 100 لكسب عملاء الأعمال والاستفادة من “التحول النموذجي” نحو الذكاء الاصطناعي، حسبما قال رئيس المبيعات في الشركة لموقع The Information.
وقال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إن التغييرات ستساعد الشركة على الفوز بالتمويل الذي تحتاجه لتحقيق أهدافها، والتي تشمل تطوير الذكاء العام الاصطناعي الذي يفيد البشرية.
وقال ألتمان في مقابلة أجرتها معه كلية هارفارد للأعمال في مايو/أيار: “الأمر البسيط هو أننا كنا بحاجة إلى رأس مال أكبر بكثير مما اعتقدنا أننا قادرون على جذبه – ليس كما اعتقدنا، بل حاولنا – مما كنا قادرين على جذبه كمنظمة غير ربحية”.
وقال مؤخرًا إنه ليس من مسؤولية OpenAI وحدها وضع معايير الصناعة لسلامة الذكاء الاصطناعي.
وقال في مقابلة مع شبكة فوكس نيوز صنداي: “يجب أن يكون هذا سؤالاً للمجتمع”. شانون بريم التي تم بثها يوم الأحد. “لا ينبغي لشركة OpenAI أن تقرر بنفسها كيفية استخدام أو عدم استخدام ChatGPT، أو كيفية استخدام التكنولوجيا بشكل عام.”
منذ إقالة ألتمان المفاجئة ولكن لفترة وجيزة في العام الماضي، غادر العديد من الباحثين البارزين شركة OpenAI، بما في ذلك المؤسس المشارك إيليا سوتسكيفر، وجان لايكي، وجون شولمان، وجميعهم أعربوا عن مخاوفهم بشأن التزامها بالسلامة.
لم تستجب OpenAI على الفور لطلب التعليق من Business Insider.
(علامات للترجمة) openai