يقول الرئيس السابق لـ “استعداد AGI” في OpenAI إن الذكاء الاصطناعي سيكون قادرًا قريبًا على فعل أي شيء على جهاز كمبيوتر يستطيع الإنسان القيام به
- غادر مايلز بروندج شركة OpenAI لمتابعة أبحاث السياسات في القطاع غير الربحي.
- كان بروندج شخصية رئيسية في أبحاث الذكاء الاصطناعي العام في OpenAI.
- واجهت شركة OpenAI حالات مغادرة وسط مخاوف بشأن نهجها في أبحاث السلامة.
هناك الكثير من عدم اليقين بشأن الذكاء العام الاصطناعي، وهو شكل لا يزال افتراضيًا الذكاء الاصطناعي الذي يمكنه التفكير بشكل أفضل من البشر.
ومع ذلك، وفقًا للباحثين في أحدث هذه الصناعة، فإننا نقترب من تحقيق شكل ما من أشكال ذلك في السنوات القادمة.
قال مايلز بروندج، الرئيس السابق لأبحاث السياسات واستعداد AGI في OpenAI، لـ Hard Fork، وهو بودكاست تقني، إنه خلال السنوات القليلة المقبلة، ستعمل الصناعة على تطوير “أنظمة يمكنها بشكل أساسي القيام بأي شيء يمكن لأي شخص القيام به عن بعد على جهاز كمبيوتر. ” يتضمن ذلك تشغيل الماوس ولوحة المفاتيح أو حتى الظهور بمظهر “الإنسان في محادثة فيديو”.
وقال: “يجب على الحكومات أن تفكر في ما يعنيه ذلك فيما يتعلق بالقطاعات التي يجب فرض الضرائب عليها والتعليم للاستثمار فيها”.
يعد الجدول الزمني لشركات مثل OpenAI لإنشاء آلات قادرة على الذكاء الاصطناعي العام بمثابة نقاش مهووس تقريبًا بين أي شخص يتابع الصناعة، لكن بعض الأسماء الأكثر تأثيرًا في هذا المجال تعتقد أنه من المقرر أن يصل في غضون سنوات قليلة. وقال جون شولمان، المؤسس المشارك لـ OpenAI وعالم الأبحاث الذي ترك OpenAI في أغسطس، إن الذكاء الاصطناعي العام على بعد بضع سنوات. يعتقد داريو أمودي، الرئيس التنفيذي لشركة Anthropic المنافسة لـ OpenAI، أن بعض التكرار قد يأتي في عام 2026.
سيكون لدى بروندج، الذي أعلن أنه سيترك OpenAI الشهر الماضي بعد أكثر من ست سنوات بقليل في الشركة، فهمًا جيدًا للجدول الزمني لـ OpenAI مثل أي شخص آخر.
خلال فترة وجوده في الشركة، نصح المديرين التنفيذيين وأعضاء مجلس الإدارة حول كيفية الاستعداد لـ AGI. وكان أيضًا مسؤولاً عن بعض أكبر ابتكارات أبحاث السلامة في OpenAI، بما في ذلك الفريق الأحمر الخارجي، والذي يتضمن جلب خبراء خارجيين للبحث عن المشكلات المحتملة في منتجات الشركة.
شهدت شركة OpenAI سلسلة من حالات الخروج من جانب العديد من الباحثين والمديرين التنفيذيين البارزين في مجال السلامة، حيث أشار بعضهم إلى مخاوف بشأن توازن الشركة بين تطوير الذكاء الاصطناعي العام والسلامة.
وقال بروندج إن رحيله، على الأقل، لم يكن مدفوعا بمخاوف تتعلق بالسلامة. وقال لهارد فورك: “أنا واثق تمامًا من عدم وجود مختبر آخر يتولى إدارة الأمور بالكامل”.
وفي إعلانه الأولي عن رحيله، والذي نشره على X، قال إنه يريد أن يكون له تأثير أكبر كباحث في السياسات أو مدافع في القطاع غير الربحي.
أخبر هارد فورك أنه لا يزال متمسكًا بالقرار وأوضح سبب مغادرته.
“أحدها هو أنني لم أتمكن من العمل على كل الأشياء التي أردتها، والتي كانت غالبًا قضايا صناعية شاملة. لذلك ليس فقط ما الذي نفعله داخليًا في OpenAI، ولكن أيضًا ما هي القواعد التنظيمية التي يجب أن تكون موجودة وما إلى ذلك، ” قال.
“السبب الثاني هو أنني أريد أن أكون مستقلاً وأقل تحيزًا. لذلك لم أرغب في رفض آرائي بشكل صحيح أو خاطئ لأن هذا مجرد رجل ضجيج للشركات.”
(علامات للترجمة)openai