تواجه شركة OpenAI، مطورة ChatGPT، تحديًا غير متوقع في تعيين رئيس جديد للجاهزية. أعلنت الشركة مؤخرًا عن وظيفة براتب سنوي قدره 555 ألف دولار بالإضافة إلى حصص، لكن مراقبين في قطاع التكنولوجيا يشيرون إلى أن العثور على شخص مؤهل ومستعد لتولي هذا الدور يمثل صعوبة بالغة. يركز هذا الدور على السلامة في الذكاء الاصطناعي، وهو أمر بالغ الأهمية في ظل التطور السريع للنماذج اللغوية الكبيرة.

أثارت OpenAI مؤخرًا ضجة كبيرة بإطلاقها تطبيقات مثل Sora 2 و Instant Checkout لـ ChatGPT، بالإضافة إلى نماذج ذكاء اصطناعي جديدة وأدوات للمطورين وقدرات وكلاء متقدمة. هذا التسارع في وتيرة الإطلاق يضع ضغوطًا كبيرة على منصب رئيس الجاهزية، الذي يتطلب تحقيق توازن دقيق بين الابتكار وضمان السلامة.

تحديات تعيين رئيس الجاهزية في OpenAI

وصف خبراء هذا المنصب بأنه “مهمة شبه مستحيلة”، حيث قد يضطر شاغله في بعض الأحيان إلى مطالبة الرئيس التنفيذي سام ألتمان بإبطاء وتيرة العمل أو التخلي عن بعض الأهداف. وفقًا لما ذكرته Maura Grossman، أستاذة البحث في مدرسة علوم الحاسوب بجامعة واترلو، فإن الشخص الذي يتولى هذا المنصب سيكون “يدفع صخرة إلى أعلى تل شديد الانحدار”.

أقر ألتمان بنفسه بصعوبة هذا الدور، حيث كتب على منصة X أن الوظيفة ستكون مرهقة وأن الشخص الجديد سينخرط في العمل بشكل مكثف على الفور. ومع ذلك، قد تكون هذه فرصة مثالية للشخص المناسب، نظرًا للتأثير الكبير الذي أحدثته OpenAI على حياة الناس، والراتب المرتفع الذي يتوافق مع ما يمكن أن يتوقعه متخصصو الذكاء الاصطناعي.

المؤهلات المطلوبة

لا تتضمن إعلانات الوظيفة متطلبات تقليدية مثل الحصول على درجة جامعية أو عدد سنوات خبرة محدد. تشير OpenAI إلى أن الشخص “قد يزدهر” في هذا الدور إذا كان لديه خبرة في قيادة فرق فنية، والقدرة على اتخاذ قرارات فنية واضحة وذات أهمية عالية في ظل حالة من عدم اليقين، وتنسيق أصحاب المصلحة المتنوعين حول قرارات السلامة، بالإضافة إلى خبرة فنية عميقة في مجالات مثل تعلم الآلة، وأمان الذكاء الاصطناعي، والتقييم، والأمن.

في يوليو 2024، انتقل Aleksander Madry، الرئيس السابق للجاهزية في OpenAI، إلى منصب جديد، مما أدى إلى شغور منصب داخل فريق أنظمة السلامة، المسؤول عن تطوير التقييمات وأطر السلامة والضمانات لنماذج الذكاء الاصطناعي الخاصة بالشركة.

يرى Richard Lachman، أستاذ الإعلام الرقمي بجامعة تورونتو متروبوليتان، أن خلفية أكاديمية قد لا تكون الأنسب لهذا الدور، وأن OpenAI قد تبحث عن مسؤول تنفيذي متمرس في قطاع التكنولوجيا. ويعتقد أن الأكاديميين يميلون إلى أن يكونوا أكثر حذرًا وتجنبًا للمخاطر.

مخاوف تتعلق بالسلامة وتأثيرها على التوظيف

تتوقع Lachman أن تسعى OpenAI إلى شخص يمكنه حماية صورة الشركة العامة فيما يتعلق بالسلامة، مع السماح لها بمواصلة الابتكار والنمو بسرعة. ويصف هذا الشخص بأنه ليس بالضرورة “شخصًا يوافق على كل شيء”، بل شخصًا سيكون “متوافقًا مع العلامة التجارية”.

أثارت استراتيجية OpenAI في مجال السلامة مخاوف داخلية، مما دفع بعض الموظفين الأوائل البارزين، بمن فيهم رئيس سابق لفريق السلامة، إلى الاستقالة. كما تعرضت الشركة لعدة دعاوى قضائية من أشخاص يدعون أنها تعزز الأوهام وتتسبب في سلوكيات ضارة أخرى. في أكتوبر، اعترفت OpenAI بأن بعض مستخدمي ChatGPT أظهروا علامات محتملة على مشاكل الصحة العقلية.

أعلنت الشركة أنها تعمل مع خبراء في الصحة العقلية لتحسين طريقة استجابة برنامج الدردشة الآلي لأولئك الذين يظهرون علامات الذهان أو الهوس، أو إيذاء النفس أو الانتحار، أو التعلق العاطفي. هذه القضايا تزيد من أهمية دور رئيس الجاهزية في ضمان تطوير ونشر تقنيات الذكاء الاصطناعي بطريقة مسؤولة.

من المتوقع أن تستمر OpenAI في البحث عن مرشح مؤهل لشغل هذا المنصب الحيوي. ستراقب الصناعة عن كثب عملية التوظيف، حيث أن اختيار رئيس الجاهزية سيكون له تأثير كبير على مستقبل الشركة وتطور الذكاء الاصطناعي بشكل عام. يبقى أن نرى ما إذا كانت OpenAI ستجد شخصًا مستعدًا لتحمل هذه المسؤولية الصعبة، وما هي التغييرات التي قد تطرأ على استراتيجية السلامة الخاصة بها في المستقبل.

شاركها.