يقول يوشوا بنجيو “عراب” الذكاء الاصطناعي إن عملاء الذكاء الاصطناعي يمكن أن يكونوا “أخطر طريق”

- الحديث عن عملاء الذكاء الاصطناعي موجود في كل مكان في دافوس. وحذر رائد الذكاء الاصطناعي يوشوا بنجيو منهم.
- وقال بنجيو إن العملاء الذين يتمتعون بقوة الذكاء الاصطناعي العام يمكن أن يؤديوا إلى “سيناريوهات كارثية”.
- يبحث Bengio عن كيفية إنشاء أنظمة غير وكيل لإبقاء الوكلاء تحت المراقبة.
كان رائد الذكاء الاصطناعي يوشوا بنجيو حاضراً في المنتدى الاقتصادي العالمي في دافوس هذا الأسبوع حاملاً رسالة مفادها أن عملاء الذكاء الاصطناعي قد ينتهي بهم الأمر إلى نهاية سيئة.
كان موضوع عملاء الذكاء الاصطناعي – الذكاء الاصطناعي الذي يمكنه العمل بشكل مستقل عن المدخلات البشرية – أحد أكثر المواضيع إثارة للاهتمام في تجمع هذا العام في سويسرا المغطاة بالثلوج. وقد اجتذب هذا الحدث مجموعة من الباحثين الرائدين في مجال الذكاء الاصطناعي لمناقشة أين يتجه الذكاء الاصطناعي بعد ذلك، وكيف ينبغي أن يُحكم، ومتى قد نرى علامات على وجود آلات يمكنها التفكير مثل البشر – وهو معلم معروف باسم الذكاء العام الاصطناعي (AGI).
وقال بنجيو في مقابلة مع BI: “كل السيناريوهات الكارثية المتعلقة بالذكاء الاصطناعي العام أو الذكاء الفائق تحدث إذا كان لدينا عملاء”. وقال إنه يعتقد أنه من الممكن تحقيق الذكاء الاصطناعي العام دون بناء أنظمة وكيلة.
وقال بينجيو: “كل الذكاء الاصطناعي للعلوم والطب، وكل الأشياء التي يهتم بها الناس، ليست فاعلة”. “ويمكننا الاستمرار في بناء أنظمة أكثر قوة غير وكيلة.”
يعتبر بينجيو، عالم الأبحاث الكندي الذي وضعت أبحاثه المبكرة في التعلم العميق والشبكات العصبية الأساس لطفرة الذكاء الاصطناعي الحديثة، أحد “عرابي الذكاء الاصطناعي” إلى جانب جيفري هينتون ويان ليكون. ومثل هينتون، حذر بنجيو من الأضرار المحتملة للذكاء الاصطناعي ودعا إلى العمل الجماعي للتخفيف من المخاطر.
بعد عامين من اختبار الذكاء الاصطناعي، أدركت الشركات العائد الملموس على الاستثمار الذي يقدمه وكلاء الذكاء الاصطناعي، والذين يمكن أن يدخلوا القوى العاملة بشكل مفيد في أقرب وقت هذا العام. كشفت OpenAI، التي ليس لها حضور في دافوس هذا العام، هذا الأسبوع عن وكيل ذكاء اصطناعي يمكنه تصفح الويب نيابة عنك وتنفيذ مهام مثل حجز المطاعم أو إضافة البقالة إلى سلتك. قامت Google بمعاينة أداة مماثلة خاصة بها.
المشكلة التي يرى بنجيو هي أن الناس سوف يستمرون في بناء الوكلاء مهما حدث، خاصة وأن الشركات والبلدان المتنافسة تشعر بالقلق من أن الآخرين سوف يصلون إلى الذكاء الاصطناعي الفاعل قبلهم.
وقال لـ BI: “الخبر السار هو أننا إذا قمنا ببناء أنظمة غير وكيلة، فيمكن استخدامها للتحكم في الأنظمة الوكيلة”.
وقال بنجيو إن إحدى الطرق هي بناء “شاشات” أكثر تطورا يمكنها القيام بذلك، على الرغم من أن هذا سيتطلب استثمارات كبيرة.
كما دعا إلى وضع قواعد تنظيمية وطنية من شأنها أن تمنع شركات الذكاء الاصطناعي من بناء نماذج فعالة دون إثبات أن النظام سيكون آمنا أولا.
“يمكننا تطوير علمنا الخاص بالذكاء الاصطناعي الآمن والقادر، لكننا بحاجة إلى الاعتراف بالمخاطر، والفهم العلمي من أين تأتي، ثم القيام بالاستثمار التكنولوجي لتحقيق ذلك قبل فوات الأوان، ونبني أشياء يمكن أن تدمرنا”. “، قال بنجيو.
“أريد رفع العلم الأحمر”
قبل التحدث مع BI، تحدث بينجيو في لجنة حول سلامة الذكاء الاصطناعي مع الرئيس التنفيذي لشركة Google DeepMind ديميس هاسابيس.
وقال بنجيو للجمهور عندما سئل عن عملاء الذكاء الاصطناعي: “أريد أن أرفع العلم الأحمر. هذا هو الطريق الأكثر خطورة”. وأشار إلى الطرق التي يمكن من خلالها استخدام الذكاء الاصطناعي في الاكتشافات العلمية، مثل اختراق DeepMind في طي البروتين، كأمثلة على كيف يمكن أن يظل عميقًا دون أن يكون فعالاً. قال بينجيو إنه يعتقد أنه من الممكن الوصول إلى الذكاء الاصطناعي العام (AGI) دون الحاجة إلى وكالة الذكاء الاصطناعي.
وقال: “هذا رهان، أنا أوافق على ذلك، ولكن أعتقد أنه رهان جدير بالاهتمام”.
واتفق هاسابيس مع بينجيو على ضرورة اتخاذ تدابير للتخفيف من المخاطر، مثل حماية الأمن السيبراني أو تجربة العملاء في عمليات المحاكاة قبل إطلاق سراحهم. وأضاف أن هذا لن ينجح إلا إذا وافق الجميع على بنائها بنفس الطريقة.
وقال هاسابيس: “لسوء الحظ، أعتقد أن هناك تدرجًا اقتصاديًا، يتجاوز العلم والعمال، يريد الناس أن تكون أنظمتهم فعالة”. “عندما تقول “أوصيني بمطعم”، لماذا لا تريد الخطوة التالية، وهي حجز الطاولة.”