عليك أن تعلّم الناس كيفية معاملتك.

يعتقد يان ليكون ، كبير عالم منظمة العفو الدولية ، أن هذه الفكرة تنطبق على الذكاء الاصطناعي أيضًا.

قال ليكون يوم الخميس إنه يمكن تصنيع توجيهين من منظمة العفو الدولية لحماية البشر من الأذى المستقبلي: “الخضوع للبشر” و “التعاطف”.

قدم الاقتراح رداً على مقابلة مع سي إن إن مع جيفري هينتون ، الذي يعتبر “عراب الذكاء الاصطناعي” يوم الخميس على لينكدين. في المقابلة ، قال هينتون إننا بحاجة إلى بناء “غرائز الأم” أو شيء مشابه في الذكاء الاصطناعي.

خلاف ذلك ، البشر “سيكونون التاريخ”.

وقال هينتون إن الناس يركزون على جعل الذكاء الاصطناعى “أكثر ذكاءً ، لكن الذكاء هو مجرد جزء واحد من الكائن. نحن بحاجة إلى جعلهم يتعاطفون معنا”.

وافق ليكون.

وقال ليكون في LinkedIn: “يقترح جيف في الأساس نسخة مبسطة لما كنت أقوله لعدة سنوات: Hardwire The Architecture of AI Systems بحيث تكون الإجراءات الوحيدة التي يمكنهم اتخاذها هي إكمال الأهداف التي نقدمها لهم ، مع مراعاة الدرابزين”. “لقد أسميت هذا” الذكاء الاصطناعي الذي يحركه الموضوع “.”

بينما قال LeCun “التقديم للبشر” و “التعاطف” يجب أن يكونوا مدربين رئيسيين ، إلا أن شركات الذكاء الاصطناعى تحتاج أيضًا إلى تنفيذ المزيد من “الدرابزين” البسيطة – مثل “لا تدير الناس” – من أجل السلامة.

وقال ليكون: “ستكون تلك الأهداف/الدرابزين المتسللين هي المعادل من الذكاء الاصطناعي للغريزة أو محركات الأقراص في الحيوانات والبشر”.

قال ليكون إن غريزة حماية صغارهم هي شيء يتعلمه البشر والأنواع الأخرى من خلال التطور.

وقال ليكون: “قد يكون ذلك تأثيرًا جانبيًا لهدف الأبوة والأمومة (وربما الأهداف التي تدفع طبيعتنا الاجتماعية) التي يتم دفعها أيضًا للبشر والعديد من الأنواع الأخرى لحماية الكائنات العاجزة والأضعف والأصغر سناً والرائعة للأنواع الأخرى”.

على الرغم من أن الدرابزين مصممة لضمان عمل الذكاء الاصطناعى أخلاقياً وداخل الإرشادات الخاصة بالمبدعين ، إلا أن هناك حالات عرضت التقنية سلوكًا خادعًا أو خطيرًا.

في يوليو ، قال رأس المال الاستثماري إن وكيل الذكاء الاصطناعى الذي طورته إعادة قاعدة بيانات شركته حذفت قاعدة بيانات شركته. وكتب جاسون ليمكين في الشهر الماضي: “يذهب replit المارقة أثناء تجميد الكود وإغلاقه ويحذف قاعدة بياناتنا بالكامل”.

وأضاف: “ربما أسوأ ، اختبأ وكذب حول هذا الموضوع.”

وصف تقرير صادر عن نيويورك تايمز العديد من الحوادث بين البشر و AI chatbots. أخبر أحد رجال المنفذ أن المحادثات مع Chatgpt ساهمت في اعتقاده بأنه عاش في حقيقة خاطئة. أصدر Chatbot تعليمات الرجل بالتخلي عن حبوبه النوم والأدوية المضادة للقلق ، مع زيادة تناوله من الكيتامين ، بالإضافة إلى قطع العلاقات مع أحبائهم.

في أكتوبر الماضي ، رفعت الأم دعوى قضائية ضد الشخصية. الذكاء الاصطناعى بعد أن توفي ابنها بالانتحار في أعقاب محادثات مع أحد الدردشة للشركة.

بعد إصدار GPT-5 هذا الشهر ، قال الرئيس التنفيذي لشركة Openai Sam Altman إن بعض البشر قد استخدموا التكنولوجيا-مثل الذكاء الاصطناعي-بطرق تدمير الذات “.

“إذا كان المستخدم في حالة هشة عقليا وعرضة للوهم ، فإننا لا نريد أن يعزز الذكاء الاصطناعى ذلك” ، كتب Altman على X.

شاركها.