جيفري هينتون رائدة منذ فترة طويلة في تطوير الذكاء الاصطناعي. لم يعلم سوى القليل من عراب الذكاء الاصطناعي أنه في يوم من الأيام ، كانت صديقته تعتمد عليها لتفككه.

أخبر هينتون صحيفة فاينانشال تايمز في مقابلة واسعة النطاق يوم الجمعة أن صديقته المؤسسة الآن طلبت من chatbot أن يشرح لماذا كان “فأرًا” وقام بتسليم النقد الذي تم إنشاؤه بواسطة الذكاء الاصطناعى مباشرة إليه.

وقال لـ FT: “لقد حصلت على chatbot لشرح مدى روعة سلوكي وأعطاه لي”. “لم أكن أعتقد أنني كنت فأرًا ، لذلك لم يجعلني أشعر بالسوء. قابلت شخصًا أعجبني أكثر ، أنت تعرف كيف ستسير الأمور”.

تحت الحكاية الفكاهية تكمن حقيقة جديدة: أصبحت منظمة العفو الدولية لاعبًا رئيسيًا في التفاعلات البشرية اليومية. سواء أكان صياغة رسالة بريد إلكتروني أو حل مشكلة منزلية أو في حالة هينتون ، وإلقاء خطاب تفكك ، فإنه يتشكل بشكل متزايد كيف نتواصل.

في شهر مارس ، نشر باحثون من Openai و MIT Media Lab أبحاثًا قاموا بتحليل ملايين محادثات الدردشة وآلاف التفاعلات الصوتية مع ChatGPT. وجدوا أن ChatGPT قد يزيد من سوء مشاعر الوحدة في مجموعة من “مستخدمي الطاقة”.

وكتب الباحثون: “يكشف تحليلنا أن عددًا صغيرًا من المستخدمين مسؤولون عن حصة غير متناسبة من أكثر العظة عاطفية”. تعتبر العظة العاطفية ، التي لم يعرفها الباحثون أبدًا بشكل صريح ، علامات شفهية وغير لفظية على الحالة العاطفية لشخص ما. قام الباحثون بتحليل محادثات لموضوعات الوحدة والضعف والاستخدام الإشكالي واحترام الذات والاعتماد.

قد يكون من المهم أن تضع في اعتبارك أن Openai أصدر أيضًا إرشادات ضد تفريغ مشاكل علاقتك في ChatGPT.

“عندما تسأل شيئًا مثل” هل يجب أن أفصل مع صديقي؟ ” قالت الشركة في بيان حول التغييرات التي بدأت في طرحها في أغسطس لضمان استجابة chatgpt بشكل مناسب للمستخدمين: “يجب ألا تعطيك ChatGpt إجابة”. “يجب أن يساعدك ذلك في التفكير في ذلك-طرح الأسئلة ، ووزن الإيجابيات والسلبيات. السلوك الجديد للقرارات الشخصية عالية المخاطر يتم طرحه قريبًا.”

شاركها.