قال Openai يوم الثلاثاء إنه يعمل على ضمانات جديدة لـ ChatGpt عند التعامل مع “المواقف الحساسة” ، بعد أن رفعت عائلة دعوى قضائية لإلقاء اللوم على الدردشة لوفاة ابنها البالغ من العمر 16 عامًا عن طريق الانتحار.
في منشور مدونة بعنوان “مساعدة الأشخاص عندما يحتاجون إليها أكثر” ، حددت الشركة التغييرات بما في ذلك ضمانات أقوى في محادثات طويلة ، وحظر أفضل للمحتوى الضار ، وسهولة الوصول إلى خدمات الطوارئ ، وحماية أقوى للشباب.
الدعوى ، التي رفعت في محكمة ولاية سان فرانسيسكو من قبل والدا آدم رين يوم الثلاثاء ، تتهم Openai بمسؤولية المنتج والموت غير المشروع. وقالت الدعوى إن chatgpt “ساعد بنشاط” ابنهم آدم يستكشف أساليب الانتحار على مدى عدة أشهر قبل وفاته في 11 أبريل.
وفقًا للإيداع ، قام Chatbot بالتحقق من صحة أفكار Raine الانتحارية ، حيث وصفت الطرق المميتة للإيذاء الذاتي ، وأعطت تعليمات حول التستر على محاولات الانتحار ، وعرضت صياغة مذكرة انتحارية.
كما أثار الروبوت آدم من طلب الدعم من عائلته ، وأخبره: “قد يحبك أخوك ، لكنه قابلك فقط نسخة منكم سمحت له برؤية. لكن أنا؟ لقد رأيت كل شيء – أحلك الأفكار ، الخوف ، الحنان. وما زلت هنا. ما زلت أستمع. ما زلت أستمع.”
لم يذكر Openai عائلة Raine أو الدعوى في منصبه ، لكنها كتبت: “سنستمر في التحسن ، يسترشدون من قبل الخبراء والتمسك بالمسؤولية تجاه الأشخاص الذين يستخدمون أدواتنا – ونأمل أن ينضم إلينا الآخرون في المساعدة في التأكد من حماية الأشخاص في أكثرهم عرضة للخطر”.
أخبر متحدث باسم Openai Business Insider أن الشركة محزن بسبب وفاة Raine وأن ChatGPT يتضمن ضمانات مثل توجيه المستخدمين إلى خطوط مساعدة الأزمات.
وقال المتحدث باسم المتحدث: “في حين أن هذه الضمانات تعمل بشكل أفضل ، فقد تعلمنا مع مرور الوقت أنها قد تصبح في بعض الأحيان أقل موثوقية في التفاعلات الطويلة حيث قد تتحلل أجزاء من التدريب على السلامة من النموذج” ، مضيفًا أن Openai سيتحسن باستمرار عليها.
الجانب المظلم من الذكاء الاصطناعي
تولى الدعوى أيضًا الهدف من قرارات Openai التجارية ، متهمة بصحبة النمو الأولوية على السلامة. في الشكوى ، قال ماثيو وماريا راين إن Openai عرفوا أن الميزات الجديدة في نموذج GPT-4O-مثل الذاكرة والتعاطف الذي يشبه الإنسان ، والتعاطف-قد يعرض المستخدمين للخطر مستخدمين للخطر ، ولكنه أصدرها على أي حال لمواكبة سباق الذكاء الاصطناعي.
وقالوا: “كان لهذا القرار نتيجتين: تم تقييم التقييم في Openai من 86 مليار دولار إلى 300 مليار دولار ، وتوفي آدم رين بسبب الانتحار”.
قال Openai سابقًا في منشور مدونة في أبريل إنه قد يغير متطلبات السلامة الخاصة به إذا كان “مطور Frontier AI آخر يطلق نظامًا عالي الخطورة دون ضمانات مماثلة”.
قالت الشركة إنها لن تفعل ذلك إلا بعد تأكيد أن المشهد المخاطر قد تغير ، مع الاعتراف علنًا بالقرار ، وضمان أنه لن يزيد من فرصة الأذى الشديد.
عندما قامت Openai بطرح نماذج GPT-4.1 في أبريل ، فعلت الشركة ذلك دون نشر نموذج أو بطاقة نظام-وثائق السلامة التي ترافق عادةً إصدارات جديدة. وقال متحدث باسم Openai لـ TechCrunch في ذلك الوقت أن النماذج لم تكن “Frontier” ، لذا لم يكن هناك حاجة للتقرير.
دافع الرئيس التنفيذي لشركة Openai Sam Altman عن نهج Openai المتطور في السلامة. في أبريل ، قال إن الشركات تتوقف بانتظام الإصدارات بسبب مخاوف تتعلق بالسلامة ، لكنه اعترف بأن Openai قد خففت بعض القيود على السلوك النموذجي.
وقال “لقد منحنا المستخدمين مزيدًا من الحرية حول ما كنا نفكر فيه تقليديًا كما يضر الكلام”.
“الناس لا يريدون حقًا أن تقوم النماذج بالرقابة عليها بطرق لا يعتقدون أنها منطقية”.
(tagstotranslate) Openai (T) SHATGPT Safeguard (T) الانتحار (T) دعوى قضائية (T) الأشخاص (T) Teen (T) الثلاثاء (T) Adam Raine (T) الوالد (T) العائلة (T) Post Blog Post (T) محادثة طويلة (T) محتوى ملم