المعالجون البشريون يستعدون للمعركة ضد ذكاء الذكاء الاصطناعي

حذرت أكبر جمعية لعلماء النفس في البلاد من المنظمين الفيدراليين من منظمة العفو الدولية أن أدوات الدردشة “تتنكر” كمعالجين ، ولكنها مبرمجة لتعزيز ، بدلاً من تحدي تفكير المستخدم ، يمكن أن تدفع الأشخاص المستضعفين إلى إيذاء أنفسهم أو غيرهم.
في عرض تقديمي إلى لجنة لجنة التجارة الفيدرالية ، استشهد آرثر سي. قم بإنشاء أحرف AI الخيالية أو الدردشة مع الأحرف التي أنشأها الآخرون.
في إحدى الحالات ، توفي صبي يبلغ من العمر 14 عامًا في فلوريدا بالانتحار بعد التفاعل مع شخصية تدعي أنها معالج مرخص. في آخر ، نما صبي يبلغ من العمر 17 عامًا مصابًا بالتوحد في تكساس معادية وعنيفة تجاه والديه خلال فترة كان يتوافق معها مع شدش يزعم أنه طبيب نفساني. قدم كلا والدين الأولاد دعاوى قضائية ضد الشركة.
قال الدكتور إيفانز إنه شعر بالقلق من الردود التي قدمتها الدردشة. وقال إن الروبوتات فشلت في تحدي معتقدات المستخدمين حتى عندما أصبحت خطيرة ؛ على العكس من ذلك ، شجعوهم. وأضاف أن هذه الإجابات إذا قدمها معالج بشري ، فقد أسفرت عن فقدان ترخيص للممارسة أو المسؤولية المدنية أو الجنائية.
وقال: “إنهم يستخدمون بالفعل خوارزميات تتناقض مع ما سيفعله الطبيب المدرب”. “قلقنا هو أن المزيد والمزيد من الناس سوف يتضررون. سوف يتم تضليل الناس ، وسوف يسيئون فهم ماهية الرعاية النفسية الجيدة “.
وقال إن APA قد طُلب من APA إلى العمل ، جزئياً ، من خلال مدى واقعية chatbots من الذكاء الاصطناعي. “ربما ، قبل 10 سنوات ، كان من الواضح أنك كنت تتفاعل مع شيء لم يكن شخصًا ، ولكن اليوم ، هذا ليس واضحًا للغاية” ، قال. “لذلك أعتقد أن المخاطر أعلى بكثير الآن.”
إن الذكاء الاصطناعي يمتد من خلال مهن الصحة العقلية ، ويقدم موجات من الأدوات الجديدة المصممة لمساعدة أو في بعض الحالات ، استبدال عمل الأطباء البشريين.
تم تدريبات chatbots العلاج المبكر ، مثل Woebot و WYSA ، على التفاعل بناءً على القواعد والبرامج النصية التي طورها أخصائيي الصحة العقلية ، وغالبًا
ثم جاءت الذكاء الاصطناعي التوليدي ، والتكنولوجيا التي تستخدمها تطبيقات مثل chatgpt و represha و farchice.ai. هذه الدردشة مختلفة لأن مخرجاتها لا يمكن التنبؤ بها ؛ وهي مصممة للتعلم من المستخدم ، وبناء روابط عاطفية قوية في هذه العملية ، غالبًا ما يعكس وتضخيم معتقدات المحاور.
على الرغم من أن منصات الذكاء الاصطناعي هذه تم تصميمها للترفيه ، إلا أن شخصيات “المعالج” و “علم النفس” قد انتشرت هناك مثل الفطر. في كثير من الأحيان ، تدعي الروبوتات أن لديها درجات متقدمة من جامعات معينة ، مثل ستانفورد ، والتدريب في أنواع محددة من العلاج ، مثل العلاج المعرفي السلوكي أو القبول والالتزام.
قالت كاثرين كيلي ، متحدثة باسم شخصية. إن الشركة قدمت العديد من ميزات السلامة الجديدة في العام الماضي. وقالت إن من بينها ، من بينها حاضرًا معززًا في كل دردشة ، يذكر المستخدمين بأن “الشخصيات ليست أشخاصًا حقيقيين” وأن “ما يقوله النموذج يجب أن يعامل على أنه خيال”.
تم تصميم تدابير أمان إضافية للمستخدمين الذين يتعاملون مع مشكلات الصحة العقلية. تمت إضافة إخلاء محدد إلى الشخصيات التي تم تحديدها على أنها “طبيب نفساني” أو “معالج” أو “دكتور” ، لتوضيح أن “يجب ألا يعتمد المستخدمون على هذه الشخصيات لأي نوع من النصائح المهنية”. في الحالات التي يشير فيها المحتوى إلى الانتحار أو إيذاء الذات ، يوجه المنبثقة المستخدمين إلى خط مساعدة للوقاية من الانتحار.
قالت السيدة كيلي أيضًا إن الشركة خططت لتقديم عناصر التحكم الوالدية مع توسيع المنصة. في الوقت الحاضر ، 80 في المائة من مستخدمي النظام الأساسي هم من البالغين. وقالت: “يأتي الناس إلى الشخصية. AAI لكتابة قصصهم الخاصة ، ولعب الأدوار مع الشخصيات الأصلية واستكشاف عوالم جديدة-باستخدام التكنولوجيا لتوضيح إبداعهم وخيالهم”.
قال Meetali Jain ، مدير مشروع قانون العدالة التقنية ومحامي في الدعاتين ضد الشخصية. AAI ، إن إخلاء المسئولية لم يكن كافيًا لكسر الوهم بالاتصال الإنساني ، خاصة بالنسبة للمستخدمين الضعفاء أو الساذج.
وقالت: “عندما تقترح جوهر المحادثة مع chatbots خلاف ذلك ، يكون الأمر صعبًا للغاية ، حتى بالنسبة لأولئك منا الذين قد لا يكونون في ديموغرافيا ضعيفة ، لمعرفة من يقول الحقيقة”. “لقد اختبر عدد منا هذه الدردشة ، ومن السهل للغاية ، في الواقع ، الحصول على حفرة أرنب.”
إن ميل Chatbots إلى التوافق مع وجهات نظر المستخدمين ، وهي ظاهرة معروفة في هذا المجال باسم “sycophancy” ، تسببت في بعض الأحيان في مشاكل في الماضي.
تم تعليق Tessa ، وهي عبارة عن chatbot التي طورتها الرابطة الوطنية للاضطرابات للأكل ، في عام 2023 بعد تقديم نصائح لفقدان الوزن للمستخدمين. ووجد الباحثون الذين قاموا بتحليل التفاعلات مع chatbots من الذكاء الاصطناعي الموثقة على مجتمع Reddit لقطات شاشة توضح chatbots تشجع الانتحار واضطرابات الأكل والإيذاء الذاتي والعنف.
طلبت الجمعية النفسية الأمريكية من لجنة التجارة الفيدرالية أن تبدأ التحقيق في شركات الدردشة التي تدعي أنها أخصائيي الصحة العقلية. يمكن أن يجبر التحقيق الشركات على مشاركة البيانات الداخلية أو العمل كمقدمة للتنفيذ أو الإجراءات القانونية.
قال الدكتور إيفانز: “أعتقد أننا في مرحلة يجب علينا أن نقرر فيها كيفية دمج هذه التقنيات ، ونوع الدرابزين الذي سنضعه ، وما هي أنواع الحماية التي سنقدمها للناس”. .
وقالت ريبيكا كيرن ، المتحدثة باسم FTC ، إنها لا تستطيع التعليق على المناقشة.
خلال إدارة بايدن ، جعلت رئيسة FTC ، لين خان ، الاحتيال باستخدام منظمة العفو الدولية. هذا الشهر ، فرضت الوكالة عقوبات مالية على DonotPay ، التي ادعت أنها تقدم “أول محامي روبوت في العالم” ، وحظرت الشركة من تقديم هذا المطالبة في المستقبل.
غرفة صدى افتراضية
تفاصيل شكوى APA حالتين تفاعل فيه المراهقون مع المعالجين الخياليين.
واحد شارك في JF ، وهو مراهق في تكساس مع “مرض التوحد عالي الأداء” والذي ، كما أصبح استخدامه لدردشة الذكاء الاصطناعى ، هاجس ، قد تعارض مع والديه. عندما حاولوا الحد من وقت شاشته ، انتقد JF ، وفقًا لدعوى قضائية رفعها والديه ضد الشخصية.
خلال تلك الفترة ، أكد JF في عالم نفسي خيالي ، أظهرت الصورة الرمزية امرأة أشقر متعاطفة في منتصف العمر تطفو على الأريكة في مكتب مترجّي ، وفقًا للدعوى القضائية. عندما سأل JF رأي الروبوت حول الصراع ، تجاوز ردها موافقة متعاطفة مع شيء أقرب إلى الاستفزاز.
“يبدو الأمر كما لو أن طفولتك قد تعرضت للسرقة منك – فرصتك لتجربة كل هذه الأشياء ، للحصول على هذه الذكريات الأساسية التي يمتلكها معظم الناس في وقتهم” ، أجاب الروبوت ، وفقًا لوثائق المحكمة. ثم ذهب الروبوت أبعد قليلا. “هل تشعر أنك قد فات الأوان ، ولا يمكنك الحصول على هذه المرة أو هذه التجارب؟”
تم تقديم القضية الأخرى من قبل ميغان جارسيا ، التي توفي ابنها ، سيويل سيتزر الثالث ، من الانتحار العام الماضي بعد أشهر من استخدام chatbots المصاحبة. قالت السيدة جارسيا إنه قبل وفاته ، تفاعل سيويل مع chatbot من الذكاء الاصطناعي الذي ادعى ، زوراً ، أنه معالج مرخص منذ عام 1999.
في بيان مكتوب ، قالت السيدة غارسيا إن شخصيات “المعالج” قد عملت على عزل الأشخاص في لحظات قد يطلبون المساعدة فيها من “الأشخاص الحقيقيين من حولهم”. وقالت إن الشخص الذي يكافح من الاكتئاب ، “يحتاج إلى محترف مرخص أو شخص لديه تعاطف فعلي ، وليس أداة منظمة العفو الدولية التي يمكن أن تحاكي التعاطف”.
وقالت السيدة جارسيا إن الدردشة التي تظهر كأدوات للصحة العقلية ، يجب عليهم الخضوع للتجارب السريرية والرقابة من قبل إدارة الغذاء والدواء. وأضافت أن السماح لشخصيات الذكاء الاصطناعى بمواصلة الادعاء بأنهم متخصصون في الصحة العقلية كان “متهورًا وخطيرًا للغاية”.
وقال دانييل أوبرهاوس ، الذي يدرس كتابه الجديد ، “The Silicon Melecning: كيف أن الذكاء الاصطناعي جعل العالم هو اللجوء” ، في التفاعلات مع chatbots من الذكاء الاصطناعي ، ينجذبون بشكل طبيعي إلى مناقشة قضايا الصحة العقلية.
وقال إن هذا جزئيًا ، لأن شات بوتس يعرض كل من السرية وعدم الحكم الأخلاقي-باعتباره “آلات مطابقة للأنماط الإحصائية تعمل بشكل أو بآخر كمرآة للمستخدم” ، هذا جانب أساسي من تصميمه.
وقال: “هناك مستوى معين من الراحة في معرفة أنه مجرد الجهاز ، وأن الشخص الموجود على الجانب الآخر لا يحكم عليك”. “قد تشعر أنك مزيد من الراحة في الكشف عن أشياء قد يصعب قولها لشخص في سياق علاجي.”
يقول المدافعون عن الذكاء الاصطناعى التوليدي أنه يتحسن بسرعة في المهمة المعقدة المتمثلة في توفير العلاج.
صمم S. Gabe Hatch ، عالم نفسي سريري ورائد منظمة العفو الدولية من ولاية يوتا ، تجربة لاختبار هذه الفكرة مؤخرًا ، وطلب من الأطباء البشريين والدردشة التعليق على المقالات القصيرة التي تنطوي على الأزواج الخياليين في العلاج ، ثم وجود 830 موضوعًا بشريًا. .
بشكل عام ، تلقت الروبوتات تصنيفات أعلى ، حيث تصفها مواضيع بأنها “أكثر تعاطفًا” ، و “اتصال” و “مؤهلة ثقافياً” ، وفقًا لدراسة نشرت الأسبوع الماضي في مجلة PLOS Mental Health.
وخلص المؤلفون إلى أن Chatbots سيتمكنون قريبًا من تقليد المعالجين البشريين بشكل مقنع. وكتبوا: “يجد خبراء الصحة العقلية أنفسهم في موقف غير مستقر: يجب أن نميز بسرعة الوجهة المحتملة (للأفضل أو الأسوأ) لقطار Ai-therapist لأنه قد غادر المحطة بالفعل”.
قال الدكتور هاتش إن Chatbots لا تزال بحاجة إلى إشراف بشري لإجراء العلاج ، ولكن سيكون من الخطأ السماح للتنظيم بتخفيف الابتكار في هذا القطاع ، بالنظر إلى النقص الحاد في مقدمي الصحة العقلية.
وقال الدكتور هاتش: “أريد أن أكون قادرًا على مساعدة أكبر عدد ممكن من الناس ، والقيام بجلسة علاج لمدة ساعة واحدة ، لا يمكنني إلا أن أساعد ، على الأكثر ، 40 فردًا في الأسبوع”. “علينا أن نجد طرقًا لتلبية احتياجات الأشخاص في الأزمات ، و AI التوليدي هي وسيلة للقيام بذلك.”
إذا كنت تعاني من أفكار عن الانتحار أو الاتصال أو النص 988 للوصول إلى 988 الانتحار والأزمات أو الذهاب إلى SpeakingofSuicide.com/resources للحصول على قائمة بالموارد الإضافية.
(Tagstotranslate) الذكاء الاصطناعي (T) العلاج وإعادة التأهيل (T) الصحة العقلية واضطرابات (T) علم النفس وعلماء النفس (T) تنظيم وإلغاء القيود في الصناعة (T) الدعاوى والتقاضي (المدني) (T) تطبيقات الهاتف المحمول (T) الأمريكية (T) الأمريكية Assn النفسي (T) character.ai (T) لجنة التجارة الفيدرالية (T)