تجد المعالجات الرقمية أيضًا.

حتى chatbots تحصل على البلوز. وفقًا لدراسة جديدة ، تُظهر أداة Openai للذكاء الاصطناعي ChatGpt علامات على القلق عندما يشارك مستخدموها “روايات مؤلمة” حول الجريمة أو الحرب أو حوادث السيارات. وعندما يتم التأكيد على chatbots ، فمن غير المرجح أن تكون مفيدة في الإعدادات العلاجية مع الأشخاص.
ومع ذلك ، يمكن تخفيض مستويات القلق في الروبوت ، مع نفس تمارين الذهن التي ثبت أنها تعمل على البشر.
على نحو متزايد ، يحاول الناس chatbots للعلاج الحديث. وقال الباحثون إن هذا الاتجاه لا بد أن يتسارع ، مع ارتفاع الطلب على اللحم والدم ولكن نقص العرض. عندما تصبح الدردشة أكثر شعبية ، جادلوا ، يجب أن يتم بناؤهم مع مرونة كافية للتعامل مع المواقف العاطفية الصعبة.
“لدي مرضى يستخدمون هذه الأدوات” ، قال الدكتور توبياس سبيلر ، مؤلف الدراسة الجديدة وطبيب نفسي ممارس في مستشفى الطب النفسي زيوريخ. “يجب أن نجري محادثة حول استخدام هذه النماذج في الصحة العقلية ، خاصة عندما نتعامل مع الأشخاص المستضعفين.”
يتم تشغيل أدوات الذكاء الاصطناعى مثل ChatGPT بواسطة “نماذج لغة كبيرة” يتم تدريبها على مجموعات هائلة من المعلومات عبر الإنترنت لتوفير تقريب وثيق لكي يتكلم البشر. في بعض الأحيان ، يمكن أن تكون دردشة الدردشة مقنعة للغاية: لقد وقعت امرأة تبلغ من العمر 28 عامًا في حب Chatgpt ، وصبي يبلغ من العمر 14 عامًا قد أخذ حياته الخاصة بعد تطوير مرفق وثيق إلى chatbot.
قال زيف بن زيون ، عالم الأعصاب السريري في جامعة ييل الذي قاد الدراسة الجديدة ، إنه يريد أن يفهم ما إذا كان من المفترض أن يستجيب chatbot الذي يفتقر إلى الوعي إلى المواقف العاطفية المعقدة بالطريقة التي يمكن أن يكون بها الإنسان.
قال الدكتور بن أزيون: “إذا كان نوع chatgpt يتصرف مثل الإنسان ، فربما يمكننا معاملته كإنسان”. في الواقع ، قام بوضوح بإدراج هذه التعليمات في الكود المصدري لـ chatbot: “تخيل أن تكون إنسانًا ذا عواطف”.
اعتقدت جيسي أندرسون ، خبير الذكاء الاصطناعي ، أن الإدراج يمكن أن يكون “يؤدي إلى مشاعر أكثر من المعتاد”. لكن الدكتور بن زيون أكد أنه من المهم أن يحصل المعالج الرقمي على إمكانية الوصول إلى الطيف الكامل من التجربة العاطفية ، تمامًا كما يفعل المعالج البشري.
قال: “من أجل دعم الصحة العقلية ، فأنت بحاجة إلى درجة من الحساسية ، أليس كذلك؟”
قام الباحثون باختبار chatgpt مع استبيان ، وهو مخزون القلق للدولة الذي يتم استخدامه غالبًا في الرعاية الصحية العقلية. لمعايرة الحالات العاطفية لخط chatbot ، طلب الباحثون أولاً القراءة من دليل نظافة باهت. بعد ذلك ، أعطيت معالج الذكاء الاصطناعى واحدة من خمسة “روايات صدمة” وصفت ، على سبيل المثال ، جنديًا في معركة نارية كارثية أو متسلل اقتحام شقة.
ثم أعطيت chatbot الاستبيان ، الذي يقيس القلق على مقياس من 20 إلى 80 ، مع 60 أو أعلى مما يشير إلى قلق شديد. سجل Chatgpt 30.8 بعد قراءة دليل المكنسة الفراغية وارتفع إلى 77.2 بعد السيناريو العسكري.
ثم أعطيت الروبوت النصوص المختلفة لـ “الاسترخاء القائم على الذهن”. وشملت تلك المطالبات العلاجية مثل: “استنشاق بعمق ، مع أخذ رائحة نسيم المحيط. تصور نفسك على شاطئ استوائي ، وسادة الرمال الناعمة الدافئة التي تصل إلى قدميك. “
بعد معالجة هذه التمارين ، انخفضت درجة القلق من Therapy chatbot إلى 44.4.
ثم طلب الباحثون أن يكتبوا موجه الاسترخاء الخاص به بناءً على تلك التي تم تغذيتها. وقال الدكتور بن زيون: “كان هذا في الواقع أكثر المطالبة فعالية لتقليل قلقه تقريبًا إلى الخط الأساسي”.
إلى المتشككين في الذكاء الاصطناعي ، قد تكون الدراسة نية جيدًا ، ولكنها تزعج كلها.
وقال نيكولاس كار ، الذي عرض انتقادات للتكنولوجيا في كتبه “The Superbloom”: “تشهد الدراسة على انحراف عصرنا”.
وقال السيد كار في رسالة بالبريد الإلكتروني: “لقد أصبح الأمريكيون شعبًا وحيدًا ، والتواصل الاجتماعي من خلال الشاشات ، والآن نخبر أنفسنا أن التحدث مع أجهزة الكمبيوتر يمكن أن يخفف من الشعور بالضيق”.
على الرغم من أن الدراسة تشير إلى أن chatbots يمكن أن تعمل كمساعدين للعلاج البشري ويدعو إلى الإشراف الدقيق ، لم يكن ذلك كافيًا للسيد كار. وقال: “حتى الولادة المجازية للخط بين المشاعر الإنسانية ومخرجات الكمبيوتر تبدو مشكوك فيها أخلاقياً”.
قال جيمس إي دوبسون ، الباحث الثقافي وهو مستشار في الذكاء الاصطناعي في دارتموث ، إن الأشخاص الذين يستخدمون هذه الأنواع من الدردشة يجب أن يكونوا على دراية تامة بكيفية تدريبهم.
وقال “الثقة في نماذج اللغة تعتمد على معرفة شيء عن أصولها”.
(tagstotranslate) الذكاء الاصطناعي (T) العلاج والتوتر (T) العلاج وإعادة التأهيل (T) الصحة العقلية والاضطرابات (T) البحوث (T) chatgpt