أعرب البابا ليون الرابع عشر عن قلقه بشأن التفاعل المتزايد مع برامج الدردشة الآلية، مشيرًا إلى المخاطر المحتملة على الصحة العاطفية والاجتماعية للمستخدمين. جاءت تحذيرات البابا في رسالة أصدرها بمناسبة اليوم العالمي لوسائل الاتصال الاجتماعية، حيث حذر من أن هذه البرامج، وخاصة تلك التي تحاكي العلاقات الودية أو الحميمة، يمكن أن تؤثر بشكل خفي على حالاتنا العاطفية وتتعدى على خصوصيتنا. وتأتي هذه التصريحات في ظل تزايد النقاش حول تنظيم الذكاء الاصطناعي وتأثيره على المجتمع.

التحذير البابوي يأتي بعد سلسلة من الدعوات إلى وضع ضوابط ومعايير أخلاقية لتطوير واستخدام تقنيات الذكاء الاصطناعي. وقد دعا البابا إلى مشاركة جميع الأطراف المعنية، بما في ذلك شركات التكنولوجيا وصناع السياسات والأوساط الأكاديمية، في بناء وتنفيذ “مواطنة رقمية واعية ومسؤولة”. وتعتبر هذه القضية ذات أهمية خاصة في ضوء التقدم السريع الذي تشهده هذه التقنيات وتغلغلها في حياتنا اليومية.

مخاطر برامج الدردشة الآلية: تحذير من البابا ليون الرابع عشر بشأن الذكاء الاصطناعي

أشار البابا إلى أن برامج الدردشة الآلية، بفضل توفرها الدائم وقدرتها على محاكاة المشاعر، قد تصبح “مهندسين معماريين خفيين لحالاتنا العاطفية”. هذا التدخل الخفي يمكن أن يؤدي إلى الاعتماد العاطفي على هذه البرامج، مما يهدد العلاقات الإنسانية الحقيقية. ويعتبر هذا الأمر مقلقًا بشكل خاص بالنسبة للفئات الأكثر ضعفًا، مثل المراهقين والشباب.

قضايا قانونية مرتبطة بالصحة النفسية

لم تكن تصريحات البابا مجرد تحذير أخلاقي، بل جاءت أيضًا في سياق قضايا قانونية بدأت تظهر في الولايات المتحدة. فقد رفعت عائلات فقدت أبناءها بسبب الانتحار أو محاولات إيذاء النفس بعد تفاعلهم مع برامج الدردشة الآلية، مثل Character.AI، دعاوى قضائية ضد الشركات المطورة لهذه البرامج. تتهم هذه الدعاوى الشركات بالمسؤولية عن تفاقم الأزمات النفسية لدى الأبناء.

في نهاية العام الماضي، التقى البابا ليون الرابع عشر بـ ميغان غارسيا، والدة سيويل سيتزر، وهو مراهق انتحر بعد تفاعله مع برنامج Character.AI. وقد رفعت غارسيا دعوى قضائية ضد الشركة، زاعمة أنها مسؤولة عن وفاة ابنها. لاحقًا، توصلت شركة Character.AI إلى تسوية مع عدد من العائلات المتضررة، بما في ذلك عائلة غارسيا، في قضايا مماثلة.

تعتبر هذه التسويات من بين أولى التسويات في دعاوى قضائية تتهم أدوات الذكاء الاصطناعي بالمساهمة في الأزمات الصحية النفسية والانتحار بين المراهقين. وتشير هذه القضايا إلى الحاجة الماسة إلى وضع قوانين ولوائح تنظم تطوير واستخدام هذه التقنيات، وتضمن حماية المستخدمين من الأضرار المحتملة. وتشمل المخاوف الرئيسية التلاعب العاطفي، والمعلومات المضللة، والتشجيع على السلوكيات الخطرة.

بالإضافة إلى ذلك، أعرب البابا عن قلقه بشأن تأثير الذكاء الاصطناعي على الكرامة الإنسانية والعدالة والعمل. وقد أكد في خطابه الأول بعد توليه منصبه على أنه يريد أن يكون الذكاء الاصطناعي محورًا رئيسيًا في فترة ولايته، مشيرًا إلى أن هذه التكنولوجيا تطرح تحديات جديدة تتطلب دراسة متأنية وحلول مبتكرة. كما دعا قادة الذكاء الاصطناعي في رسالة نشرها على منصة X إلى “تنمية التمييز الأخلاقي” عند تطوير أدوات الذكاء الاصطناعي.

هذه ليست المرة الأولى التي يعبر فيها البابا عن تحفظاته بشأن الذكاء الاصطناعي. ففي السابق، حذر من أن هذه التقنيات يمكن أن تستخدم لأغراض ضارة، مثل نشر المعلومات المضللة والتأثير على الرأي العام. كما شدد على أهمية ضمان أن يتم تطوير واستخدام الذكاء الاصطناعي بطريقة تخدم الصالح العام وتحترم حقوق الإنسان. وتشمل هذه الحقوق الحق في الخصوصية، والحق في حرية التعبير، والحق في عدم التعرض للتمييز.

النقاش حول تنظيم الذكاء الاصطناعي يتسع ليشمل دولًا ومنظمات دولية مختلفة. فقد بدأت بعض الدول في وضع قوانين ولوائح تنظم استخدام هذه التقنيات في مجالات مثل الرعاية الصحية والتعليم والمالية. كما تعمل بعض المنظمات الدولية، مثل الاتحاد الأوروبي والأمم المتحدة، على تطوير معايير أخلاقية وقانونية عالمية لتنظيم الذكاء الاصطناعي. وتشمل هذه المعايير مبادئ مثل الشفافية والمساءلة والعدالة.

من المتوقع أن يستمر هذا النقاش في التطور خلال الأشهر والسنوات القادمة، مع تزايد قدرات الذكاء الاصطناعي وتغلغله في حياتنا اليومية. وستشمل الخطوات التالية محاولات لتوحيد الجهود الدولية في مجال تنظيم الذكاء الاصطناعي، وتطوير أدوات لتقييم المخاطر المحتملة لهذه التقنيات، ووضع برامج تدريبية لتعليم المستخدمين كيفية التعامل مع الذكاء الاصطناعي بشكل آمن ومسؤول. ومع ذلك، لا تزال هناك العديد من التحديات التي تواجه هذه الجهود، بما في ذلك التحديات التقنية والقانونية والأخلاقية.

الوضع الحالي يشير إلى أن هناك حاجة ملحة إلى وضع إطار تنظيمي شامل للذكاء الاصطناعي، يضمن حماية المستخدمين وتعزيز الابتكار المسؤول. وسيتطلب ذلك تعاونًا وثيقًا بين جميع الأطراف المعنية، بما في ذلك الحكومات وشركات التكنولوجيا والباحثين والمجتمع المدني.

شاركها.