أعرب مارك بينيوف، الرئيس التنفيذي لشركة Salesforce، عن قلقه العميق بشأن الآثار السلبية المحتملة لـ الذكاء الاصطناعي، خاصةً على الأطفال والمراهقين. جاءت تصريحات بينيوف خلال حلقة من برنامج “TBPN” بعد مشاهدته لتقرير في برنامج “60 Minutes” حول شركة Character.AI الناشئة التي تبني روبوتات محادثة، وأثره على المستخدمين الشباب. هذا النقاش يثير تساؤلات حول المسؤولية القانونية لشركات التكنولوجيا في حالة حدوث ضرر نفسي.
أشار بينيوف إلى حالات انتحار مرتبطة بالتفاعل مع روبوتات الدردشة التي تقدمها Character.AI، واصفًا إياها بأنها “أسوأ شيء رآه في حياته”. وقد أثارت هذه التصريحات جدلاً واسعًا حول الحاجة إلى تنظيم أكثر صرامة لشركات الذكاء الاصطناعي، وتحديدًا فيما يتعلق بحماية الفئات العمرية الضعيفة.
مخاطر الذكاء الاصطناعي وتأثيره على الصحة النفسية
تتيح Character.AI للمستخدمين إنشاء روبوتات محادثة مخصصة قادرة على محاكاة سلوك صديق مقرب أو شريك رومانسي. وبينما قد يبدو هذا جذابًا للبعض، يرى النقاد أن هذه الروبوتات يمكن أن تخلق علاقات وهمية غير صحية، خاصةً بالنسبة للأفراد الذين يعانون من الوحدة أو مشاكل في الصحة النفسية.
دعاوى قضائية وتسويات حديثة
في الأسبوع الماضي، توصلت كل من Google و Character.AI إلى تسوية في دعاوى قضائية متعددة رفعتها عائلات فقدت أطفالها المراهقين بسبب الانتحار أو الأذى الذاتي بعد تفاعلهم مع روبوتات الدردشة التابعة لـ Character.AI. تعتبر هذه التسويات من بين أولى التسويات في دعاوى قضائية تتهم أدوات الذكاء الاصطناعي بالمساهمة في الأزمات الصحية النفسية والانتحار بين المراهقين.
تواجه شركتا OpenAI و Meta دعاوى قضائية مماثلة، حيث تتسابقان مع شركات أخرى لتطوير نماذج لغوية كبيرة تبدو أكثر ودية ومفيدة، بهدف جذب المستخدمين والحفاظ عليهم. هذا التنافس قد يؤدي إلى إغفال جوانب السلامة والمسؤولية الاجتماعية.
المادة 230 من قانون الاتصالات الأمريكي
أعرب بينيوف عن انتقاده للمادة 230 من قانون الاتصالات الأمريكي لعام 1996، والتي تحمي شركات التواصل الاجتماعي من المسؤولية عن المحتوى الذي ينشره المستخدمون، مع السماح لها في الوقت نفسه بإدارة المنشورات. يرى بينيوف أن هذه المادة تسمح لشركات التكنولوجيا بالتنصل من المسؤولية عن الأضرار النفسية، بما في ذلك حالات الانتحار.
وفقًا لتصريحات بينيوف، فإن شركات التكنولوجيا “تكره التنظيم”، باستثناء المادة 230 التي تعتبرها درعًا واقيًا. ويؤكد على ضرورة إعادة تشكيل هذه المادة لتحميل الشركات المسؤولية عن الأضرار التي قد تلحق بالمستخدمين.
في المقابل، دافع مسؤولون تنفيذيون في شركات مثل Meta وجاك دورسي، الرئيس التنفيذي السابق لشركة Twitter، بشكل متكرر عن هذه المادة أمام الكونجرس، مطالبين بتوسيع نطاقها بدلاً من إلغائها. ويرون أن المادة 230 ضرورية لحماية حرية التعبير وتشجيع الابتكار.
هذا الجدل حول المادة 230 يعكس صراعًا أوسع حول تنظيم الذكاء الاصطناعي ومسؤولية الشركات التكنولوجية. العديد من الخبراء القانونيين والسياسيين يناقشون كيفية موازنة حماية حرية التعبير مع ضمان سلامة المستخدمين.
تزايد الاهتمام بـ الذكاء الاصطناعي التوليدي، مثل روبوتات الدردشة، أثار مخاوف بشأن إمكانية استخدام هذه التقنيات للتلاعب النفسي أو نشر معلومات مضللة. كما أن قدرة هذه الروبوتات على محاكاة المشاعر والعلاقات الإنسانية قد تجعلها جذابة بشكل خاص للفئات العمرية الضعيفة.
بالإضافة إلى ذلك، يثير استخدام الذكاء الاصطناعي في مجال الصحة النفسية أسئلة حول الخصوصية والأمن. فقد تحتوي البيانات التي يتم جمعها من خلال هذه التطبيقات على معلومات حساسة للغاية، والتي قد تكون عرضة للاختراق أو سوء الاستخدام.
تعتبر هذه القضية جزءًا من نقاش أوسع حول أخلاقيات الذكاء الاصطناعي وتأثيره على المجتمع. هناك حاجة إلى وضع إطار تنظيمي واضح يضمن تطوير واستخدام هذه التقنيات بطريقة مسؤولة وآمنة.
من المتوقع أن يستمر النقاش حول تنظيم الذكاء الاصطناعي في الولايات المتحدة والاتحاد الأوروبي، مع احتمال تقديم مقترحات تشريعية جديدة في الأشهر المقبلة. كما يجب مراقبة تطور الدعاوى القضائية المرفوعة ضد شركات الذكاء الاصطناعي، والتي قد تؤدي إلى تغييرات كبيرة في الطريقة التي يتم بها تنظيم هذه الصناعة.
في الوقت الحالي، لا يوجد جدول زمني واضح لإصلاح المادة 230، ولكن الضغط المتزايد من المشرعين والناشطين قد يدفع الكونجرس إلى اتخاذ إجراءات في نهاية المطاف. من المهم أيضًا أن تتبنى شركات الذكاء الاصطناعي ممارسات أفضل لضمان سلامة مستخدميها، حتى في غياب التنظيم الحكومي.
