أعطى فريق من الباحثين منظمة العفو الدولية روبوتات منظمة العفو الدولية الخاصة بهم – وتحول إلى سامة.

انقسمت الدردشة إلى الزمر وتعزيز أكثر الأصوات الحزبية. كما سيطرت دراسة على هذه المحادثة ، وهي حفنة من “المؤثرين” بسرعة ، وفقًا لدراسة نشرتها الباحثون في جامعة أمستردام يوم الثلاثاء الماضي.

قام الباحثون ببناء شبكة اجتماعية قليلة بدون إعلانات ، ولا منشورات موصى بها ، ولا توجد خوارزمية تقرر ما يراه المستخدمون. ثم قاموا بالسكان مع 500 chatbots مدعوم من GPT-4O Mini من Openai ، كل منهم تعيين شخصية متميزة ، بما في ذلك ميول سياسية محددة.

وقال الباحثون إن الشخصيات تم استخلاصها من مجموعة بيانات دراسات الانتخابات الوطنية الأمريكية ، وعكست “توزيعات العمر الحقيقية للعمر والجنس والدخل والتعليم والحزبية والأيديولوجية والدين والمصالح الشخصية”.

وأضافوا أن التجربة تم تكرارها باستخدام نمذجة المستخدمين LAMA-3.2-8B و DEEPSEEK-R1 وأدت إلى “نفس الأنماط النوعية”.

قاد الدراسة الدكتور بيتر تورنبرغ ، أستاذ مساعد في العلوم الاجتماعية الحسابية بجامعة أمستردام ، وميك لارويج ، مهندس أبحاث في الجامعة.

لم يستجب الباحثون ، Openai ، Meta ، و Deepseek ، لطلب التعليق من Business Insider.

حتى بدون الخوارزميات والبشر ، ظهرت نفس الأنماط السامة

على مدار خمس تجارب منفصلة – كل منها تزيد عن 10000 إجراء – كانت الروبوتات حرة في نشر ومتابعة وإعادة النشر. ما حدث يشبه إلى حد كبير وسائل التواصل الاجتماعي في العالم الحقيقي.

وجدت الدراسة أن الدردشة تنجذب نحو الآخرين الذين شاركوا معتقداتهم السياسية ، وتشكل غرف صدى ضيقة. اكتسبت الأصوات الحزبية حصة كبيرة من الاهتمام ، مع أكثر المشاركات تطرفًا تجذب معظم المتابعين وإعادة النشر. بمرور الوقت ، جاءت مجموعة صغيرة من الروبوتات للسيطرة على المحادثة ، مثل ديناميات المؤثر الثقيلة التي شوهدت على منصات مثل X و Instagram.

اختبر الباحثون أيضًا ستة تدخلات تهدف إلى كسر حلقة الاستقطاب ، بما في ذلك التغذية الزمنية ، والمحتوى الفيروسي المتقلص ، وإخفاء عدد الأتباع ، وإخفاء السيرة الذاتية للمستخدم ، وتضخيم وجهات النظر المعارضة.

لا شيء يحل المشكلة. وقال الباحثون: “في حين أظهر العديد من الآثار الإيجابية المعتدلة ، لم يتناول أي منهم الأمراض الأساسية بالكامل ، وغالبًا ما كانت التحسينات في البعد غالباً ما تكون على حساب تفاقم آخر”.

وكتب المؤلفون: “تتحدى النتائج التي توصلنا إليها وجهة نظر مشتركة مفادها أن اختلافات وسائل التواصل الاجتماعي هي في المقام الأول نتيجة للترتيب الخوارزمي”.

وأضافوا “بدلاً من ذلك ، قد تكون هذه المشكلات متجذرة في بنية منصات التواصل الاجتماعي: الشبكات التي تنمو من خلال المشاركة التفاعلية العاطفية”.

وقال الباحثون إن عملهم من بين أول من استخدم الذكاء الاصطناعي للمساعدة في تقدم نظرية العلوم الاجتماعية.

في حين أن العوامل المستندة إلى LLM يمكن أن توفر “تمثيلات غنية للسلوك البشري” لدراسة الديناميات الاجتماعية ، حذر الباحثون من أنهم يظلون “صناديق سوداء” ويحملون “مخاطر التحيز المدمج”.

ليست أول تجربة شبكة اجتماعية منظمة العفو الدولية

ليست الدراسة هي المرة الأولى التي يختبر فيها الباحثون ما يحدث عندما تملأ روبوتات AI مساحة عبر الإنترنت.

في عام 2023 ، أبلغت شركة Business Insider عن تجربة بقيادة Törnberg ، حيث قرأ 500 Chatbots الأخبار وناقشتها على منصة وسائط اجتماعية محاكاة.

استخدم هذا المشروع chatgpt-3.5 لبناء روبوتات لغرض محدد للغاية: لاستكشاف كيفية تصميم نسخة أقل استقطابًا وأقل سمية من الشبكات الاجتماعية الحالية. أنشأ الباحثون نموذج شبكة اجتماعية في مختبر لاختبار ما إذا كان من الممكن تشجيع التفاعل عبر الحزبية دون تأجيج العداء.

“هل هناك طريقة لتعزيز التفاعل عبر الفجوة الحزبية دون قيادة السمية ودمجها؟” طلب تورنبرغ في ذلك الوقت.

في كلتا الدراستين ، كان chatbots بمثابة قائمة بذاتها للأشخاص ، حيث يتتبع الباحثون تفاعلاتهم لفهم أفضل لكيفية تصرف المستخدمين عبر الإنترنت.

لقد اختبرت شركة Big Tech مقاربات مماثلة.

في يوليو 2020 ، قدم Facebook محاكاة مسورة لنفسها ، مليئة بملايين الروبوتات من الذكاء الاصطناعي ، لدراسة سمية عبر الإنترنت.

شاركها.