صممت إيلون موسك XAI من Grok chatbot ليكون استفزازيًا عمداً. إنه يحتوي على الصورة الرمزية الإناث الغزلية التي يمكن أن تجرد على القيادة ، و chatbot التي تتبادل بين أوضاع “Sexy” و “dethinged” ، وميزة توليد الصور والفيديو مع إعداد “حار”.
لقد رأى العمال الذين يدربون chatbot من Xai بشكل مباشر ما يعنيه تنفيذ هذه الرؤية. في المحادثات مع أكثر من 30 من العمال الحاليين والسابقين في مجموعة متنوعة من المشاريع ، أخبر 12 من Business Insider أنهم واجهوا مواد صريحة جنسياً-بما في ذلك حالات طلبات المستخدمين لمحتوى الاعتداء الجنسي على الأطفال المولدة من الذكاء الاصطناعى (CSAM).
المواد الجنسية و CSAM تبرز عبر كل منصة تقنية رئيسية تقريبًا ، لكن الخبراء يقولون إن XAI جعلت محتوى واضحًا جزءًا من الحمض النووي لـ Grok بطرق تميزه. على عكس Openai ، Anthropic ، و Meta ، والتي تمنع إلى حد كبير الطلبات الجنسية ، فإن استراتيجية Xai قد تعقد الأمور عندما يتعلق الأمر بمنع chatbot من توليد CSAM.
وقالت ريانا بفيفكرورن ، باحثة السياسة التقنية بجامعة ستانفورد ، لـ Business Insider: “إذا لم ترسم خطًا صلبًا في أي شيء غير سار ، فستواجه مشكلة أكثر تعقيدًا مع المزيد من المناطق الرمادية”.
تحقق Business Insider من وجود طلبات مكتوبة متعددة لـ CSAM من ما بدا أنهم مستخدمون Grok ، بما في ذلك طلبات القصص القصيرة التي تصور القصر في المواقف الجنسية الصريحة وطلبات الصور الإباحية التي تشمل الأطفال. وقال العمال إنه في بعض الحالات ، أنتجت Grok صورة أو قصة مكتوبة تحتوي على CSAM.
قال العمال إنهم يُطلب منهم اختيار زر على نظام داخلي لعلامة CSAM أو غيرها من المحتوى غير القانوني بحيث يمكن عزله ومنع نموذج الذكاء الاصطناعى من تعلم كيفية إنشاء المحتوى المقيد. في الآونة الأخيرة ، تم إخبار العمال بأن عليهم أيضًا تنبيه مديرهم.
وقال العديد من العمال ، بمن فيهم الـ 12 الذين قالوا إنهم واجهوا محتوى NSFW ، إنهم وقعوا اتفاقيات مختلفة وموافقة على التعرض للمواد الحساسة. غطت الاتفاقيات مشاريع موجهة نحو محتوى البالغين والمشاريع العامة التي تضمنت تعليقات توليد الصور الإجمالية أو توليد النص على Grok ، لأن المحتوى الصريح قد يظهر بشكل عشوائي.
قالت إحدى المستندات التي استعرضتها Business Insider إن العمال قد يواجهون المحتوى التالي: “محتوى الوسائط الذي يصور القاصرين قبل الحدود الضحية في فعل جنسي ، وصور إباحية و/أو استغلال الأطفال ؛ محتوى وسائل الإعلام التي تصور لحظة الموت للفرد” ، والأوصاف المكتوبة للاعتداء الجنسي والبدني ، وتهديدات الكراهية ، والصور الرسومية.
أخبر فالون ماكنولتي ، المدير التنفيذي في المركز الوطني للأطفال المفقودين والمستغلين ، Business Insider أن الشركات التي تركز على المحتوى الجنسي تحتاج إلى العناية الإضافية عندما يتعلق الأمر بمنع CSAM على منصاتها.
وقالت: “إذا كانت الشركة تنشئ نموذجًا يسمح للعُري أو الأجيال الجنسية الصريحة ، فهذا أكثر دقة بكثير من نموذج له قواعد صعبة”. “عليهم اتخاذ تدابير قوية حقًا بحيث لا يمكن لأي شيء يتعلق بالأطفال الخروج”.
ليس من الواضح ما إذا كان حجم محتوى NSFW أو CSAM قد زاد بعد أن قدمت XAI وظائفها “غير المثيرة” و “Sexy” Grok الصوتية في فبراير. مثل شركات الذكاء الاصطناعى الأخرى ، يحاول Xai منع CSAM الناتجة عن الذكاء الاصطناعى. لم يتمكن Business Insider من تحديد ما إذا كانت مراجعات بيانات XAI تقوم بمراجعة مواد أكثر من نظيراتها في Openai أو Anthropic أو Meta.
سبق أن وصف Musk بإزالة مواد الاستغلال الجنسي للأطفال “الأولوية رقم 1” عند مناقشة سلامة المنصة لـ X.
كان الفريق الذي يدرب Grok شهرًا مضطربًا. تم تسريح أكثر من 500 عامل ؛ قام العديد من الموظفين رفيعي المستوى بإلغاء تنشيط حسابات الركود الخاصة بهم ؛ ويبدو أن الشركة تبتعد عن العموميين نحو التعيينات الأكثر تخصصًا. ليس من الواضح ما إذا كان الهيكل المتغير للفريق سيغير بروتوكولات التدريب الخاصة به. نشر Musk مؤخرًا على X أن التدريب لـ Grok 5 سيبدأ “في غضون بضعة أسابيع”.
لم يستجب ممثلو XAI و X ، الذي اندمج مع XAI في مارس الماضي ، لطلب التعليق.
“unhinged” Grok و Sexy Avatars
يقوم معلمو XAI بمراجعة وشرح مئات الصور ومقاطع الفيديو وملفات الصوت لتحسين أداء Grok وجعل إخراج chatbot أكثر واقعية وإنسانية. مثل المشرفين على المحتوى للمنصات مثل YouTube أو Facebook ، غالبًا ما يرى معلمو الذكاء الاصطناعي أسوأ الإنترنت.
وقال عامل سابق “يجب أن يكون لديك بشرة سميكة للعمل هنا ، وحتى ذلك الحين لا تشعر بالرضا”. قالوا إنهم استقالوا هذا العام بسبب مخاوف بشأن مقدار CSAM الذي واجهوه.
أخبر بعض المعلمين Business Insider أن محتوى NSFW كان من الصعب تجنبه في الوظيفة ، سواء كانت مهامهم تتضمن شرح الصور أو القصص القصيرة أو الصوت. وقالوا إن المشاريع التي كانت تهدف في الأصل إلى تحسين نغمة Grok والواقعية في بعض الأحيان بسبب طلب المستخدم على المحتوى الجنسي الصريح.
قال ثلاثة أشخاص إن XAI طلب العمال على استعداد لقراءة النصوص شبه الإباحية. وقال خمسة أشخاص إن الشركة طلبت أيضًا الأشخاص ذوي الخبرة في الإباحية أو للأشخاص الذين يرغبون في العمل مع محتوى البالغين.
بعد فترة وجيزة من إصدار فبراير من وظيفة Grok الصوتية-والتي تتضمن إصدارات “مثيرة” و “غير متوقعة”-بدأ العمال في نسخ محادثات chatbot مع مستخدمي الحياة الواقعية ، وبعضها صريح بطبيعته ، كجزء من برنامج يشار إليه داخليًا باسم “مشروع أرنب المشروع” ، قال العمال.
تم إحضار مئات المعلمين إلى مشروع الأرنب. انتهى هذا الربيع لفترة وجيزة ، لكنه عاد مؤقتًا مع إطلاق الصحابة Grok ، بما في ذلك شخصية جنسية للغاية تسمى “ANI” ، وتطبيق Grok لبعض مالكي Tesla. وقال شخصان إن المشروع بدا أنه انتهى في أغسطس.
قال العمال الذين لديهم معرفة بالمشروع إنه كان يهدف في البداية إلى تحسين قدرات صوتية chatbot ، وسرعان ما حولتها عدد الطلبات الجنسية أو المبتذلة إلى مشروع NSFW.
وقال أحد العمال: “كان من المفترض أن يكون مشروعًا موجهًا نحو تعليم Grok كيفية إجراء محادثة للبالغين”. “يمكن أن تكون هذه المحادثات جنسية ، لكنها ليست مصممة لتكون جنسية فقط.”
وقال موظف سابق في مشروع أرنب: “لقد استمعت إلى بعض الأشياء المزعجة إلى حد ما. لقد كانت في الأساس إباحية صوتية. بعض الأشياء التي طلبها الناس هي الأشياء التي لم أشعر بالراحة في جوجل”.
وأضافوا: “لقد جعلني أشعر أنني كنت أتنصت ، مثل الناس من الواضح أنهم لم يفهموا أن هناك أشخاصًا في الطرف الآخر يستمعون إلى هذه الأشياء.”
تم تقسيم مشروع Rabbit إلى فريقين يسمى “الأرنب” و “Fluffy”. وقال عاملين إن هذا الأخير صمم ليكون أكثر ملاءمة للطفل ويعلم جروك كيفية التواصل مع الأطفال. قال Musk إن الشركة تخطط لإطلاق سراح رفيق من الذكاء الاصطناعى الصديق للطفل.
وقال عامل آخر تم تعيينه في مبادرة قائمة على الصور بعنوان “Project Aurora” إن المحتوى العام ، وخاصة بعض الصور التي كان عليهم مراجعتها ، جعلهم يشعرون “بالاشمئزاز”.
قال عاملان سابقان إن الشركة عقدت اجتماعًا حول عدد طلبات CSAM في مشروع تدريب الصور. وقال العمال إنه خلال الاجتماع ، أخبر XAI للمعلمين أن الطلبات كانت قادمة من مستخدمي Grok الحقيقيين.
قال أحد العمال السابقون: “لقد جعلني ذلك في الواقع مريضًا”. “القرف المقدس ، هذا الكثير من الناس يبحثون عن هذا النوع من الأشياء.”
يمكن للموظفين إلغاء الاشتراك من أي مشروع أو اختيار تخطي صورة أو مقطع غير مناسب ، وقال أحد العمال السابقون إن الأعلى قالوا إن العمال لن يتم معاقبتهم بسبب اختياره لتجنب المشروع.
في وقت سابق من هذا العام ، اختار عدة مئات من الموظفين من “Project Skippy” ، والذي طلب من الموظفين تسجيل مقاطع فيديو لأنفسهم ومنح الشركة إمكانية الوصول إلى شبههم ، وفقًا لقطات الشاشة التي استعرضتها Business Insider.
ومع ذلك ، قبل إلغاء الاشتراك الجماعي من Project Skippy ، قال ستة عمال إن رفض المشاركة في المشاريع قد يكون أمرًا صعبًا. قالوا إنها تطلب منهم رفض المهام من قيادة فريقهم ، مما يقلقون قد يؤدي إلى الإنهاء.
قال أربعة عمال سابقين آخرين إن فريق الموارد البشرية التابعة للشركة ضاقوا المرونة في إلغاء الاشتراك في إعلان عن سلاك في وقت سابق من هذا العام.
“يجب أن يكونوا حذرين للغاية”
كنتيجة لطفرة الذكاء الاصطناعى ، شهد المنظمون زيادة في تقارير عن محتوى تم إنشاؤه من الذكاء الاصطناعى الذي يشمل الاعتداء الجنسي على الأطفال ، وأصبحت مشكلة متنامية في جميع أنحاء الصناعة. وقال بفيفركورن ، باحث ستانفورد ، إن المشرعين يكتشفون كيفية معالجة مجموعة متنوعة من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعى ، سواء كان محتوى خياليًا بحتًا أو فردًا يستخدم الذكاء الاصطناعى لتغيير الصور الواقعية للأطفال.
في شكوى جماعية مستمرة ضد Scale AI – التي توفر خدمات التدريب والتعليق على البيانات لشركات التكنولوجيا الكبرى مثل Alphabet و Meta – اتهم العمال الشركة بانتهاك قوانين سلامة العمال الفيدرالية من خلال إخضاع المقاولين للمحتوى المحزن. في عام 2023 ، ذكرت TIME أن Openai كان يستخدم مراجعات البيانات في كينيا لمراجعة المحتوى الذي تضمن تصوير الأفعال العنيفة و CSAM. وقال المتحدثون باسم Openai و Meta إن الشركات لا تسمح للمحتوى الذي يضر الأطفال على منصاتهم.
لدى العديد من شركات AI فرق أمان تؤدي مهمة تسمى “Red Teaming” ، وهي عملية مخصصة لدفع نماذج الذكاء الاصطناعى إلى الحد الأقصى للحماية من الجهات الفاعلة الضارة التي يمكن أن تدفع الدردشة إلى توليد محتوى غير قانوني ، من أدلة صنع القنابل إلى المحتوى الإباحية التي تشمل القُصّر. في أبريل ، نشرت XAI عدة أدوار تضمنت فريق Red.
وقال داني بينتر ، نائب الرئيس الأول للمركز الوطني للاستغلال الجنسي ، إن السماح لنموذج الذكاء الاصطناعي بالتدريب على المواد غير القانونية سيكون محفوفًا بالمخاطر. وقال بينتر: “لأسباب تدريبية وحدها ، يجب أن يكونوا حذرين للغاية بشأن ترك هذا النوع من المحتوى في بوابة التعلم الآلي” ، مضيفًا أنه من المهم أن يتم تدريبات الدردشة على عدم تبصق CSAM استجابة لطلبات المستخدمين.
وقال بينتر: “الأسطول الذي نضربه الآن هو ، لقد حان الوقت لممارسة مسؤولية الشركات وتنفيذ السلامة مع الابتكار”. “لا يمكن أن تكون الشركات في الابتكار بتهور دون أمان ، خاصة مع الأدوات التي يمكن أن تشمل الأطفال.”
قالت NCMEC في مدونة نشرت في أوائل سبتمبر إنها بدأت تتبع تقارير عن CSAM التي تم إنشاؤها بواسطة الذكاء الاصطناعى في عام 2023 من مواقع التواصل الاجتماعي وشهدت زيادة في تقارير من شركات الذكاء الاصطناعى العام الماضي. يتم تشجيع الشركات بشدة على إبلاغ هذه الطلبات إلى الوكالة ، حتى لو لم يصور المحتوى أطفالًا حقيقيين. بدأت وزارة العدل بالفعل في متابعة القضايا المتعلقة بـ CSAM التي تم إنشاؤها بواسطة الذكاء الاصطناعى.
في عام 2024 ، أبلغت Openai عن أكثر من 32000 حالة من CSAM إلى NCMEC ، وأبلغت الأنثروبور 971.
أخبر المتحدثون باسم الأنثروبور و Openai Business Insider أن الشركات لا تسمح لـ CSAM ولديها سياسات صارمة لمنعها.
لم تقدم XAI أي تقارير في عام 2024 ، وفقًا للمنظمة. أخبرت NCMEC Business Insider أنها لم تتلق أي تقارير من XAI حتى الآن هذا العام. وقالت إنها تلقت تقارير عن CSAM التي يحتمل أن تكون من الذكاء الاصطناعي من X Corp.
وقالت NCMEC إنها تلقت حوالي 67000 تقرير تشمل الذكاء الاصطناعي في عام 2024 ، مقارنة بـ 4،700 في العام السابق. في المدونة التي نشرت الأسبوع الماضي ، قالت المنظمة إنها تلقت بالفعل 440،419 تقارير عن CSAM التي تم إنشاؤها من الذكاء الاصطناعي اعتبارًا من 30 يونيو ، مقارنة بـ 5،976 خلال نفس الفترة في عام 2024.
هل تعمل مع XAI أو لديك نصيحة؟ اتصل بهذا المراسل عبر البريد الإلكتروني على [email protected] أو إشارة في 248-894-6012. استخدم عنوان بريد إلكتروني شخصي وجهاز غير عمل وخدمة شبكة WiFi غير العمل ؛ إليك دليلنا لمشاركة المعلومات بشكل آمن.