هذا الكلام الذي أجريته مع منظمة العفو الدولية عن تفكك؟ أو جلسة علاج chatbot لم تخبر أي شخص آخر؟ قد يكون الإنسان قد قرأها – وفي بعض الحالات ، يمكنهم رؤية معلوماتك الشخصية.
يستخدم Meta ، مثله مثل العديد من عمالقة التكنولوجيا ، عمال العقود لتحسين الذكاء الاصطناعي من خلال قراءة المحادثات الحقيقية بين المستخدمين و chatbots. أثناء تصنيف ومراجعة استجابات الذكاء الاصطناعى ، تقنية تدريب على الصناعة الشائعة ، يرى بعض المقاولين المعلومات الشخصية التي تتيح لهم تحديد المستخدمين الأفراد ، وقد تعلمت Business Insider.
أخبر أربعة من عمال العقود من خلال منصات التدريب Outlier (التي تملكها Scale AI) و Aleignerr Business Insider أنهم واجهوا بشكل روتيني دردشات بين المستخدمين و AI في Meta التي تحتوي على أسماء كاملة وأرقام هواتف وعناوين البريد الإلكتروني والجنس والهوايات وغيرها من التفاصيل الشخصية. قدّر أحدهم أن المعلومات التعريف الشخصية ظهرت في أكثر من نصف الآلاف من الدردشات التي قاموا بمراجعتها عادة كل أسبوع. قال اثنان من المقاولين إنهما واجهوا دردشات أرسلها المستخدمون صورة شخصية ChatBot. كان المستخدمون موجودون في جميع أنحاء العالم ، بما في ذلك الولايات المتحدة والهند.
تم وضع بعض المعلومات الشخصية التي يمكن تحديدها من قبل META إلى جانب تاريخ الدردشة لمساعدة المقاولين على تخصيص استجابة الذكاء الاصطناعى ، وفقًا لوثائق واحدة من مشاريع التعريف الثلاثة التي تمت مراجعتها من قبل Business Insider. في حالات أخرى ، كشف المستخدمون عن بياناتهم الشخصية إلى chatbot من الذكاء الاصطناعى عبر النص داخل المحادثة ، والتي تحذر سياسة خصوصية Meta المستخدمين من عدم القيام بذلك.
عمل اثنان من المقاولين الأربعة على مشاريع مماثلة لعملاء التكنولوجيا الكبار الآخرين ، وقدروا أن إدراج البيانات الشخصية غير المخزنة كان أكثر شيوعًا لمشاريع التعريف التي عملوا عليها.
وقالت مستندات المشروع ، اثنان منها قيد الاستخدام الشهر الماضي ، للمقاولين أن التفاعلات التي يقيمونها هي محادثات حقيقية بين المستخدمين و chatbot.
وصف المقاولون الذين تحدثوا إلى Business Insider العديد من المحادثات التي رأواها شخصية بعمق. وقال المقاولون إن المحادثات مع META AI اتخذت شكل جلسات تشبه العلاج ، أو المحادثات الخاصة كما لو كان التحدث إلى صديق ، أو التبادلات الحميمة مع شريك رومانسي.
كان المستخدمون ينفتحون حول تخيلاتهم ، أو المغازلة مع chatbot ، أو الصراخ عن الأشخاص والمشاكل في حياتهم ، وطلب النصيحة. قال المقاولون إن المستخدمين يتضمنون في بعض الأحيان معلومات الاتصال الخاصة بهم أو عناوين الوظائف أو المواقع أو التفاصيل حول الأطفال في هذه التبادلات.
أخبر أحد المقاولين الذين عملوا في مشروع يديره المحاكاة يسمى Omni ، والذي يهدف إلى تحسين الاحتفاظ والمشاركة في استوديو AI Meta ، Business Insider أن بعض المستخدمين كانوا يشاركون معلومات حميمة مع Chatbot ، بما في ذلك صور شخصية وصور صريحة.
تنص شروط خدمة META على أنها “قد تراجع” تفاعلات المستخدم مع الذكاء الاصطناعي ، وأن هذا قد يكون “آليًا” أو يقوم به البشر.
أخبر متحدث باسم META Business Insider أن الشركة لديها “سياسات صارمة” فيما يتعلق بمن يمكنه الوصول إلى البيانات الشخصية ، سواء للموظفين والمقاولين.
وقال المتحدث: “بينما نعمل مع المقاولين للمساعدة في تحسين جودة بيانات التدريب ، فإننا نقيد عن قصد المعلومات الشخصية التي يرونها ، ولدينا عمليات ودرابيل معمول بها في تعليمهم كيفية التعامل مع أي من هذه المعلومات التي قد يواجهونها”.
قال متحدث باسم النطاق من الذكاء الاصطناعى إن “المساهمون مخولون بمعالجة البيانات الشخصية فقط كما هو مطلوب للمشروع ،” يجب أن يلتزم بمعايير الأمان الخاصة بـ Outlier ، و “يتم توجيههم للعلامة على أي ردود تحتوي على PII وتخطي المهام مع هذا المحتوى”.
وأضاف المتحدث باسم المتحدث: “في أي وقت من الأوقات لا تترك البيانات التي أنشأها المستخدم منصة العميل”. “يتم إجراء العديد من المشاريع على منصة وضع العلامات الخاصة بالعميل ، والتي توفر ضمانات إضافية عن طريق الحفاظ على جميع البيانات التي يتم إنشاؤها بواسطة المستخدم الواردة داخل نظامهم.”
لم ترد Alignerr على طلب للتعليق.
“لا تفترض أبداً أن chatbots خاصة بطبيعتها”
وقال ميراندا بوجين ، مديرة مختبر حوكمة الذكاء الاصطناعي في مركز الديمقراطية والتكنولوجيا ، وهي مؤسسة غير ربحية تركز على الحقوق الرقمية والخصوصية ، “
تنصح Bogen المستخدمين الذين يشعرون بالقلق من الخصوصية “لا تفترض أبدًا أن Bostbots خاصة بطبيعتها ، خاصة وأن الممارسات تختلف كثيرًا في الشركات.”
وأضاف Bogen أن أدوات الذكاء الاصطناعى مثل chatbots “تستخدم بشكل مختلف تمامًا عن الأدوات الأخرى عبر الإنترنت” وأن “قد لا يدرك الناس أن محادثاتهم لا تزال تستخدم لتطوير المنتج وقد يتم الوصول إليه من قبل البشر”.
العديد من شركات التكنولوجيا ، بما في ذلك Meta و Openai و Google ، في سياسات الخصوصية الخاصة بهم والتي قد تستخدم المحادثات بين المستخدمين و AI لتدريب نماذج وضبطها.
وأضاف بوجين: “البيانات التي لا يتوقع الناس أن يراها البشر مشكلة لفترة طويلة في الصناعة”. “هذا هو مجرد الإصدار التالي. الفرق هو أن السياق يشعر أكثر حميمية للأشخاص الذين يشاركون في هذه الأدوات ، وأحيانًا للحصول على الدعم الذي قد يشعر بالعلاج ، أو حيث يقدمون معلومات سرية حول الوظيفة.”
تحديد البيانات
لم يتمكن Business Insider من تحديد عدد المرات التي واجه فيها المقاولون معلومات محددة شخصية بالضبط. ومع ذلك ، قال المقاولون الذين تحدثوا إلى Business Insider إنهم صادفوها بانتظام أثناء العمل في مشاريع META AI.
قال أحد المقاولين الذين عملوا في Project Omni إنه يمكنه إكمال ما يصل إلى 5000 مهمة تدريب منظمة العفو الدولية في الأسبوع. قيل لهم العلم ويرفضون الدردشات التي تحتوي على معلومات التعريف الشخصية. قدر المقاول أنه واجه بيانات شخصية ، مثل أرقام هواتف المستخدم أو أسماء مستخدمي Instagram ، في “60 ٪ إلى 70 ٪” منها.
يهدف مشروع منفصل مع Outlier ، يسمى PQPE ، إلى إجراء محادثات بين المستخدمين و AI Meta ، يشعر بمزيد من التخصيص من خلال الرجوع إلى الأشياء التي يعرفها عن المستخدم ، مثل الاسم الأول والجنس والموقع والهوايات. جاء كل سجل دردشة المستخدم مع قائمة بالحقائق حول المستخدم الذي من المتوقع أن يشير إليه الذكاء الاصطناعي. وقالت مستندات المشروع إن هذه الحقائق تعتمد على المحادثات السابقة بين المستخدم و AI ، و “نشاط الملف الاجتماعي الاجتماعي” للمستخدم. لهذا المشروع ، لم يتمكن المقاولون من رفض الدردشات التي تحتوي على معلومات شخصية.
وقال المتحدث الرسمي باسم Meta إنه في مشاريع تخصيص الذكاء الاصطناعى ، “يُسمح للمقاولين في سياق عملهم بالوصول إلى معلومات شخصية معينة” ، طالما أنها تتماشى مع سياسات خصوصية Meta وشروط الذكاء الاصطناعي.
في بعض الحالات ، قد يواجه المقاولون معلومات شخصية مطلوبة للمهمة ، مثل بيانات الموقع ، إذا طلب المستخدم المساعدة في العثور على مقهى قريب.
وأضاف المقاول أنه يمكن لشخص ما أن يجد هوية المستخدم الحقيقية إذا جمع عدد قليل من أوصاف المستخدم المقدمة في مهام التدريب.
وقال المتحدث الرسمي باسم META إن جميع المقاولين يكملون تقييمًا لضمان استوفى معاييرها للأمن السيبراني وإدارة مخاطر الخصوصية.
كانت بيانات المستخدم المصاحبة لخط الدردشة الجنسي الصريح محددًا بما يكفي لأعمال Business Insider للعثور على ملف تعريف Facebook يحتوي على الاسم الأول والمدينة والجنس وقائمة الهوايات. استغرق بحث Business Insider أقل من خمس دقائق.
قال المقاول المعين لتلك الدردشة ، التي شاهدها شركة Business Insider ولكن اختارت عدم وصفها ، إن محتوىه كان مزعجًا لدرجة أنهم اضطروا إلى إنهاء مهامهم لهذا اليوم.
وقالوا “إنه أمر قاسي. اضطررت إلى وضعه في الليل”.
خصوصية chatbot
تقوم شركات التكنولوجيا مثل Meta بتسابق لإنشاء الذكاء الاصطناعي المخصص ، مما يعني التعامل مع كميات متزايدة من بيانات المستخدم الشخصية والحساسة.
حدد المدير التنفيذي لشركة Meta Mark Zuckerberg مؤخرًا رؤيته لـ “Superintelligence الشخصية” – منظمة العفو الدولية التي قال “يعرفنا بعمق ، ويفهم أهدافنا ، ويمكن أن يساعدنا في تحقيقها”.
في الحوادث الحديثة المنفصلة ، يبدو أن المستخدمين لم يدركوا أنهم يقومون بتصوير محادثاتهم مع AI للجمهور. ذكرت شركة Business Insider في يونيو أن المستخدمين كانوا يشاركون المعلومات الشخصية عن غير قصد ، بما في ذلك الأسئلة الطبية ، والمشورة المهنية ، وقضايا العلاقة ، في المحادثات في منظمة العفو الدولية في Meta إلى تطبيق Meta AI. تحتوي بعض المعلومات على تحديد المعلومات مثل أرقام الهواتف أو عناوين البريد الإلكتروني أو الأسماء الكاملة.
رداً على ذلك ، قدم Meta تحذيرًا جديدًا في تطبيق Meta AI.
لا يزال التطبيق يسمح للمستخدمين بمشاركة الدردشات الخاصة بهم ، مما يعني أنه يمكن فهرستهم وظهورهم في عمليات البحث في Google ، حسبما ذكرت Business Insider الأسبوع الماضي. في نفس الأسبوع ، قام Openai بإزالة ميزة تعني أن محادثات ChatGPT المشتركة تم فهرستها بواسطة Google.
وقالت سارة ماركوتشي ، مؤسسة AI + Planetary Justice Alliance ، وهي جماعية عالمية للباحثين والناشطين ، إن تقارير Business Insider حول المقاولين الذين يرون المعلومات الشخصية “تشير إلى أن تقليل البيانات ، والتنقيح ، والسيطرة على المستخدم لا تزال غير متساوية ومسؤنًا بشكل سيء عبر الصناعة”.
قال Bogen إنه على الرغم من أن المرشحات الآلية يمكنها اكتشاف وإزالة المعلومات الشخصية التي يمكن تحديدها ، إلا أنها لا تستطيع التقاط كل شيء ، وهنا يمكن للمراجعين البشر التدخل.
وأضاف Bogen: “لمجرد وجود عملية للبشر لتمييزها وتنقيحها ، فهذا لا يعني أنه لا يوجد شيء يحدث بالفعل ، ولكنه يشير إلى أن أي نظام موجود – إذا كان هناك واحد – غير كامل ، ومن المعترف به أنه غير كامل”.