يشهد عالم الذكاء الاصطناعي سوقًا سوداء جديدة، حيث يتم بيع حسابات المتعاقدين الذين يدربون نماذج الذكاء الاصطناعي بشكل غير قانوني. شركات مثل Scale AI و Surge AI و Mercor، والتي توظف آلاف المتعاقدين حول العالم لتقييم استجابات روبوتات الدردشة للشركات التكنولوجية الكبرى، وجدت نفسها في مواجهة اقتصاد خفي يتاجر في الوصول إلى هذه الحسابات.

كشف تحقيق أجرته Business Insider عن وجود ما يقرب من 100 مجموعة على فيسبوك تعرض بشكل غير قانوني الوصول إلى حسابات تدريب الذكاء الاصطناعي، سواء كانت حقيقية أو مزيفة، وهي الحسابات التي يحتاجها المتعاقدون للعمل لدى شركات وضع العلامات على البيانات. وقد أزال Meta حوالي 40 مجموعة ومحتوىً آخر بعد الإبلاغ عن هذه الظاهرة، ويواصل التحقيق في الأمر، وفقًا لمتحدث باسم الشركة.

ظهور سوق سوداء لحسابات تدريب الذكاء الاصطناعي

تحظر الشركات الرائدة في مجال تدريب الذكاء الاصطناعي بيع الحسابات وتؤكد وجود إجراءات وقائية لمنع هذه الممارسة. ومع ذلك، تستمر الحسابات “الموثقة” في الظهور للبيع على منصات مثل فيسبوك وواتساب وتيليجرام. ويزداد الطلب على هذه الحسابات مع التنافس الشديد بين شركات التكنولوجيا العملاقة لتأمين البيانات اللازمة لتدريب نماذجها، مما أدى إلى ارتفاع أجور المتعاقدين، الذين غالبًا ما يُشار إليهم باسم “العاملين الأشباح” لدورهم الذي يتم تنفيذه من وراء الكواليس في تطوير الذكاء الاصطناعي.

تُظهر الوثائق الداخلية لشركة Scale AI، التي تلقت استثمارًا بقيمة 14 مليار دولار من Meta في يونيو الماضي، أن الشركة تكافح منذ سنوات ضد الحسابات الاحتيالية والمكررة وسوء استخدام شبكات VPN. وقد فرضت الشركة حظرًا على المستخدمين من بعض البلدان للحد من الغش في المشاريع.

تطور أساليب الاحتيال

وفقًا لسارة صعب، نائبة رئيس قسم المنتج في Prolific، وهي شركة ناشئة في المملكة المتحدة متخصصة في وضع العلامات على البيانات، فإن أبحاث الشركة تشير إلى أن حركة الاحتيال هذه لا تقتصر على عصابة واحدة، بل إن الصناعة السرية قد وصلت إلى مستوى من التعقيد يذكرنا بعمليات الاحتيال المصرفي أو بيع تذاكر الحفلات الموسيقية بأسعار مضاعفة. وتشير إلى أن التقنيات التي تساعد شركات وضع العلامات على البيانات، تساعد أيضًا الأشخاص ذوي النوايا السيئة والمحتالين.

قبل أن يتمكن المتعاقدون من تلقي مهام مثل تصنيف الصور أو اقتراح ردود بديلة لروبوتات الدردشة، يجب عليهم إنشاء حسابات وإكمال اختبارات الفحص على منصات مثل Outlier التابعة لـ Scale AI أو DataAnnotation.tech التابعة لـ Surge AI. يتميز هذا العمل بالمرونة والعمل عن بعد، ويمكن أن تصل الأجور إلى أكثر من 100 دولار في الساعة.

تُقدم منصات مثل Outlier مشاريع قائمة على المهام يمكن أن تستغرق من بضع ساعات إلى عدة أشهر، وغالبًا ما تكون في المناطق التي توجد فيها حاجة إلى ترجمة اللغات أو أعمال وضع العلامات على البيانات، أو حيث تكون معدلات الأجور منخفضة. عندما تجف المشاريع، ينخفض دخل المتعاقدين، مما يخلق فرصة للمستغلين.

يستهدف هؤلاء المستغلون المدربين المحتملين من خلال بيع حسابات “مُوثقة” على Outlier تعود لأشخاص من دول مثل الولايات المتحدة، حيث لا تزال المشاريع نشطة، وفقًا لمتعاقدين سابقين من كينيا. قد تكون بعض هذه الحسابات حقيقية، والبعض الآخر مزيفًا، ولكن بيع الحسابات محظور في جميع الأحوال من قبل الشركات.

مخاطر على المشترين والبائعين

يشعر كل من المشترين والبائعين بالقلق بشأن عمليات الاحتيال، كما أفاد متعاقدان مقيمان في الولايات المتحدة. يخشى المشترون أن يأخذ البائع الدفعة ويختفي، بينما يخشى البائعون أن يرفض المشترون تقديم نسبة من الأرباح المستقبلية بعد تسليم تفاصيل تسجيل الدخول إلى الحساب.

في العديد من المنشورات التي رصدها Business Insider على فيسبوك، أبلغ المستخدمون عن تعرضهم لعمليات احتيال. ادعى البعض أنهم دفعوا مقابل حساب تدريب الذكاء الاصطناعي، لكن المحتال قام بحظرهم واختفى بأموالهم. وزعم آخرون أنهم تلقوا عنوان بريد إلكتروني وكلمة مرور لم يكونا مسجلين بالفعل لدى شركة تدريب الذكاء الاصطناعي.

تؤكد الشركات الكبرى العاملة في مجال وضع العلامات على البيانات، بما في ذلك Scale AI و Mercor و Prolific و Surge AI، أن شراء وبيع الحسابات محظور، وأن لديها آليات مختلفة، بدءًا من مراقبة مجموعات فيسبوك وحتى تحليل الأنماط على مستوى الحساب، للكشف عن الاحتيال. كما أكد متحدث باسم Meta أن الإعلانات التي تعرض بيع هذه الحسابات تنتهك معايير مجتمع Meta وسياسة الاحتيال.

جهود Scale AI لمكافحة الغش

تُظهر الوثائق الداخلية لشركة Scale AI، التي تأسست عام 2016، أن الشركة تتعامل مع المحتالين منذ عامين على الأقل. في أحد المشاريع التي تم تنفيذها لصالح Google في عام 2024، تم وضع الآلاف من المتعاقدين على قائمة “المشتبه بهم” أو “المحتالين”. كما احتوت ورقة عمل أخرى تعود إلى عام 2023 بعنوان “الأشخاص الجيدون والسيئون” وورقة عمل أخرى بعنوان “المتعاقدون المشبوهون من خارج الولايات المتحدة”، والتي تركتها Scale AI متاحة للعامة عن طريق الخطأ، على تفاصيل حول المحتالين المحتملين.

تُظهر الوثائق أيضًا استخدامًا واسع النطاق لشبكات VPN وحسابات متعددة تعود إلى نفس الشخص. وتشير إلى أن مشروعًا مع عميل لم يتم الكشف عن هويته عانى من مشاكل في الجودة. ناقش مديرو Scale AI في وثيقة لتتبع تقدم المشروع استراتيجيات مختلفة “للتغلب على المحتالين”، بما في ذلك حظر حسابات معينة من مصر وكينيا وباكستان ودول أخرى من المشاركة في المشروع بسبب استخدامهم ChatGPT، ومنع نسخ ولصق المحتوى.

أفاد المتعاقدون الكينيون الذين تحدثوا إلى Business Insider أن فرص مشاريع تدريب الذكاء الاصطناعي في المنطقة قد انخفضت بشكل حاد منذ أواخر عام 2023.

من المتوقع أن تستمر الشركات في تطوير وتطبيق إجراءات أمنية جديدة لمكافحة الاحتيال، بينما سيحاول المحتالون إيجاد طرق للتحايل على هذه الإجراءات. يجب على المتعاقدين توخي الحذر عند التعامل مع عروض شراء أو بيع الحسابات، والتحقق من شرعية أي عرض قبل اتخاذ أي إجراء. من المرجح أن يزداد الاهتمام بتدريب الذكاء الاصطناعي مع الإطلاق المستمر لتقنيات جديدة، مما يستدعي مراقبة متزايدة لهذه الانتهاكات.

شاركها.