قامت Scale AI الآن بإغلاق مواد المشروع للعملاء مثل Meta و Xai بعد تقرير Business Insider بأن الآلاف من الملفات الحساسة تم تخزينها كمستندات Google التي كانت متاحة للجمهور مع الروابط.

سارعت الشركة – التي تستخدم عمال الحفلة البشرية لتحسين أحدث نماذج منظمة العفو الدولية في Big Tech وتتلقى استثمارًا بقيمة 14 مليار دولار من Meta – لتأمين ملفاتها هذا الأسبوع ، وفقًا لأربعة مقاولين على نطاق واسع الذين طلبوا عدم الكشف عن هويتهم بسبب حساسية الأمر.

ترك الفرق من العمال غير قادرين مؤقتًا على فتح وثائق التدريب. الآلاف من ملفات AI Scale التي سبق استعراضها من قبل BI التي كانت عامة أصبحت الآن خاصة.

وقال ستيفاني كورتز ، المدير الإقليمي لدى شركة الأمن السيبراني TRACE3 ، لـ BI: “ما يحدث هو رد فعل راقص على أن تكون في العناوين الرئيسية”. وقالت إن قفل المستندات ودعوة المستخدمين الصحيحين “كان ينبغي القيام به في المقام الأول”.

بحلول يوم الأربعاء ، كانت الفرق قد حلت العديد من مشكلات الوصول إلى المستندات ، على حد قول أحد العمال. قال آخرون إنه تم منح المساهمين الآخرين الوصول الفردي إلى المستندات.

قامت BI أولاً بالإبلاغ عن مستندات Google العامة لتوسيع نطاق AI لمقالة في 13 يونيو حول كيفية عرض Google باستخدام ChatGPT لتحسين chatbot من الذكاء الاصطناعي. واجهت BI أيضًا مستندات AI على نطاق عام خلال التقارير السابقة حول كيفية تدريب Xai و Meta على أحدث طرازات الذكاء الاصطناعي.

بقي ما لا يقل عن 85 مستندات Google فردية تحتوي على آلاف الصفحات ويمكن الوصول إليها بالكامل حتى تنشر BI مقالًا يوم الثلاثاء ركز على مشكلة الأمن التي تم إنشاؤها.

ذكرت BI أن Scale AI قد تركت آلاف مستندات المشروع المفتوحة المرتبطة بعملها مع العملاء ، بما في ذلك Google و Meta ، مما يسمح لأي شخص لديه رابط للوصول إليهم. تحتوي العديد من المستندات أيضًا على معلومات الاتصال للعديد من عمال الذكاء الاصطناعى ، الذين فوجئ بعضهم باكتشاف تفاصيلهم يمكن الوصول إليها عندما اتصل بهم BI.

استخدمت Scale AI مستندات Google العامة بشكل روتيني لتتبع العمل للعملاء البارزين ، حيث إنها طريقة فعالة لمشاركة المعلومات مع أكثر من 240،000 مقاول. وجدت BI أن هذه المستندات غالباً ما تحتوي على معلومات حساسة حول كيفية تدريب العمال على نماذج الذكاء الاصطناعي للعملاء الكبار. تم تصنيف مستندات التدريب المتعددة من الذكاء الاصطناعي التي تم استعراضها من قبل BI على أنها “سرية” ويمكن الوصول إليها لأي شخص لديه الرابط.

بعد قفل Scale AI ، وصف أحد المقاولين مشكلة “على مستوى الموقع” في الوصول إلى مواد المشروع يوم الثلاثاء. قال آخر إن عمل العديد من الفرق قد توقف بسبب القيود الجديدة ، حيث فقدت واحدة حتى الوصول في منتصف العرض التقديمي.

وقال المقاول “نحن نخترق بشكل أساسي هنا”.

أخبر Scale AI BI يوم الاثنين أنه يجري تحقيقًا شاملاً وقد عطل قدرة أي مستخدم على مشاركة المستندات علنًا من أنظمة Scale.

كرر هذا البيان لهذا المقال ولم يعلق على تغييرات محددة أجريت لتوسيع نطاق أمان المستندات من الذكاء الاصطناعي.

وقال متحدث باسم النطاق من الذكاء الاصطناعى “نأخذ أمن البيانات على محمل الجد”. “ما زلنا ملتزمون باحتفالات تقنية وسياسية قوية لحماية المعلومات السرية ونعمل دائمًا على تعزيز ممارساتنا.”

ليس هناك ما يشير إلى أن المقياس من الذكاء الاصطناعى قد عانى من خرق البيانات. أخبر خبراء الأمن السيبراني BI أن هذه الممارسة يمكن أن تترك الشركة عرضة للقرصنة.

كان قفل المستندات جزءًا آخر من الاصابة بمقاولي AI Scale ، الذين تأثروا باستثمار Meta الضخم وقرارها بتوظيف الرئيس التنفيذي لشركة Alexandr Wang ، لمجموعة Superintelligence الجديدة من AI.

بعد إعلان الصفقة ، أوقفت Google العديد من مشاريعها مع Scale AI. كما أوقفت Openai و Elon Musk's Xai مشاريع مؤقتًا بحجم ، كما ذكرت BI من قبل ، وقال أحد المستثمرين الأصغر إنهما يبيعون حصتهما المتبقية في بدء التشغيل.

اكتشف العديد من المقاولين أن بعض مشاريعهم قد توقفت مؤقتًا. في حين أن Scale AI أرسل مقاوليها مذكرة تعلن عن استثمار META ، قال العديد من العمال إنهم تركوا في الظلام حول العملاء الذين يوقفون المشاريع ، معظمهم دون تحذير مسبق.

ورفض ميتا التعليق.

هل لديك نصيحة؟ اتصل بـ Charles Rollet عبر البريد الإلكتروني على [email protected]م أو إشارة و WhatsApp في 628-282-2811. اتصل بـ Hugh Langley عبر البريد الإلكتروني على [email protected] أو على إشارة في Hughlangley.01. استخدم عنوان بريد إلكتروني شخصي وجهاز غير عمل ؛ إليك دليلنا لمشاركة المعلومات بشكل آمن.

شاركها.