الاسواق العالمية

مأساة الباحث السابق في OpenAI سوشير بالاجي تعيد “الموت بواسطة LLM” إلى دائرة الضوء مرة أخرى

  • أفادت صحيفة نيويورك تايمز أن سوشير بالاجي ساعد OpenAI في جمع البيانات من الإنترنت للتدريب على نماذج الذكاء الاصطناعي.
  • وعُثر عليه ميتاً في شقة في سان فرانسيسكو في أواخر نوفمبر/تشرين الثاني، بحسب الشرطة.
  • قبل شهر تقريبًا، نشر بالاجي مقالًا ينتقد فيه كيفية استخدام نماذج الذكاء الاصطناعي للبيانات.

أدت الوفاة الأخيرة للباحث السابق في OpenAI، سوشير بالاجي، إلى إعادة نقاش حول الذكاء الاصطناعي إلى دائرة الضوء.

يتم تدريب نماذج الذكاء الاصطناعي على المعلومات الواردة من الإنترنت. تجيب هذه الأدوات على أسئلة المستخدمين مباشرة، وبالتالي يزور عدد أقل من الأشخاص مواقع الويب التي أنشأت البيانات الأصلية وتحققت منها. وهذا يستنزف الموارد من منشئي المحتوى، مما قد يؤدي إلى إنترنت أقل دقة وثراء.

ايلون ماسك يسمي هذا “الموت بواسطة LLM.” لقد تضرر موقع Stack Overflow، وهو موقع أسئلة وأجوبة حول البرمجة، بالفعل بسبب هذه الظاهرة. وكان بالاجي قلقًا بشأن هذا.

تم العثور على بلاجي ميتا في أواخر نوفمبر. وقالت إدارة شرطة سان فرانسيسكو إنها لم تجد “أي دليل على وجود جريمة” خلال التحقيق الأولي. وقرر كبير الفاحصين الطبيين في المدينة أن الوفاة كانت انتحارا.

مخاوف بالاجي

قبل حوالي شهر من وفاة بالاجي، نشر مقالًا على موقعه الشخصي تناول فيه كيفية إنشاء نماذج الذكاء الاصطناعي وكيف يمكن أن يكون ذلك سيئًا للإنترنت.

استشهد بحث التي درست تأثير نماذج الذكاء الاصطناعي التي تستخدم البيانات عبر الإنترنت مجانًا للإجابة على الأسئلة مباشرةً مع جذب حركة المرور بعيدًا عن المصادر الأصلية.

قامت الدراسة بتحليل Stack Overflow ووجدت أن حركة المرور إلى هذا الموقع انخفضت بحوالي 12% بعد إصدار ChatGPT. بدلاً من الذهاب إلى Stack Overflow لطرح أسئلة حول البرمجة وإجراء الأبحاث، كان بعض المطورين يطلبون فقط من ChatGPT الحصول على الإجابات.

النتائج الأخرى من البحث التي استشهد بها بالاجي:

  • كان هناك انخفاض في عدد الأسئلة المنشورة على Stack Overflow بعد إصدار ChatGPT.
  • ارتفع متوسط ​​عمر الحساب لمطرحي الأسئلة بعد ظهور ChatGPT، مما يشير إلى أن عددًا أقل من الأشخاص قاموا بالتسجيل في Stack Overflow أو أن المزيد من المستخدمين غادروا المجتمع عبر الإنترنت.

ويشير هذا إلى أن نماذج الذكاء الاصطناعي يمكن أن تقوض بعض الحوافز التي خلقت الإنترنت الغني بالمعلومات كما نعرفه اليوم.

إذا تمكن الأشخاص من الحصول على إجاباتهم مباشرة من نماذج الذكاء الاصطناعي، فلن تكون هناك حاجة للذهاب إلى المصادر الأصلية للمعلومات. إذا لم يقم الأشخاص بزيارة مواقع الويب بنفس القدر، فقد تنخفض إيرادات الإعلانات والاشتراكات، وسيكون هناك أموال أقل لتمويل إنشاء بيانات عالية الجودة عبر الإنترنت والتحقق منها.

يريد MKBHD إلغاء الاشتراك

والأمر الأكثر إثارة للقلق هو أن نتخيل أن نماذج الذكاء الاصطناعي قد تفعل ذلك بناءً جزئيًا على عملك الخاص.

لقد اختبر المراجع التقني Marques Brownlee هذا الأمر مؤخرًا عندما قام بمراجعة نموذج فيديو Sora الخاص بـ OpenAI ووجد أنه قام بإنشاء مقطع مع نبات يشبه إلى حد كبير النبات من مقاطع الفيديو الخاصة به المنشورة على YouTube.

“هل مقاطع الفيديو الخاصة بي موجودة في تلك المادة المصدر؟ هل هذا النبات تحديدًا جزء من المادة المصدر؟ هل هي مجرد صدفة؟” قال براونلي، المعروف باسم MKBHD.

وبطبيعة الحال، أراد أيضًا معرفة ما إذا كان بإمكانه إلغاء الاشتراك ومنع استخدام مقاطع الفيديو الخاصة به لتدريب نماذج الذكاء الاصطناعي. وقال براونلي: “لا نعرف ما إذا كان الوقت قد فات لإلغاء الاشتراك”.

“ليس نموذجًا مستدامًا”

وفي مقابلة مع صحيفة نيويورك تايمز نُشرت في أكتوبر، قال بالاجي إن روبوتات الدردشة المدعمة بالذكاء الاصطناعي مثل ChatGPT تجرد القيمة التجارية لعمل الأشخاص وخدماتهم.

أفاد المنشور أنه أثناء عمله في OpenAI، كان Balaji جزءًا من فريق قام بجمع البيانات من الإنترنت للتدريب على نماذج الذكاء الاصطناعي. وكتبت صحيفة نيويورك تايمز أنه انضم إلى الشركة الناشئة وهو يحمل آمالا كبيرة في كيفية مساعدة الذكاء الاصطناعي للمجتمع، لكنه أصيب بخيبة أمل.

وقال للنشر: “هذا ليس نموذجًا مستدامًا للنظام البيئي للإنترنت”.

وفي بيان لصحيفة التايمز حول تعليقات بالاجي، قالت OpenAI إن الطريقة التي تبني بها نماذج الذكاء الاصطناعي محمية بموجب مبادئ حقوق الطبع والنشر للاستخدام العادل وتدعمها السوابق القانونية. وأضافت: “نحن نعتبر هذا المبدأ عادلاً للمبدعين، وضروريًا للمبتكرين، ومهمًا للقدرة التنافسية للولايات المتحدة”.

اختلف بالاجي في مقالته.

أحد الاختبارات الأربعة لانتهاك حقوق الطبع والنشر هو ما إذا كان العمل الجديد يؤثر على السوق المحتملة للعمل الأصلي المحمي بحقوق الطبع والنشر أو قيمته. إذا أحدث هذا النوع من الضرر، فهذا ليس “استخدامًا عادلاً” وغير مسموح به.

وخلص بالاجي إلى أن ChatGPT ونماذج الذكاء الاصطناعي الأخرى لا تتمتع بجودة حماية حقوق الطبع والنشر للاستخدام العادل.

وكتب: “لا يبدو أن أيًا من العوامل الأربعة يرجح لصالح استخدام ChatGPT بشكل عادل لبيانات التدريب الخاصة به”. “ومع ذلك، لا توجد أي من الحجج هنا خاصة بشكل أساسي بـ ChatGPT أيضًا، ويمكن تقديم حجج مماثلة للعديد من منتجات الذكاء الاصطناعي التوليدية في مجموعة واسعة من المجالات.”

الحديث عن البيانات

لا ترغب شركات التكنولوجيا التي تنتج نماذج الذكاء الاصطناعي القوية هذه في الحديث عن قيمة بيانات التدريب. حتى أنهم توقفوا عن الكشف عن مصدر البيانات، وهو ما كان ممارسة شائعة حتى سنوات قليلة مضت.

قال نيك فنسنت، الباحث في الذكاء الاصطناعي، لـ BI العام الماضي: “إنهم دائمًا ما يسلطون الضوء على خوارزمياتهم الذكية، وليس البيانات الأساسية”.

وربما تعطي وفاة بالاجي أخيراً هذه المناقشة الاهتمام الذي تستحقه.

قال متحدث باسم OpenAI لـ BI مؤخرًا: “لقد شعرنا بالصدمة عندما علمنا بهذه الأخبار المحزنة للغاية اليوم وقلوبنا تتوجه إلى أحباء سوشير خلال هذا الوقت العصيب”.

إذا كنت أنت أو أي شخص تعرفه تعاني من الاكتئاب أو كان لديك أفكار لإيذاء نفسك أو الانتحار، فاحصل على المساعدة. في الولايات المتحدة، اتصل أو أرسل رسالة نصية على الرقم 988 للوصول الانتحار والأزمات شريان الحياة، الذي يوفر دعمًا سريًا ومجانيًا على مدار الساعة طوال أيام الأسبوع للأشخاص الذين يعانون من ضائقة، بالإضافة إلى أفضل الممارسات للمحترفين والموارد للمساعدة في الوقاية من حالات الأزمات. المساعدة متاحة أيضًا من خلال خط نص الأزمة – فقط أرسل رسالة نصية “HOME” إلى الرقم 741741 الرابطة الدولية لمنع الانتحار يقدم الموارد لأولئك خارج الولايات المتحدة.

(علامات للترجمة)الموت

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى