الاسواق العالمية

تم ذكر اسم الموظف السابق في OpenAI الذي توفي منتحرًا في دعوى قضائية يمكن أن تقرر مستقبل الإنترنت

  • توفي سوشير بالاجي، الباحث السابق في OpenAI، منتحرًا أواخر الشهر الماضي.
  • بعد أن ترك الشركة، أثار بالاجي تساؤلات حول احتمال انتهاك OpenAI لقانون حقوق الطبع والنشر.
  • يظهر اسمه في دعوى قضائية رفعتها صحيفة نيويورك تايمز ضد شركة OpenAI والتي قد يكون لها آثار بعيدة المدى.

قبل ثمانية أيام من العثور على الباحث السابق في OpenAI، سوشير بالاجي ميتًا في شقة في سان فرانسيسكو، ظهر اسم الشاب البالغ من العمر 26 عامًا في دعوى قضائية ضد صاحب العمل السابق، والتي يمكن أن يكون لها آثار كبيرة على مستقبل الذكاء الاصطناعي والإنترنت.

الدعوى القضائية – التي رفعتها صحيفة نيويورك تايمز في ديسمبر الماضي – اتهمت OpenAI وMicrosoft باستخدام “ملايين” المقالات التي نشرتها الصحيفة دون إذن لتدريب نموذج ChatGPT الشهير الخاص بشركة الذكاء الاصطناعي الناشئة. ونفت الشركات أنها انتهكت قانون حقوق النشر.

في 18 تشرين الثاني (نوفمبر)، طلب محامو التايمز من القاضي إضافة بالاجي كـ “وصي” في الدعوى، وفقًا لوثائق المحكمة التي اطلعت عليها Business Insider. وصفت رسالة المحامين بالاجي بأنه شخص لديه “وثائق فريدة وذات صلة” يمكن أن تدعم قضية انتهاك حقوق الطبع والنشر ضد OpenAI وMicrosoft.

ومن بين الأوصياء الآخرين الذين اقترحتهم صحيفة التايمز موظفون سابقون في شركة OpenAI، مثل المؤسس المشارك إيليا سوتسكيفر. تم تنقيح مساهمة Sutskever المحتملة في الدعوى في وثائق المحكمة.

تعد القضية القانونية التي رفعتها صحيفة التايمز واحدة من عدة دعاوى قضائية تتعلق بحقوق الطبع والنشر تم رفع دعوى قضائية ضد شركة الذكاء الاصطناعي الناشئة بعد إصدار ChatGPT في عام 2022.

إذا انحازت المحاكم إلى صحيفة التايمز أو غيرها من وسائل الإعلام والمؤلفين الذين رفعوا دعوى قضائية، فقد تكون النتيجة مكلفة لشركات الذكاء الاصطناعي وتحد من البيانات المحدودة بالفعل المستخدمة لتدريب النماذج.

ولا تطالب الدعوى القضائية التي رفعتها صحيفة التايمز برقم نقدي محدد، لكنها تقول إن OpenAI وMicrosoft مسؤولان عن “مليارات الدولارات” من الأضرار.

ولم يستجب المتحدثون باسم OpenAI، وMicrosoft، وThe New York Times لطلبات التعليق.

أثار بالاجي مخاوف بشأن استخدام OpenAI للبيانات المحمية بحقوق الطبع والنشر

انضم Balaji إلى OpenAI في عام 2020 وعمل على تدريب نماذج ChatGPT وGPT-4 ووثائق المحكمة والتقارير من برنامج The New York Times. الباحث، من قال أن عمل OpenAI ينتهك قانون حقوق النشر، غادر الشركة في أغسطس وذكرت صحيفة التايمز “لأنه لم يعد يرغب في المساهمة في التقنيات التي يعتقد أنها ستضر المجتمع أكثر من نفعه”.

في 23 أكتوبر، نشر مقالًا على موقعه الشخصي على الإنترنت يثير تساؤلات حول ما إذا كان استخدام OpenAI للبيانات المحمية بحقوق الطبع والنشر يمكن اعتباره استخدامًا عادلاً.

كتب بالاجي: “في حين أن النماذج التوليدية نادرًا ما تنتج مخرجات مشابهة إلى حد كبير لأي من مدخلات التدريب الخاصة بها، فإن عملية تدريب النموذج التوليدي تتضمن عمل نسخ من البيانات المحمية بحقوق الطبع والنشر”. “إذا كانت هذه النسخ غير مصرح بها، فمن المحتمل أن يعتبر ذلك انتهاكًا لحقوق الطبع والنشر، اعتمادًا على ما إذا كان الاستخدام المحدد للنموذج مؤهلاً باعتباره “استخدامًا عادلاً” أم لا. ونظرًا لأن الاستخدام العادل يتم تحديده على أساس كل حالة على حدة، فلا يمكن الإدلاء ببيان عام حول متى يكون الذكاء الاصطناعي التوليدي مؤهلاً للاستخدام العادل.

وفي اليوم نفسه، نشرت صحيفة التايمز ملفًا شخصيًا للباحث السابق في OpenAI.

وقال لصحيفة التايمز: “إذا كنت تصدق ما أؤمن به، فعليك أن تترك الشركة”.

في 26 نوفمبر، بعد ثمانية أيام من ظهور اسم بالاجي في خطاب محامي التايمز، استجاب ضباط من قسم شرطة سان فرانسيسكو لفحص الرعاية الاجتماعية في شقة بمنطقة لوير هايت حوالي الساعة 1:15 ظهرًا.

وقال متحدث باسم SFPD لـ BI: “وصل الضباط والمسعفون إلى مكان الحادث وعثروا على رجل بالغ متوفى فيما يبدو أنه انتحار”. “لم يتم العثور على أي دليل على وجود جريمة أثناء التحقيق الأولي.”

وتعرف مكتب كبير الفاحصين الطبيين في المدينة في وقت لاحق على الرجل المتوفى بأنه بلاجي.

وقال ديفيد سيرانو سيويل، المدير التنفيذي لمكتب كبير الفاحصين الطبيين بالمدينة، لـ BI: “لقد تم تحديد طريقة الوفاة على أنها انتحار”. ولم يقدم المزيد من التعليقات.

قال متحدث باسم OpenAI لـ BI عندما تم الاتصال به للتعليق يوم الجمعة: “لقد شعرنا بالصدمة عندما علمنا بهذه الأخبار المحزنة للغاية اليوم وقلوبنا تتجه إلى أحباء سوشير خلال هذا الوقت العصيب”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى