“جوجل” تخفف قيود أخلاقيات الذكاء الاصطناعي مع عودة ترمب
حدّثت شركة “جوجل” الثلاثاء مبادئها التي تحكم تطوير الذكاء الاصطناعي، متراجعة عن وعدها بعدم استخدام التكنولوجيا للأسلحة وأنظمة المراقبة، وذلك بعد أسبوعين من تنصيب دونالد ترمب.
ولم يعد عدد كبير من الالتزامات التي تم التعهد بها سنة 2018 يظهر في وثيقة تحمل عنوان “مبادئنا”.
ويبدو أن الشركة قد تراجعت عن وعودها بعدم السعي إلى تطوير “أسلحة أو تكنولوجيات أخرى هدفها الأساسي إيذاء الناس”، و”تقنيات تجمع أو تستخدم معلومات لأغراض المراقبة منتهكة بالتالي المعايير المقبولة عالميا” و”تقنيات يتعارض غرضها مع مبادئ القانون الدولي وحقوق الإنسان المقبولة على نطاق واسع”.
تظهر هذه الجمل في مدوّنة “الذكاء الاصطناعي لدى جوجل: مبادئنا” المنشورة في يونيو 2018، التي باتت تشير إلى “تحديثات” تمت الثلاثاء مرفقة بروابط نحو الوثيقة الجديدة.
ويأتي هذا التحديث بعدما ألغى دونالد ترمب، ما إن استلم السلطة، أمرا تنفيذيا أصدره سلفه جو بايدن بشأن أمن الذكاء الاصطناعي.
ومُذاك، أصبحت التزامات الشركات في هذا القطاع أقل، إذ لم تعد مُلزمة مثلا التحدث عن نتائج الاختبارات عندما تمثل برامجها “خطرا جسيما في ما يتعلق بالأمن القومي، أو الأمن الاقتصادي الوطني، أو الصحة العامة”.
وفي حديث إلى “الفرنسية”، رفض ناطق باسم “جوجل” تأكيد أي مبادئ تم تعديلها أو حذفها، مشيرا ببساطة إلى التقرير الذي نشرته الشركة الثلاثاء بعنوان “الذكاء الاصطناعي المسؤول”.
وقال معدا التقرير جيمس مانيكا، نائب رئيس الشركة، وديميس هاسابيس، رئيس “جوجل ديب مايند” المتخصصة بالذكاء الاصطناعي والتابعة لـ”جوجل”، “لقد نشرنا تقريرا سنويا عن الشفافية منذ 2019”.
وأكّدا أن السياق المحيط بالذكاء الاصطناعي قد تغيّر كثيرا منذ 2018.
وشددا على أن “مليارات الأشخاص باتوا يستخدمون الذكاء الاصطناعي في حياتهم اليومية”، مضيفا “لقد انتقل الذكاء الاصطناعي من كونه موضوع بحث في المختبر إلى تقنية منتشرة في كل مكان من الهواتف المحمولة وصولا إلى الإنترنت نفسه”.
وتطرقا أيضا إلى تطوّر المعايير والصراعات الجيوسياسية بشأن الذكاء الاصطناعي، وهما من الأسباب التي دفعت الشركة لتحديث مبادئها التوجيهية. وأكّدا أنهما سيواصلان النظر في ما إذا كانت الفوائد تفوق المخاطر المحتملة على أساس كل حالة على حدة.