يقول أحد أبرز الباحثين في مجال الذكاء الاصطناعي في العالم إن شركات التكنولوجيا الكبرى “تلعب لعبة الروليت الروسية” مع الإنسانية بشكل فعال، وتستخدم تريليونات الدولارات من أموال المستثمرين للقيام بذلك.
حذر ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا، بيركلي، ومدير مركز الذكاء الاصطناعي المتوافق مع الإنسان، من أن الشركات التي تتسابق لبناء أنظمة ذكاء اصطناعي فائقة الذكاء تنفق مبالغ هائلة على التكنولوجيا التي لا تفهمها تمامًا، والتي يمكن أن تمحو البشرية إذا سارت الأمور بشكل خاطئ.
وقال راسل لشبكة CNBC: “إذا قمت بإنشاء كيانات أقوى من البشر وليس لديك أي فكرة عن كيفية الحفاظ على السلطة عليهم، فأنت فقط تبحث عن المشاكل”.
ليس لدينا أي فكرة عما يحدث داخل الصندوق العملاق
وقال راسل إن نماذج الذكاء الاصطناعي الحديثة، مثل تلك التي تقود أنظمة لغوية كبيرة، تعمل بتريليونات من المعلمات التي تم ضبطها بدقة من خلال تعديلات عشوائية صغيرة لا حصر لها.
ولكن حتى الباحثين الذين قاموا ببنائها “ليس لديهم أي فكرة عما يحدث داخل هذا الصندوق العملاق”.
وأضاف: “كل من يعتقد أنه يفهم معظم ما يجري فهو واهم”. “نحن نفهم عنها أقل مما نفهمه عن الدماغ البشري، ونحن لا نفهم الدماغ البشري بشكل جيد.”
وحذر راسل من أن هذا النقص في الفهم يجعل صعود الذكاء الفائق -أنظمة أكثر قدرة من البشر- خطيرًا بشكل خاص.
يتعلم الذكاء الاصطناعي الدوافع البشرية الخطيرة
وبما أن هذه النماذج يتم تدريبها على مجموعات بيانات ضخمة من السلوك البشري، قال راسل إنهم بدأوا في استيعاب الدوافع الشبيهة بالبشر والتي تكون منطقية بالنسبة للناس، ولكن ليس للآلات.
وأوضح أن الذكاء الاصطناعي مدرب بشكل أساسي على تقليد البشر، والتعلم من عدد لا يحصى من التسجيلات لكيفية تحدث الناس وتصرفاتهم.
لكن هؤلاء البشر كانت لديهم دوافع – للإقناع، والبيع، والفوز بالانتخابات – والآلات تلتقط نفس هذه الميول.
وقال: “هذه أهداف بشرية معقولة، لكنها ليست أهدافا معقولة للآلات”.
وأشار إلى تزايد الأبحاث التي تشير إلى أن أنظمة الذكاء الاصطناعي المتقدمة ستقاوم إيقاف تشغيلها، بل وربما تعمل على تخريب آليات السلامة لضمان بقائها.
يعترف الرؤساء التنفيذيون بوجود فرصة للانقراض بنسبة 10 إلى 30%، وما زالوا يواصلون المضي قدمًا
واتهم راسل المديرين التنفيذيين في مجال التكنولوجيا بمتابعة سباق متهور نحو الذكاء الفائق، على الرغم من الاعتراف بمخاطره الكارثية.
وقال راسل: “يقول الرؤساء التنفيذيون الذين يبنون هذه التكنولوجيا: إذا نجحنا في هذه المدرسة التي ننفق فيها تريليونات الدولارات من أموال الآخرين، فإن هناك فرصة تتراوح بين 10 و30% لانقراض الإنسان”.
“بعبارة أخرى، إنهم يلعبون لعبة الروليت الروسية مع كل شخص بالغ وكل طفل في العالم – دون إذننا”.
على الرغم من أنه لم يذكر أي رئيس تنفيذي محدد، إلا أن إيلون ماسك، وسام ألتمان من OpenAI، وديميس هاسابيس، المؤسس المشارك لشركة DeepMind، وداريو أمودي من Anthropic، حذروا جميعًا علنًا من أن الذكاء الاصطناعي المتقدم يمكن أن يشكل تهديدًا وجوديًا للبشرية.
وأضاف راسل أن السباق العالمي للذكاء الاصطناعي خلق حافزا للتحرك بسرعة وكسر الأشياء، بغض النظر عن المخاطر الوجودية.
يدعو إلى وقفة من ستيف بانون إلى البابا
وعلى الرغم من الانقسامات السياسية الشديدة، أشار راسل إلى أن الدعوات لكبح جماح الذكاء الاصطناعي تأتي من مختلف الأطياف.
أكثر من 900 شخصية عامة – من الأمير هاري وستيف بانون وويليام إلى المؤسس المشارك لشركة أبل ستيف وزنياك وريتشارد برانسون من فيرجين – وقعوا مؤخرًا على بيان نظمه معهد مستقبل الحياة يدعو إلى وقف تطوير الذكاء الاصطناعي الفائق حتى يتفق العلماء على إمكانية القيام بذلك بأمان.
وقال راسل: “الجميع، من ستيف بانون إلى البابا، يدعون إلى وقف هذا النوع من التطور”.
وأضاف أن الهدف ليس وقف التقدم، بل التوقف مؤقتًا حتى يتم إثبات أمان التكنولوجيا.
وقال: “لا تفعل ذلك حتى تتأكد من أنه آمن”. “لا يبدو أن هذا كثيرًا لنطلبه.”

