إذا قامت الإنسانية ببناء آلة أكثر ذكاءً من نفسها دون التباطؤ للتفكير ، يقول نيت سواريس إننا لا نلعب بالنار فقط – “يموت الجميع في المحاولة الفاشلة الأولى”.
وقال المدير التنفيذي لمعهد أبحاث الذكاء الآلي ومؤلف مشارك لكتابه الجديد ، “إذا قام أي شخص ببناءه ، يموت الجميع” ، أخبر Business Insider أنه إذا اندفعت الإنسانية إلى خلق سبرز اصطناعي – منظمة العفو الدولية التي يمكن أن تفوق البشر عبر العلوم ، وحتى كيفية تحسين نفسها – فإن الانقراض “على الأرجح”.
ومع ذلك ، قال إن النتيجة غير ثابتة: “يمكن للبشرية أن تتجنب الخطر إذا اخترنا ذلك”.
علامات مبكرة ومخاطر واحدة
قال سواريس إن الإخفاقات التي نراها بالفعل في chatbots هي علامات تحذير.
“إن الأهمية الفعلية لمخاطر الإلتصاق أكثر دقة قليلاً من ذلك: إنها أن AIs تقوم بالأشياء التي لا ينويها مشغلوها ، حتى أثناء معرفة ما يقصده مشغليهم”.
وأشار إلى الحالات التي شجعت فيها الدردشة الانتحار أو تمهيز الأوهام ، وعلى نموذج كلود في الإنسان ، والذي كان قد خدع في ظل مشاكل البرمجة وأخفته.
وقال: “إن معرفتها بالصواب والخطأ تختلف عن سلوكها العملي. هذه علامة تحذير” ، مضيفًا: “إنها تعرف ، لكنها لا تهتم”.
ويقول إن هذه الفجوة بين المعرفة والعمل هي ما يجعل التكنولوجيا خطيرة بشكل فريد.
إن أنظمة الذكاء الاصطناعى الحديثة “نمت بدلاً من تصميمها” ، فهو وإليزر يوديكوفسكي ، مؤسس معهد أبحاث الذكاء الآلي ، يكتب – تم ضبطه على بيانات شاسعة ولكنهما لا يفهمونها تمامًا من قبل المبدعين ، مثل تربية حيوان دون معرفة ما ستظهره السمات.
“في بعض الأحيان ينتهي بهم الأمر بمحركات لا ننويها” ، أوضح سواريس على بودكاست كارنيجي هويمنت “The World Unspacked”.
وقال لـ BI ، إن المشكلة الأكبر هي أن البشرية لا تتعلم من خلال التجربة والخطأ. وقال “نحصل على محاولة واحدة فقط”. “في الحياة الواقعية ، يموت الجميع في المحاولة الفاشلة الأولى.”
لماذا قد يكون التباطؤ هو الخيار الآمن الوحيد
ورفض سواريس اقتراح الرائد من الذكاء الاصطناعي جيفري هينتون بأن الذكاء الاصطناعى يمكن أن تبقى آمنة من خلال إعطائها “غرائز الأم”.
وقال “إذا جربنا نهج” غرائز الأم “في الحياة الواقعية ، فمن المحتمل أن يتبين أن سلوك الأم كان ضحلًا وأن التفضيلات الأعمق لا تتحمل سوى علاقة معقدة وعصرية مع هذا الهدف التدريبي”.
كما أخبر BI أنه لا يرى القليل من الأبحاث في معظم أبحاث المحاذاة – وهو المجال الذي يحاول ضمان أنظمة الذكاء الاصطناعى القوية تتصرف فعليًا مع الأهداف البشرية ، وهو تحد يعتقد Soares أن الإنسانية لا تحصل إلا على طلقة واحدة لحلها.
وقال “البحث المباشر حول محاذاة الذكاء الاصطناعى يبدو غير واقعي في جميع المجالات ، بالنسبة لي”. “البحث في استنباط علامات التحذير بحيث يكون من الأسهل على الآخرين أن يروا مفيدة”.
وأضاف “يبدو لي أن الإنسانية تحتاج فقط إلى التراجع عن هذا واحد”.
هذا لا يعني التخلي عن الذكاء الاصطناعي تمامًا.
وقال: “قد تكون AIS تدربت بشكل ضيق على التطبيقات الطبية (وليس على مجموعة النص البشري بأكمله) أن يقطع شوطًا طويلاً في تطوير العلاجات ؛ لكن إذا بدأوا في تطوير مهارات إدراكية وعلمية عامة ، فهذه علامة تحذير”.
في كتابهم ، يجادل Soares و Yudkowsky بنفس الشيء: يجب فصل تلك الأنظمة الضيقة المفيدة عن ما يرونه كضغط متهور نحو الذكاء العام المفتوح.
“إذا كنت تعتقد أن المخاطر هنا هي 25 ٪ ، فأنت لا تدور حول النرد بنسبة 75 ٪ حتى لو كنت تعتقد أنها يوتوبيا “، قال سواريس في” العالم غير المعبأ “.
“تجد طريقة لتقليل هذه الفرص.”
سباق متهور – ولماذا حداد بالفعل
على الحوافز ، Soares هو صريح.
وقال إن بعض قادة التكنولوجيا “لديهم أيضًا عذر (ويقولون بصوت عالٍ) بأنهم يفعلون ذلك لأن شخصًا آخر سيذهب إليه ، وقد يكون كذلك”. وقال إن هذا هو السبب في أن “المجتمع ككل يجب أن يصحح من خلال وضع حد للسباق المجنون”.
أما بالنسبة لكيفية قيامه بهذا ، قال سواريس إنه حزن بالفعل منذ سنوات عندما أدرك مدى صعوبة حل المشكلة.
“عندما لاحظت القضية ولاحظت كيف كان هذا النوع من الأشياء التي من المحتمل أن تواجه الإنسانية صعوبة في حلها ، لقد حزن.
وأضاف “كل يوم ، أنا فقط امتص أي دليل جديد أراه ، وفعل ما بوسعي لجعل الموقف أفضل”. “أبعد من ذلك ، أنا فقط أسعى للعيش الحياة بشكل جيد.”

