يعتقد الرئيس التنفيذي للأنثروبور أنه قد يكون من المستحيل تحذير الناس من مخاطر الذكاء الاصطناعي – لكنه لا يزال سيحاول

- قال الرئيس التنفيذي للأنثروبور داريو أمودي إنه على الرغم من أن فوائد الذكاء الاصطناعي كبيرة ، فهي المخاطر.
- قال Amodei في “شوكة هاردة” إنه قلق بشأن تهديدات الأمن القومي وإساءة استخدام الذكاء الاصطناعي.
- وهو يعتقد أنه من الممكن معالجة مخاطر الذكاء الاصطناعى دون التخلي عن الحلول التي توفرها.
قال الرئيس التنفيذي للأنثروبور داريو أمودي إن الناس لا يزالون لا يأخذون الذكاء الاصطناعى على محمل الجد – لكنه يتوقع أن يتغير ذلك خلال العامين المقبلين.
“أعتقد أن الناس سوف يستيقظون على كل من المخاطر والفوائد” ، قال أمودي في حلقة من “شوكة الصعوبة في نيويورك تايمز” ، مضيفًا أنه قلق من أن الإدراك سيصل إلى “صدمة”.
وقال أمودي: “وكلما استطعنا أن نحقق الناس – وهذا ربما لم يكن ذلك ممكنًا ، لكنني أريد أن أحاول”. “كلما كان بإمكاننا أن نحقق الناس ، كلما ارتفع احتمالية – حتى لو كان لا يزال منخفضًا للغاية – للاستجابة العاقلة والعقلانية.”
يتوقع المتفائلون حول التكنولوجيا أن يظاهر من الذكاء الاصطناعي القوي لإسقاط الحواجز التي تحول دون “عمل المعرفة” المتخصصة التي كانت أداءها بشكل حصري من قبل المهنيين المتخصصين. من الناحية النظرية ، فإن الفوائد هائلة – مع التطبيقات التي يمكن أن تساعد في حل كل شيء من أزمة المناخ إلى تفشي الأمراض المميتة. لكن المخاطر المقابلة ، كما قال أمودي ، كبير نسبيًا.
وقال أمودي: “إذا نظرت إلى سياسة التحجيم المسؤولة ، فهذا ليس سوى الذكاء الاصطناعي ، والاستقلالية ، و CBRN – الكيميائية ، البيولوجية ، الإشعاعية ، النووية”. “يتعلق الأمر بسوء استخدام المتشددين في استقلالية الذكاء الاصطناعي التي يمكن أن تكون تهديدات لحياة الملايين من الناس. هذا هو ما يقلقه الإنسان في الغالب”.
وقال إن إمكانية “إساءة الاستخدام” من قبل الممثلين السيئين يمكن أن تصل بمجرد “2025 أو 2026” ، على الرغم من أنه لا يعرف متى قد يمثل “خطرًا حقيقيًا” بالضبط.
وقال أمودي: “أعتقد أنه من المهم للغاية أن نقول إن هذا لا يتعلق ،” أوه ، هل أعطاني النموذج التسلسل لهذا الشيء؟ هل أعطاني كتاب طبخ لصنع الميثيل أو شيء من هذا؟ ” “هذا سهل. يمكنك القيام بذلك مع Google. لا نهتم بذلك على الإطلاق.”
وأضاف: “نحن نهتم بهذا النوع من المعرفة الباطنية ، عالية ، غير شائعة ، على سبيل المثال ، مجرد دكتوراه في علم الفيروسات أو شيء ما”. “كم يساعد في ذلك؟”
إذا كان بإمكان الذكاء الاصطناعى أن يعمل كبديل للتعليم العالي المتخصصة ، يوضح Amodei ، “لا يعني ذلك أننا سنموت جميعًا من الطاعون غدًا”. ولكن هذا يعني أن سلالة جديدة من الخطر قد دخلت في اللعب.
“هذا يعني وجود خطر جديد في العالم” ، وقال Amodei. “يوجد ناقل تهديد جديد في العالم كما لو كنت سهلة فقط بناء سلاح نووي.”
تخصيص الجهات الفاعلة الفردية جانباً ، تتوقع Amodei أن يكون لـ AI آثار هائلة على التكنولوجيا العسكرية والأمن القومي. على وجه الخصوص ، قال Amodei إنه يشعر بالقلق من أن “الذكاء الاصطناعى يمكن أن يكون محركًا من الاستبداد”.
وقال آمودي: “إذا كنت تفكر في الحكومات القمعية ، فإن حدود مدى قمعها يمكن وضعها عمومًا بما يمكنهم الحصول على المنفذين ، ومنفذيهم البشريون للقيام به”. “ولكن إذا لم يعد المنفذون بشريين ، فإن ذلك يبدأ في رسم بعض الاحتمالات المظلمة للغاية.”
أشار Amodei إلى روسيا والصين كمجالات خاصة بالقلق وقال إنه يعتقد أنه من الأهمية بمكان أن تظل الولايات المتحدة “حتى مع الصين” من حيث تنمية الذكاء الاصطناعي. وأضاف أنه يريد التأكد من أن “الديمقراطيات الليبرالية” تحتفظ بما يكفي من الرافعة المالية وميزة كافية في التكنولوجيا “للتحقق من انتهاكات السلطة ، ومنع التهديدات للأمن القومي.
لذا ، كيف يمكن تخفيف المخاطر دون فوائد الركبة؟ إلى جانب تنفيذ الضمانات أثناء تطوير الأنظمة نفسها وتشجيع الرقابة التنظيمية ، لا يتمتع Amodei بأي إجابات سحرية ، لكنه يعتقد أنه يمكن القيام به.
وقال آمودي: “يمكنك بالفعل أن يكون لديك كليهما. هناك طرق لمعالجة المخاطر جراحياً وبعناية دون إبطاء الفوائد كثيرًا ، إن وجد”. “لكنهم يحتاجون إلى دقة ، ويتطلبون محادثة معقدة.”
وقال أمودي إن نماذج الذكاء الاصطناعى “يصعب التحكم فيها إلى حد ما”. لكن الوضع ليس “ميؤوس منه”.
وقال “نحن نعرف كيفية صنع هذه”. “لدينا نوع من الخطة لكيفية جعلها آمنة ، لكنها ليست خطة ستعمل بشكل موثوق حتى الآن. نأمل أن نفعل ما هو أفضل في المستقبل.”
(tagstotranslate) منظمة العفو الدولية (T) الناس (T) الرئيس التنفيذي للأنثروبور (T) الإنسان (T) Amodei (T) مخاطر AI (T) الفوائد (T) التكنولوجيا (T) الصين (T) التهديد (T) الأمن القومي (T) تنمية AI (T) HARDCORE IRSISE (T)