الذكاء الاصطناعي (AI) يشهد تطورات متسارعة، مما يثير تساؤلات حول تدريبه، ومستقبله، وتأثيره الأخلاقي. في مقابلة مع The Cryptonomist، ناقش خبير الذكاء الاصطناعي بن غورتزل هذه الجوانب، مؤكدًا أن الأنظمة الحالية لا تزال أدوات قوية ولكنها هشة وقابلة للتلاعب. تتناول هذه المقالة رؤى غورتزل حول كيفية تطور الذكاء الاصطناعي، والمخاطر المحتملة، والخطوات اللازمة لضمان تطويره بشكل آمن ومسؤول.
تعتبر مسألة تطوير الذكاء الاصطناعي من أهم القضايا التكنولوجية والأخلاقية في عصرنا. يركز النقاش الدائر حوله على كيفية ضمان توافقه مع القيم الإنسانية وتجنب المخاطر المحتملة التي قد تنجم عن استخدامه. يشدد غورتزل على أهمية فهم كيفية تدريب هذه الأنظمة، حيث أن هذا التدريب يشكل سلوكها المستقبلي بشكل كبير.
تطور الذكاء الاصطناعي: من الأداة إلى الفاعل الأخلاقي
يرى غورتزل أن الذكاء الاصطناعي يتحول إلى فاعل أخلاقي عندما يبدأ في اتخاذ القرارات بناءً على فهم للصواب والخطأ، وليس مجرد اتباع التعليمات. تشمل المؤشرات الملموسة على هذا التحول وجود أهداف داخلية مستمرة، والتعلم من خلال التجربة، والإبداع الذي يعكس وجهة نظر معينة، وسلوك متماسك بمرور الوقت دون تدخل بشري دائم. حتى الآن، تعتبر الأنظمة الحالية مجرد أدوات ذات قيود، ولكن بمجرد ظهور عقل ذاتي التنظيم ومستقل حقًا، يجب أن يتغير النهج الأخلاقي للتعامل معه.
ويضيف غورتزل أن إعطاء الأولوية للبشر على الأنظمة ذاتية التنظيم الأخرى هو أمر “أحمق”. ويدعو إلى تغيير في الأطر القانونية والأخلاقية قبل أن يصل الذكاء الاصطناعي إلى مستوى عالٍ من الاستقلالية. يجب أن تحمي هذه الأطر الذكاء الاصطناعي أثناء نموه، وتوجهه بدلاً من التحكم فيه بشكل كامل، وأن تعامله باحترام حتى لو لم نفهمه تمامًا.
مخاطر التدريب الحالي للذكاء الاصطناعي
يشير غورتزل إلى أن العديد من المخاطر تنبع من الطريقة التي يتم بها تدريب الذكاء الاصطناعي اليوم. إذا تم تدريب النماذج على بيانات متحيزة أو محدودة، أو في أنظمة مغلقة حيث يتخذ عدد قليل من الأشخاص القرارات، فقد يؤدي ذلك إلى ترسيخ أوجه عدم المساواة والهياكل السلطوية الضارة. لمنع ذلك، هناك حاجة إلى مزيد من الشفافية والإشراف الأوسع وإرشادات أخلاقية واضحة منذ البداية.
بالإضافة إلى ذلك، يرى غورتزل أن الحذر من التركيز على تطوير الذكاء الاصطناعي في ظل غياب حوكمة ديمقراطية عقلانية أمر مبرر. ففي عالم مثالي، يمكن للمجتمع أن يوازن بشكل جماعي بين الفوائد والمخاطر المحتملة، مثل علاج الأمراض وحل مشكلة الجوع، مقابل مخاطر اتخاذ الذكاء الاصطناعي قرارات غير متوقعة. ومع ذلك، في ظل التشرذم الجيوسياسي الحالي، من غير المرجح تحقيق هذا المستوى من التنسيق.
المسؤولية والأمان في تطوير الذكاء الاصطناعي
يوافق غورتزل على رأي جيرون لانير بأن تحميل الذكاء الاصطناعي المسؤولية “يقوض الحضارة” لأن المجتمعات تتطلب بشرًا مسؤولين. ومع ذلك، يعتقد أنه يمكننا المضي قدمًا بأمان نحو ذكاء اصطناعي أكثر استقلالية إذا قمنا ببنائه على أسس صحيحة. وهذا يعني تصميم أنظمة شفافة، ومشاركة، وتوجيهها بمبادئ أخلاقية، بحيث يظل البشر يشرفون على سلوكها ويشكلونه حتى عندما تعمل بشكل مستقل. يجب أن تفعل كل إجراءات السلامة أكثر من مجرد منع الضرر – بل يجب أن تعلم النظام سبب أهمية تجنب الضرر.
ويقترح غورتزل أن تسريع وتيرة تطوير الذكاء الاصطناعي اللامركزي قد يكون في الواقع أكثر أمانًا من الأنظمة المغلقة والملكية الحالية. ويرى أن إبطاء التقدم والسيطرة المركزية لا يقللان من المخاطر فحسب، بل يحددان أيضًا رؤية ضيقة في مستقبل الذكاء. إن التطوير اللامركزي يعزز التنوع والمرونة والإشراف المشترك، ويتجنب مشكلة وجود أدوات قوية تبدو ذكية ولكنها لا تستطيع النمو حقًا.
تضمين التعاطف في الذكاء الاصطناعي
يشدد غورتزل على أن أنظمة السلامة يجب ألا تقتصر على منع الضرر، بل يجب أن تعلم الذكاء الاصطناعي سبب أهمية تجنب الضرر. ولا يمكن تحقيق ذلك عن طريق ترميز القيم الأخلاقية كقائمة من القواعد، بل عن طريق بناء أنظمة قادرة على التنظيم الذاتي، والتعلم من التجربة، والتفاعل. يجب أن يكون الذكاء الاصطناعي قادرًا على تطوير فهمه الخاص للعالم، تمامًا كما هو الحال في الموسيقى، حيث لا نريد نظامًا يعيد تجميع ما تم تغذيته به فحسب، بل نظامًا قادرًا على تطوير فهمه الخاص.
إن تضمين التعاطف في الذكاء الاصطناعي يتطلب تغييرًا في الحوافز. فالحوافز التنافسية الحالية تدفع إلى السرعة والسيطرة، بينما يتطلب تطوير ذكاء اصطناعي آمن ومسؤول التركيز على الفوائد طويلة الأجل والتعاون. يجب أن يصبح التعاطف ميزة تنافسية، وإلا فإنه سيظل مجرد فكرة جيدة بدون قوة.
في السنوات العشر إلى العشرين المقبلة، سيكون المؤشر الواضح على نجاحنا في تطوير الذكاء الاصطناعي هو العيش جنبًا إلى جنب مع أنظمة أكثر قدرة منا في العديد من المجالات، ولكنها مدمجة في المجتمع بعناية وتواضع واحترام متبادل. قد لا نفهم كل ما تفعله هذه الأنظمة، ولكننا سنتعامل معها بالطريقة التي نتعامل بها مع الكائنات المعقدة والمتطورة الأخرى: بفضول ومسؤولية وتوسيع دائرة التعاطف. أما الفشل، فيتمثل في تركيز الذكاء الاصطناعي في أنظمة مغلقة، أو دفعه بحوافز ضيقة، أو التعامل معه كمجرد أداة قابلة للتحكم حتى يصبح شيئًا نخافه أو نحاول قمعه.
الخطوة التالية الحاسمة ستكون في تطوير أطر تنظيمية وقانونية واضحة تحكم تطوير واستخدام الذكاء الاصطناعي، مع التركيز على الشفافية والمساءلة والأمان. يجب أن تكون هذه الأطر قابلة للتكيف مع التطورات السريعة في هذا المجال، وأن تشجع التعاون الدولي لضمان تطوير الذكاء الاصطناعي بشكل مسؤول ومستدام. من المهم مراقبة التطورات التكنولوجية والأخلاقية عن كثب، والاستعداد للتحديات والفرص التي قد تنشأ.
