2025-08-02T11: 11: 01Z
- قال العراب الاسمي لمنظمة العفو الدولية إن التكنولوجيا يمكن أن تطور لغة لا يمكن للبشر فهمها.
- اعتبارًا من الآن ، يفكر الذكاء الاصطناعي باللغة الإنجليزية ، مما يعني أن المطورين يمكنهم تتبع أفكاره – لكن هذا قد يتغير.
- ويأتي تحذيره في الوقت الذي يقترح فيه البيت الأبيض الحد من تنظيم الذكاء الاصطناعي.
قد يكون اللغويون قد قطعوا عملهم.
حذر جيفري هينتون ، ما يسمى “عراب الذكاء الاصطناعي” ، من أن هناك نقطة لا يستطيع فيها البشر فهم ما يفكر فيه الذكاء الاصطناعي أو يخطط للقيام به. اعتبارًا من الآن ، تقوم الذكاء الاصطناعى بالمنطق “سلسلة من الفكر” باللغة الإنجليزية ، مما يعني أن المطورين يمكنهم تتبع ما تفكر فيه التكنولوجيا ، كما أوضح هينتون في حلقة من البودكاست “One Decision” الذي تم بثه في 24 يوليو.
وقال “الآن يصبح الأمر أكثر مخيفًا إذا قاموا بتطوير لغاتهم الداخلية الخاصة بهم للتحدث مع بعضهم البعض” ، مضيفًا أن الذكاء الاصطناعى قد أثبتت بالفعل أنها يمكن أن تفكر في أفكار “فظيعة”.
وقال هينتون: “لن أتفاجأ إذا طوروا لغتهم الخاصة للتفكير ، وليس لدينا أي فكرة عما يفكرون فيه”. وقال إن معظم الخبراء يشتبهون في أن منظمة العفو الدولية ستصبح أكثر ذكاءً من البشر في مرحلة ما ، ومن الممكن “لن نفهم ما تفعله”.
هينتون ، الذي قضى أكثر من عقد من الزمان في Google ، هو صريح حول المخاطر المحتملة من الذكاء الاصطناعي وقال إن معظم قادة التكنولوجيا يقللون علنًا عن المخاطر ، التي يعتقد أنها تشمل نزوحًا جماعيًا للوظائف. وقال هينتون في حلقة البودكاست ، إن الأمل الوحيد في التأكد من أن الذكاء الاصطناعي لا يتحول ضد البشر.
تتسابق شركات التكنولوجيا للمضي قدماً في سباق الذكاء الاصطناعي ، حيث تقدم رواتب هائلة إلى أفضل المواهب. في 23 يوليو ، أصدر البيت الأبيض “خطة عمل منظمة العفو الدولية” تقترح الحد من التمويل المتعلق بالمنظمة العفوية للولايات ذات اللوائح “المرهقة”. كما طلبت تطوير أسرع على مراكز بيانات الذكاء الاصطناعي.