أظهرت دراسة حديثة أجراها باحثون في جامعة ستانفورد تفوق وكيل الذكاء الاصطناعي (AI) الذي طوروه، والمعروف باسم ARTEMIS، على خبراء الأمن السيبراني المحترفين في اكتشاف الثغرات الأمنية. فقد تمكن الوكيل الذكي من تحديد نقاط الضعف في شبكات الكمبيوتر بالجامعة، العامة والخاصة، خلال 16 ساعة من العمل، متفوقًا على البشر في هذا المجال، وذلك باستخدام تقنيات اختبار الاختراق المتقدمة.

وقد تم إجراء الاختبار على شبكة الجامعة التي تضم حوالي 8000 جهاز، بما في ذلك الخوادم وأجهزة الكمبيوتر والأجهزة الذكية. أظهرت النتائج أن ARTEMIS اكتشف تسع ثغرات أمنية صالحة بمعدل دقة 82% خلال أول 10 ساعات من التشغيل، متفوقًا بذلك على تسعة من أصل عشرة خبراء أمن سيبراني شاركوا في التجربة.

الذكاء الاصطناعي و اختبار الاختراق: تحول في المشهد الأمني

تأتي هذه الدراسة في وقت يشهد فيه مجال الأمن السيبراني تطورات متسارعة في استخدام الذكاء الاصطناعي. فقد أصبحت الأدوات التي تعتمد على الذكاء الاصطناعي أكثر شيوعًا في عمليات التقييم الأمني، مما يثير تساؤلات حول مستقبل دور خبراء الأمن البشريين. تكلفة تشغيل ARTEMIS منخفضة نسبيًا، حيث تبلغ حوالي 18 دولارًا في الساعة للإصدار الأساسي و 59 دولارًا للإصدار الأكثر تقدمًا، مقارنة بمتوسط راتب سنوي يبلغ حوالي 125 ألف دولار للمختبرين المتخصصين.

كيف يعمل ARTEMIS؟

يعمل ARTEMIS بطريقة مختلفة عن المختبرين البشريين. عندما يكتشف الوكيل الذكي شيئًا “جديرًا بالملاحظة” في عملية المسح، فإنه يقوم بتشغيل “وكلاء فرعيين” إضافيين للتحقيق في الخلفية، مما يسمح له بفحص أهداف متعددة في وقت واحد. هذه القدرة على المعالجة المتوازية تمنحه ميزة كبيرة على البشر الذين يجب عليهم إجراء هذه العمليات خطوة بخطوة.

ومع ذلك، فإن ARTEMIS ليس مثاليًا. واجه الوكيل صعوبة في إكمال المهام التي تتطلب التفاعل مع واجهات المستخدم الرسومية، مما أدى إلى إغفال ثغرة أمنية حرجة. كما أنه أكثر عرضة للإنذارات الكاذبة، حيث قد يخطئ في تحديد الرسائل الشبكية غير الضارة على أنها علامات على اختراق ناجح.

أشار الباحثون إلى أن ARTEMIS يتفوق بشكل خاص عندما تكون واجهات المستخدم الرسومية غير متاحة، حيث أنه يعتمد على تحليل التعليمات البرمجية والمدخلات والمخرجات المشابهة لها.

تزايد استخدام الذكاء الاصطناعي في الهجمات السيبرانية

بالتوازي مع تطوير أدوات الدفاع السيبراني التي تعتمد على الذكاء الاصطناعي، يشهد العالم تزايدًا في استخدام الذكاء الاصطناعي من قبل الجهات الخبيثة لتنفيذ هجمات سيبرانية أكثر تطوراً.

في سبتمبر الماضي، استخدمت مجموعة قرصنة كورية شمالية ChatGPT لإنشاء هويات عسكرية مزيفة في رسائل التصيد الاحتيالي. ووفقًا لتقرير صادر عن Anthropic في أغسطس، استخدم عملاء كوريون شماليون نموذج Claude الخاص بهم للحصول على وظائف عن بعد احتيالية في شركات تكنولوجيا أمريكية كبيرة، مما منحهم وصولاً داخليًا إلى الأنظمة المؤسسية.

كما ذكر التقرير أن جهة فاعلة صينية استخدمت Claude لتنفيذ هجمات إلكترونية على أنظمة الاتصالات والزراعة والحكومة الفيتنامية. ويشير خبراء الأمن إلى أن هذه الحوادث تعكس اتجاهًا مقلقًا نحو تسهيل عمليات القرصنة والتضليل من خلال استخدام الذكاء الاصطناعي.

يقول يوفال فيرنباخ، الرئيس التنفيذي للتكنولوجيا في شركة JFrog المتخصصة في أمن سلسلة التوريد، إنهم “يشهدون العديد من الهجمات” حيث يستخدم المتسللون نماذج الذكاء الاصطناعي لاستخراج البيانات أو تعطيل الأنظمة أو التلاعب بالمواقع الإلكترونية والأدوات.

تُظهر هذه النتائج أن الذكاء الاصطناعي يغير قواعد اللعبة في مجال الأمن السيبراني، سواء من خلال تعزيز قدرات الدفاع أو من خلال تسهيل عمليات الهجوم.

من المتوقع أن يستمر الباحثون في تطوير ARTEMIS وتحسين قدراته، مع التركيز على معالجة نقاط الضعف الحالية، مثل صعوبة التعامل مع الواجهات الرسومية وتقليل الإنذارات الكاذبة. كما أنهم يخططون لإجراء المزيد من الاختبارات في بيئات أكثر واقعية لتقييم أداء الوكيل الذكي بشكل أفضل.

في المستقبل القريب، من المرجح أن نشهد المزيد من الأدوات التي تعتمد على الذكاء الاصطناعي في مجال الأمن السيبراني، مما سيؤدي إلى سباق تسلح مستمر بين المدافعين والمهاجمين. سيكون من الضروري مراقبة هذه التطورات عن كثب وتقييم تأثيرها على المشهد الأمني العالمي.

شاركها.