تواجه الشركات تحديات متزايدة في أمن الذكاء الاصطناعي، حيث أن الفرق المتخصصة في الأمن السيبراني التقليدي قد لا تكون مستعدة بشكل كامل لفهم وطريقة تعامل أنظمة الذكاء الاصطناعي مع حالات الفشل المختلفة. ويشير خبراء الأمن إلى أن هذا يتطلب مهارات ومعرفة متخصصة تتجاوز مجرد تصحيح الأخطاء البرمجية التقليدية.
صرح ساندر شولهوف، الباحث في مجال أمن الذكاء الاصطناعي ومؤلف أحد أوائل أدلة هندسة المطالبات، بأن العديد من المؤسسات تفتقر إلى الكفاءات اللازمة لفهم ومعالجة المخاطر الأمنية المرتبطة بالذكاء الاصطناعي. جاء ذلك في حلقة من بودكاست “Lenny’s Podcast” نُشرت يوم الأحد. وأضاف شولهوف أن الفجوة في المهارات هذه تمثل تحديًا كبيرًا في ظل الاعتماد المتزايد على هذه الأنظمة.
تحديات فريدة في أمن الذكاء الاصطناعي
فرق الأمن السيبراني التقليدية مدربة على إصلاح الأخطاء ومعالجة الثغرات الأمنية المعروفة، لكن الذكاء الاصطناعي لا يعمل بهذه الطريقة. كما قال شولهوف: “يمكنك إصلاح خطأ برمجي، ولكن لا يمكنك إصلاح عقل”. هذا يوضح الاختلاف الجوهري في طريقة تفكير فرق الأمن مقارنة بكيفية فشل نماذج اللغة الكبيرة.
على عكس البرامج التقليدية، يمكن التلاعب بأنظمة الذكاء الاصطناعي من خلال اللغة والتعليمات غير المباشرة. وهذا يعني أن تقييمات الأمان التقليدية التي تركز على العيوب التقنية قد لا تكون كافية. يجب على المتخصصين أيضًا التفكير في كيفية استغلال المهاجمين لهذه الأنظمة من خلال التلاعب بالمدخلات اللغوية.
وفقًا لشولهوف، فإن الأشخاص الذين لديهم خبرة في كل من أمن الذكاء الاصطناعي والأمن السيبراني سيكونون مجهزين بشكل أفضل للتعامل مع مثل هذه السيناريوهات. على سبيل المثال، سيكونون قادرين على تشغيل التعليمات البرمجية الضارة في بيئة معزولة لضمان عدم تأثيرها على بقية النظام.
وأضاف أن التقاطع بين أمن الذكاء الاصطناعي والأمن السيبراني التقليدي هو المكان الذي تكمن فيه “وظائف الأمن المستقبلية”. هذا يشير إلى الطلب المتزايد على المهنيين الذين يمكنهم سد هذه الفجوة في المهارات.
صعود الشركات الناشئة المتخصصة في أمن الذكاء الاصطناعي
يشهد قطاع أمن الذكاء الاصطناعي نموًا سريعًا في عدد الشركات الناشئة التي تقدم حلولًا أمنية متخصصة. ومع ذلك، حذر شولهوف من أن العديد من هذه الشركات تروج لـ “حواجز الحماية” التي لا توفر حماية حقيقية. ويرجع ذلك إلى أنه يمكن التلاعب بأنظمة الذكاء الاصطناعي بطرق لا حصر لها، مما يجعل من المستحيل على أي أداة أن “تلتقط كل شيء”.
وقال شولهوف: “هذا كذب كامل”، متوقعًا حدوث تصحيح في السوق حيث “ستجف الإيرادات تمامًا لهذه الشركات التي تقدم حواجز حماية واختبارات أمنية آلية”. هذا يشير إلى أن المستثمرين قد يصبحون أكثر حذرًا بشأن تقييم هذه الشركات الناشئة.
وقد شهد قطاع أمن الذكاء الاصطناعي تدفقًا كبيرًا من الاستثمارات في الآونة الأخيرة. وقد ضخت شركات التكنولوجيا الكبرى وصناديق رأس المال الاستثماري أموالًا في هذا المجال مع سعي الشركات جاهدة لتأمين أنظمة الذكاء الاصطناعي الخاصة بها. في مارس الماضي، استحوذت جوجل على شركة Wiz للأمن السيبراني مقابل 32 مليار دولار، في صفقة تهدف إلى تعزيز أعمالها الأمنية السحابية.
وأكد سوندار بيتشاي، الرئيس التنفيذي لشركة جوجل، أن الذكاء الاصطناعي يقدم “مخاطر جديدة” في وقت تتزايد فيه البيئات السحابية المختلطة والمتعددة. وأضاف أن المؤسسات تبحث عن حلول أمنية سيبرانية تعمل على تحسين أمن السحابة وتغطي السحب المتعددة.
وقد أدى تزايد المخاوف الأمنية بشأن نماذج الذكاء الاصطناعي إلى ظهور موجة من الشركات الناشئة التي تقدم أدوات لمراقبة واختبار وتأمين هذه الأنظمة، كما ذكرت تقارير سابقة. هذا يشير إلى أن التهديدات السيبرانية المرتبطة بالذكاء الاصطناعي أصبحت ذات أهمية متزايدة.
مستقبل أمن الذكاء الاصطناعي
من المتوقع أن يستمر الطلب على حلول أمن الذكاء الاصطناعي في النمو مع استمرار انتشار هذه التقنيات. ومع ذلك، من المهم أن نكون واقعيين بشأن القيود المفروضة على الأدوات الحالية وأن نركز على تطوير مهارات ومعرفة متخصصة. يجب على الشركات الاستثمار في تدريب فرق الأمن السيبراني لديها على فهم المخاطر الفريدة المرتبطة بالذكاء الاصطناعي.
في المستقبل القريب، من المحتمل أن نشهد المزيد من عمليات الاستحواذ والاندماج في قطاع أمن الذكاء الاصطناعي مع سعي الشركات الكبرى إلى تعزيز قدراتها في هذا المجال. كما يجب مراقبة التطورات التنظيمية المتعلقة بأمن الذكاء الاصطناعي، حيث قد تفرض الحكومات معايير ولوائح جديدة لضمان الاستخدام الآمن والمسؤول لهذه التقنيات.
التركيز المستقبلي سيكون على تطوير أساليب أكثر فعالية للكشف عن التلاعب بنماذج الذكاء الاصطناعي والاستجابة له، بالإضافة إلى بناء أنظمة أكثر مرونة وقدرة على التعافي من الهجمات.
