الاسواق العالمية

مع تزايد اعتماد الذكاء الاصطناعي، يواجه المطورون تحديًا يتمثل في التعامل مع المخاطر

  • وفي اجتماع مائدة مستديرة حول الذكاء الاصطناعي في نوفمبر، قال المطورون إن أدوات الذكاء الاصطناعي تلعب دورًا رئيسيًا في البرمجة.
  • وقالوا إنه على الرغم من أن الذكاء الاصطناعي يمكن أن يعزز الإنتاجية، إلا أنه يجب على أصحاب المصلحة فهم حدوده.
  • هذه المقالة جزء من “CXO AI Playbook” – حديث مباشر من قادة الأعمال حول كيفية اختبار الذكاء الاصطناعي واستخدامه.

في اجتماع مائدة مستديرة لموقع Business Insider في نوفمبر/تشرين الثاني، قال نيراج فيرما، رئيس قسم الذكاء الاصطناعي التطبيقي في نيس، إن الذكاء الاصطناعي التوليدي “يجعل المطور الجيد أفضل والمطور الأسوأ أسوأ”.

وأضاف أن بعض الشركات تتوقع أن يكون الموظفون قادرين على استخدام الذكاء الاصطناعي لإنشاء صفحة ويب أو ملف HTML ونسخ الحلول ولصقها ببساطة في التعليمات البرمجية الخاصة بهم. وقال: “في الوقت الحالي، يتوقعون أن يكون الجميع مطورين”.

خلال الحدث الافتراضي، ناقش مطورو البرامج من شركات مثل Meta وSlack وAmazon وSlalom وغيرها كيفية تأثير الذكاء الاصطناعي على أدوارهم ومساراتهم المهنية.

وقالوا إنه على الرغم من أن الذكاء الاصطناعي يمكن أن يساعد في مهام مثل كتابة التعليمات البرمجية الروتينية وترجمة الأفكار بين لغات البرمجة، إلا أن مهارات البرمجة الأساسية ضرورية لاستخدام أدوات الذكاء الاصطناعي بشكل فعال. يعد توصيل هذه الحقائق إلى أصحاب المصلحة غير التقنيين تحديًا أساسيًا للعديد من مطوري البرامج.

فهم القيود

البرمجة ليست سوى جزء واحد من وظيفة المطور. مع تزايد اعتماد الذكاء الاصطناعي، قد يصبح الاختبار وضمان الجودة أكثر أهمية للتحقق من دقة العمل الناتج عن الذكاء الاصطناعي. ويتوقع مكتب الولايات المتحدة لإحصاءات العمل أن ينمو عدد مطوري البرمجيات، ومحللي ضمان الجودة، والمختبرين بنسبة 17% في العقد المقبل.

يمكن للتوقعات المتعلقة بالإنتاجية أن تطغى على المخاوف المتعلقة بأخلاقيات الذكاء الاصطناعي وأمنه.

وقال إيجور أوستروفسكي، أحد مؤسسي شركة Augment، خلال المائدة المستديرة: “إن التفاعل مع ChatGPT أو Cloud AI سهل للغاية وطبيعي لدرجة أنه قد يكون من المفاجئ مدى صعوبة التحكم في سلوك الذكاء الاصطناعي”. “في الواقع، من الصعب للغاية، وهناك الكثير من المخاطرة، محاولة جعل الذكاء الاصطناعي يتصرف بطريقة تمنحك باستمرار تجربة مستخدم مبهجة يتوقعها الناس.”

واجهت الشركات بعضًا من هذه المشكلات في عمليات إطلاق الذكاء الاصطناعي الأخيرة. تبين أن برنامج Copilot الخاص بشركة Microsoft يواجه مشكلات تتعلق بالمشاركة الزائدة وأمن البيانات، على الرغم من قيام الشركة بإنشاء برامج داخلية لمعالجة المخاطر. يستثمر عمالقة التكنولوجيا مليارات الدولارات في تكنولوجيا الذكاء الاصطناعي، وتخطط مايكروسوفت وحدها لإنفاق أكثر من 100 مليار دولار على وحدات معالجة الرسومات ومراكز البيانات لتشغيل الذكاء الاصطناعي بحلول عام 2027، ولكن ليس بنفس القدر في حوكمة الذكاء الاصطناعي وأخلاقياته وتحليل المخاطر.

تكامل الذكاء الاصطناعي في الممارسة العملية

بالنسبة للعديد من المطورين، تعد إدارة توقعات أصحاب المصلحة – إيصال الحدود والمخاطر والجوانب المهملة للتكنولوجيا – جزءًا صعبًا ولكنه بالغ الأهمية من الوظيفة.

قالت كيشا ويليامز، رئيسة هندسة وهندسة المؤسسات في Slalom، في المائدة المستديرة إن إحدى الطرق لسد هذه المحادثة مع أصحاب المصلحة هي تحديد حالات استخدام محددة للذكاء الاصطناعي. إن التركيز على تطبيقات التكنولوجيا يمكن أن يسلط الضوء على المخاطر المحتملة مع مراقبة الصورة الكبيرة.

وقال فيرما: “المطورون الجيدون يفهمون كيفية كتابة التعليمات البرمجية الجيدة وكيفية دمج التعليمات البرمجية الجيدة في المشاريع”. “إن ChatGPT هي مجرد أداة أخرى للمساعدة في كتابة بعض التعليمات البرمجية التي تناسب المشروع.”

توقع أوستروفسكي أن الطرق التي يتعامل بها الموظفون مع الذكاء الاصطناعي ستتغير على مر السنين. وقال إنه في عصر التكنولوجيا سريعة التطور، سيحتاج المطورون إلى “الرغبة في التكيف والتعلم والقدرة على حل المشكلات الصعبة”.

(علامات للترجمة) اعتماد الذكاء الاصطناعي (ر) المخاطر (ر) المطلعين على الأعمال (ر) التحدي (ر) مطور البرامج (ر) الشركة (ر) تقنية الذكاء الاصطناعي (ر) أصحاب المصلحة غير التقنيين (ر) الكود (ر) التوقعات (ر) أخلاقيات الذكاء الاصطناعي (ر) الأمن (ر) الوظيفة (ر) رئيس (ر) مايكروسوفت

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى