منوعات

الذكاء الاصطناعي التوليدي في الصحافة.. كيف نروّض العراف؟

جميع الآراء المنشورة تعبر فقط عن رأى كاتبها، وليست بالضرورة تعبر عن رأى الموقع

دعني أروِ قصة في البداية.. قبل شهرين تقريباً، أرسل صديق تصميماً يحمل إعلاناً عن جلسة في إحدى المناسبات العلنية الهامة، شاكياً من ركاكة النص المستخدم في الإعلان عن موعد ومحاور هذه الجلسة، فقررت اختباره خشية أن يكون منشأً عبر إحدى أدوات الذكاء الاصطناعي التوليدي؛ مثل روبوت المحادثة “تشات جي بي تي” أو غيره.

بالفعل استخدمت أداة للذكاء الاصطناعي تكشف المحتوى المنشأ بالذكاء الاصطناعي، لاختبار هذا النص الركيك المتداعي، فأظهرت أنه منشأ بالذكاء الاصطناعي التوليدي بنسبة 100%. تعجّبت من الجرأة، ورأيت أمامي باباً كبيراً مُشرعاً للغش والاحتيال يتخطّى ما قد يفعله طالب في مدرسة أو جامعة!

كتبت مقالين في مارس الماضي عن الذكاء الاصطناعي التوليدي في الصحافة، قصدت بهما التحذير والتنبيه حول المخاطر مع التشديد على الاستخدام الرشيد المسؤول للفرص التي تقدمها هذه التكنولوجيا.

صوّرت في أحد المقالين أن البعض تخيّل هذه التكنولوجيا جنّي الفانوس في ألف ليلة وليلة، وهو ما عبّر عنه أيضاً الفيسلوف السويدي نيك بوستروم، الذي يرى أن الذكاء الاصطناعي الفائق قد يلعب أدواراً ثلاثة، كما ينقل تقرير الزميلة سناء الخوري، في بي بي سي “الذكاء الاصطناعي: هل يمكن أن يصبح إلهاً؟”، فهو عرّاف قد يتنبأ ويجيب عن أسئلتنا، وجنّي قد ينفذ أوامرنا، وملك قد يدير العالم في ولاية مفتوحة!

المقال الأول: هلاوس وضلالات “ChatGPT”… حديث عن الصحافة!

المقال الثاني: هل تتبوّل البطاريق؟ هلاوس وضلالات ChatGPT

وخوفاً من اجتماع الجنّي مع العرّاف والملك، قررت إدارة بايدن أن تفرض قواعد مبدئية على عمل شركات الذكاء الاصطناعي؛ منها “تمييز المحتوى المنشأ عبرها بعلامة مائية” ترتكز القواعد على 3 مبادئ هي: السلامة والأمن والثقة، عند استخدام هذه التكنولوجيا، كبداية لتنظيم أكثر صرامة سيكون عالمياً وليس أمريكياً فحسب، بالنظر إلى المخاوف المتجسّدة دولياً، خصوصاً جدية الأوروبيين في التصدّي لمخاطره.

من ثمّ فهناك حاجة إلى ضوابط أخلاقية أو مدونة سلوك لاستخدام الذكاء الاصطناعي التوليدي في الصحافة، فنحن لن نستطيع أن نعادي التكنولوجيا أو نتهرب من استخدامها، ولا يمكن أن ننتظر التنظيم العالمي لتكنولوجيا، علمتنا الأيام أنها تجتاحنا، ثم تكون مهمتنا للأسف مقصورة على التخفيف من آثارها.

يستكشف عالم الصحافة والأخبار هذه التكنولوجيا الجامحة، ويضع يوماً بعد يوم نقاطاً على الحروف في مقاربة استخدامه لها، ستنضج مع الوقت، خاصة في ظل المخاوف التي تطرحها إساءة الاستخدام، خاصة في المجتمعات غير الديمقراطية التي تعاني من غياب سيادة القانون وهشاشة هيئات التنظيم.

في منطقتنا المسألة أشبه بسيرك غير منظم، كالذي نراه في ساحات الموالد والأعياد، المخادعون فيه أكثر من الجادين، والمهرجون فيه أكثر من الحصى، والمندسون على المهنة كُثر.

تقديس الآلة فتح باباً للمدّعين تحت لافتة الذكاء الاصطناعي، فصنعوا صخباً يصم الأذان، زعزع لدى البعض النظرة الأصيلة للصحافة، وأنتج تشويشاً كأننا نلاحق الآلة ولا نلاحق الأخبار والمصادر والقصص.

اعترى البعض شعور بالقلق والعجز مما هو قادم، بسبب المبالغة المصطنعة، وتفريغ الأشياء من جوهرها، واعتماد مرويات مخيفة عن الاستبدال للصحفيين.

لم تتخلَّ الصحافة عن حرصها وما زال هناك من يتنبه للمخاطر. كتبت فاينانشيال تايمز العريقة (135 عاماً) رسالة مفتوحة عبر رئيس التحرير لإعلام جمهورها: كيف ستتعامل مع الذكاء الاصطناعي؟ قدمت فيه رولا خلف، ما أراه نهجاً ذكياً واضحاً عن التعامل بمسؤولية مع هذه الأدوات، وأقرّت بتعهّدات بدأتها بالقول “لا شيء يهمني أكثر من ثقة القراء في الصحافة الجيدة التي ننتجها، الجودة تعني قبل كل شيء الدقة، وهذا يعني أيضاً الإنصاف والشفافية.”

بروح المهني، شدّدت على أن “المهمة لإنتاج صحافة بأعلى المعايير أكثر أهمية في هذا العصر من اللحاق بالابتكار التكنولوجي السريع”، مؤكدة أن فاينانشيال تايمز تتحمّل مسؤولية أكبر في التحلّي بالشفافية ونقل الحقائق والسعي وراء الحقيقة في وقت يمكن فيه توليد المعلومات المضللة ونشرها بسرعة وتراجع الثقة في وسائل الإعلام بشكل عام.

أفاضت في الحديث عن المخاطر “نماذح الذكاء الاصطناعي اليوم في النهاية محرك للتنبؤ، يمكنها تلفيق الحقائق فيما يسمى بـ(الهلوسة) بجانب اختلاق المراجع والروابط، ومن ثم تنتج مقالات وصوراً خاطئة، كما أنها تكرر وجهات النظر المجتمعية السائدة بما في ذلك التحيزات التاريخية.”

وتعهّدت بأن “الإنتاج الصحفي سيكون من البشر الذين هم الأفضل في تخصصاتهم ويكرّسون جهودهم لإعداد التقارير والتحليلات الصحفية عن العالم بدقة ونزاهة.”

وأقرّت أن سياسة الاستخدام للذكاء الاصطناعي ستحافظ على سجل المؤسسة العريقة في الابتكار الفعال، والاستعانة به في تقديم الخدمات للقراء والعملاء، مع تجربة أدواته بشكل مسؤول في مهام مثل استخراج البيانات وتحليل النصوص والصور والترجمة.

ووضعت قواعد لهذا الاستخدام “لن ننشئ صوراً واقعية تم إنشاؤها بالذكاء الاصطناعي التوليدي، ولكننا سنستكشف أدوات التمثيل البصري المعززة بالذكاء الاصطناعي” في إنتاج “الرسوم البيانية والصور” مع الإشراف البشري.

إذن الاستخدام مشروط لكنه لا يتجاهل الفرصة، ويفسح المجال للاستكشاف، مع إلزامية المعايير وثقافة العمل الصحفي، خاصة أن الاستخدام بتسرّع دفع لفضيحة مهنية للمنصة الإعلامية المتخصصة في التكنولوجيا CNET التي قدمت الأخبار عبر الذكاء الاصطناعي التوليدي بالكامل، فاضطرت لتصحيح أكثر من نصف ما قدمته للجمهور!

صحّحت 41 قصة من 77 قصة أنتجتها بالكامل بالذكاء الاصطناعي، كانت مليئة بالأخطاء والمعلومات التي ربما تكون مسروقة، والتي نُشرت دون أي تدقيق بشري.

تُلمْلم CNET خطيئتها المهنية بإقرار سياسة جديدة من خلال أداة مساعدة للذكاء الاصطناعي RAMP خاضعة تماماً للإشراف البشري، بل وقّعت اتفاقاً مع نقابة العاملين بها حتى تكون شفافة في مسألة التوظيف وإحلال التكنولوجيا في غرفة الأخبار؛ مما يُعتبر السابقة الأولى من نوعها لحماية الصحفيين من أنظمة الذكاء الاصطناعي.

ووعدت CNET ، مثلما فعلت فاينانشيال تايمز، بأنه لن تتم كتابة القصص بالكامل باستخدام أداة الذكاء الاصطناعي، وسيتم إجراء المراجعات العملية واختبار المحتوى من قبل البشر، ولن تنشر صوراً أو مقاطع فيديو منشأة بالذكاء الاصطناعي، وسيكون الاستخدام مقصوراً على فرز وتحليل البيانات وتحليل النصوص وإنشاء خطوط عريضة عند الإعداد للقصص الإخبارية وإنشاء المحتوى التوضيحي.

إذن هو استخدام فيما يفيد وبما يفيد دون تسلّط للآلة أو خضوع في عبودية ما، فليست هناك آلهة في الصحافة، لا يمكن أن نستسلم لنبوءة عرّاف، أو يسلبنا ملك حكمنا الذاتي، ولن تفلح معنا حيل جنّي أو عفريت؛ لأننا بشر ولدينا عقول، نتسيّد الآلة ولا تتسيّدنا الآلة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button