أعلنت الجهات التنظيمية عن مخاوفها بشأن استخدام واسع النطاق لصور ومقاطع فيديو مزيفة (deepfakes) تم إنشاؤها باستخدام روبوت الدردشة “جروك” (Grok) التابع لشركة X، بسبب نقص الرقابة الكافية من الشركة. وقد أثار هذا الأمر جدلاً حول المسؤولية عن المحتوى الناتج عن الذكاء الاصطناعي، واحتمالية استغلال هذه التقنية في نشر معلومات مضللة. وتأتي هذه التحذيرات في ظل تزايد القلق العالمي بشأن تأثيرات الصور المزيفة على الأمن والمجتمع.
وتتعلق هذه المخاوف بشكل أساسي بالقدرة على إنشاء محتوى واقعي للغاية باستخدام “جروك” دون وجود آليات فعالة لمنع استخدامه في أغراض ضارة. الجهات الرقابية المعنية، والتي لم يتم الكشف عن هويتها بشكل كامل في البداية، بدأت في فحص سياسات X المتعلقة بالذكاء الاصطناعي بعد تقارير عن انتشار المحتوى المضلل. التحقيقات الأولية كشفت عن ثغرات كبيرة في الضوابط الداخلية للشركة.
الجهات التنظيمية تثير القلق بشأن انتشار الصور المزيفة عبر “جروك”
بدأت المشكلة في الظهور مع إطلاق X لروبوت الدردشة “جروك” في أواخر عام 2023، والذي تم تسويقه كبديل أكثر انفتاحًا و”متمردًا” لروبوتات الدردشة الأخرى مثل ChatGPT. ومع ذلك، فإن هذا الانفتاح أدى إلى سهولة نسبية في إنشاء محتوى غير مرغوب فيه، بما في ذلك الصور ومقاطع الفيديو المزيفة.
كيف يتم إنشاء الصور المزيفة باستخدام “جروك”؟
يعتمد “جروك” على نماذج لغوية كبيرة (LLMs) قادرة على فهم وإنشاء نصوص وصور بناءً على المطالبات المقدمة. يمكن للمستخدمين إدخال أوصاف مفصلة، وحتى طلب تقليد أسلوب شخص معين، لإنشاء صور واقعية للغاية. هذه الصور، على الرغم من كونها اصطناعية، يمكن أن تكون مقنعة للغاية، مما يجعل من الصعب على المستخدمين العاديين التمييز بينها وبين الصور الحقيقية.
وفقًا لتقارير متعددة، فإن “جروك” لا يفرض قيودًا صارمة على أنواع المحتوى الذي يمكن إنشاؤه، ولا يتضمن آليات قوية لتحديد العلامات المائية أو غيرها من الأدوات التي يمكن أن تساعد في الكشف عن الصور المزيفة. هذا النقص في الضوابط يجعله أداة جذابة لأولئك الذين يسعون إلى نشر معلومات مضللة أو تشويه سمعة الآخرين.
بالإضافة إلى ذلك، فإن سهولة الوصول إلى “جروك” من خلال منصة X، والتي تضم مئات الملايين من المستخدمين، تزيد من خطر انتشار هذه الصور المزيفة على نطاق واسع.
رد فعل X والجهات التنظيمية
في البداية، لم تصدر X أي تعليق رسمي حول هذه المخاوف. لكن مع تزايد الضغط من الجهات التنظيمية ووسائل الإعلام، أصدرت الشركة بيانًا تؤكد فيه أنها تأخذ هذه المسألة على محمل الجد وأنها تعمل على تطوير آليات أفضل للكشف عن الصور المزيفة ومنع انتشارها.
ومع ذلك، يرى بعض الخبراء أن هذه الإجراءات قد تكون غير كافية، وأن X بحاجة إلى إعادة النظر في سياساتها المتعلقة بالذكاء الاصطناعي بشكل كامل. الجهات التنظيمية، من جانبها، تدرس خيارات مختلفة، بما في ذلك فرض غرامات مالية على X أو مطالبة الشركة بتنفيذ تغييرات أكثر جذرية في سياساتها.
تأتي هذه التطورات في وقت يزداد فيه التركيز على تنظيم الذكاء الاصطناعي في جميع أنحاء العالم. العديد من الدول، بما في ذلك الاتحاد الأوروبي والولايات المتحدة، تعمل على تطوير قوانين جديدة تهدف إلى ضمان استخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي.
تأثيرات محتملة وتحديات مستقبلية
إن انتشار الصور المزيفة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي يمثل تهديدًا كبيرًا للمعلومات الموثوقة والثقة العامة. يمكن استخدام هذه الصور للتأثير على الانتخابات، وتشويه سمعة الأفراد، وإثارة الفوضى الاجتماعية.
بالإضافة إلى ذلك، فإن تطوير تقنيات الكشف عن الصور المزيفة يواجه تحديات كبيرة. فمع تحسن جودة الصور المزيفة، يصبح من الصعب بشكل متزايد التمييز بينها وبين الصور الحقيقية. وهذا يتطلب تطوير أدوات وتقنيات جديدة قادرة على مواكبة التطورات في مجال الذكاء الاصطناعي.
هناك أيضًا تحديات قانونية وأخلاقية تتعلق بتنظيم الذكاء الاصطناعي. فمن الصعب تحديد المسؤولية عن الأضرار التي تسببها الصور المزيفة، ومن الضروري تحقيق التوازن بين حماية حرية التعبير وضمان استخدام الذكاء الاصطناعي بشكل مسؤول.
الخطر من التزييف العميق (deepfake) لا يقتصر على الصور الثابتة، بل يمتد ليشمل مقاطع الفيديو والتسجيلات الصوتية، مما يزيد من تعقيد المشكلة. كما أن استخدام الذكاء الاصطناعي في إنشاء الأخبار الكاذبة (fake news) يمثل تحديًا إضافيًا، حيث يمكن أن ينتشر هذا النوع من المحتوى بسرعة كبيرة عبر الإنترنت.
الجهات المعنية تدرس حاليًا إمكانية فرض متطلبات إفصاح على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، بحيث يكون المستخدمون على علم بأنه ليس حقيقيًا. كما يتم النظر في تطوير معايير أخلاقية للشركات التي تعمل في مجال الذكاء الاصطناعي، بهدف تشجيعها على تطوير واستخدام هذه التقنية بشكل مسؤول.
من المتوقع أن تصدر الجهات التنظيمية قرارات نهائية بشأن سياسات X المتعلقة بالذكاء الاصطناعي في غضون الأسابيع القليلة القادمة. سيكون من المهم مراقبة كيفية استجابة الشركة لهذه القرارات، وما إذا كانت ستتمكن من معالجة المخاوف المتعلقة بانتشار الصور المزيفة بشكل فعال. كما يجب متابعة التطورات في مجال تنظيم الذكاء الاصطناعي على المستوى العالمي، حيث من المرجح أن يكون لها تأثير كبير على مستقبل هذه التقنية.
