لقد جربت الإصدار التجريبي من وضع الصوت المتقدم في ChatGPT. وإليك ما يمكنك توقعه عند إطلاقه هذا الأسبوع.
كانت ميزة الصوت التي تعمل بتقنية GPT-4o شبيهة بالإنسان إلى حد مخيف، وغازلة إلى حد ما، وأعطت لمحة عن شكل روبوتات الدردشة التي تعمل بالذكاء الاصطناعي في المستقبل. توفر الميزة للمستخدمين محادثات طبيعية في الوقت الفعلي يمكنك مقاطعتها في أي وقت. كما أنها تستشعر عواطفك وتستجيب لها، وفقًا لشركة OpenAI.
بعد عدة أشهر من الترقب – ومعركة قانونية مع Scarlet Johanson – بدأت OpenAI أخيرًا في طرح وضع الصوت المتقدم الذي طال انتظاره لمستخدمي ChatGPT Plus و Team يوم الثلاثاء.
وستبدأ الشركة أيضًا في تقديم الميزة لمستخدمي Enterprise وEdu في الأسبوع المقبل، على الرغم من أنها غير متاحة بعد للاتحاد الأوروبي والمملكة المتحدة وسويسرا وأيسلندا والنرويج وليختنشتاين، وفقًا لما ذكرته الشركة لموقع Business Insider.
ستطلق OpenAI أيضًا خمسة أصوات جديدة لوضعي الصوت القياسي والمتقدم بالإضافة إلى الأصوات الأربعة المتوفرة بالفعل. ستعرف أنه يمكنك الوصول إلى الميزة الجديدة بمجرد رؤية رسالة منبثقة بجوار نقطة الدخول إلى وضع الصوت.
لقد قمت بتجربة الإصدار التجريبي من Advanced Voice Mode على مدار الأسبوعين الماضيين، لذا إليك ما يمكنك توقعه بمجرد حصولك على حق الوصول.
إنه مسلي للغاية
إنه لا يصبح قديمًا – أو على الأقل لم يصبح قديمًا بالنسبة لي بعد.
كانت القدرة على مقاطعة روبوت المحادثة أثناء الرد تجربة مرضية بشكل غريب جعلتني أشعر بالسيطرة. كما خففت من الإحباط الناتج عن الاضطرار إلى الذهاب والإياب مع مساعد افتراضي لم يسمعني بشكل صحيح في المرة الأولى.
لقد استمتعت أيضًا بتشغيل وضع الصوت المتقدم أمام الآخرين ورؤية أفواههم تنفتح عندما يستجيب. إنه أمر غريب بعض الشيء كيف يبدو الصوت بشريًا، ولكنه أيضًا مثير للإعجاب بشكل لا يصدق.
إن نغمة الصوت تكاد تكون خالية من العيوب، وكل شيء من توقفاته المدروسة إلى الضحك على نكاته يخلق تجربة سريالية. لاختبار فهمه لموضوعات أكثر تعقيدًا، أعطيته أسئلة اختبار SAT النموذجية وطلبت منه اختيار الإجابة الصحيحة. تولى دور المعلم وأرشدني خلال الحلول خطوة بخطوة – والحصول على الإجابات الصحيحة.
على الرغم من أنني كنت متمسكًا في الأساس بصوت Breeze، إلا أن الخيارات المتنوعة للأصوات قدمت لمحة عن كيفية تمكن الأشخاص من تخصيص تجربتهم. وللمرة الأولى، فهمت كيف يمكن للأشخاص استخدام الذكاء الاصطناعي كرفيق.
دقة الاستجابة ليست موجودة بعد
على الرغم من أن العديد من الردود الفردية التي تلقيتها من وضع الصوت المتقدم كانت دقيقة ومفيدة، إلا أن محادثاتي الإجمالية كانت أقل نجاحًا.
كان روبوت المحادثة يتوقف أحيانًا عن الاستماع لصوتي أو يبدأ متأخرًا. وقال متحدث باسم OpenAI إن الشركة استخدمت الدروس المستفادة من الإصدار التجريبي لتحسين سرعة المحادثة وسلاسة أدائها. لذا قد يتم إصلاح بعض هذه الأخطاء.
كما أن وضع الصوت المتقدم لم يوفر الدقة أو التفاصيل التي يوفرها وضع النص. وكانت هناك أيضًا بعض الحالات التي دارت فيها المحادثة في حلقات مفرغة.
على سبيل المثال، طلبت من Advanced Voice Mode أن يوصي بأفضل برنامج مكافآت لبطاقات الائتمان بالنسبة لي، لكن البرنامج انحرف إلى محادثة حول هواياتي. وفي النهاية اقترح البرنامج American Express، لكن كان عليّ إعادة توجيه المحادثة عدة مرات، ولم يقدم البرنامج الكثير من التفاصيل حول البطاقة.
يبدو الوضع الصوتي المتقدم في ChatGPT مختلفًا تمامًا عن Siri أو غيره من المساعدين الصوتيين، الذين لا يقدمون محادثات سلسة ذهابًا وإيابًا أو لا يلتقطون المشاعر. لكنه ليس على نفس مستوى الإصدار النصي بعد.