يشير مارك زوكربيرج إلى أن مجموعة شرائح Nvidia H100 الخاصة بشركة Meta أكبر من المنافسين مثل XAI الخاص بـ Elon Musk
- يقول مارك زوكربيرج إن نماذج Llama 4 AI من Meta تتدرب على أكبر مجموعة GPU في الصناعة.
- خلال مكالمة أرباح Meta، قال إن المجموعة “أكبر من 100000 H100s”.
- قال Elon Musk إن xAI يستخدم 100000 من وحدات معالجة الرسوميات Nvidia H100 لتدريب chatbot Grok.
تحدث Elon Musk عن مخزون شركته الناشئة في مجال الذكاء الاصطناعي من رقائق Nvidia المطلوبة. الآن، حان دور مارك زوكربيرج للاستعراض.
يتم بذل قدر كبير من القوة الحاسوبية في تدريب نماذج Llama 4 AI القادمة من Meta – أكثر من أي شيء تقدمه المنافسة حاليًا، وفقًا لزوكربيرج.
خلال مكالمة أرباح Meta للربع الثالث يوم الأربعاء، قال الرئيس التنفيذي لشركة Meta إن Llama 4 “في طور التطوير” ويتم تدريبها على مجموعة GPU أكبر من تلك الموجودة في أي من منافسيها.
“نحن ندرب نماذج Llama 4 على مجموعة أكبر من 100.000 H100 أو أكبر من أي شيء رأيته مُعلنًا عما يفعله الآخرون.”
قد يشير هذا الرقم البالغ 100000 إلى شركة Musk الناشئة للذكاء الاصطناعي، xAi، والتي أطلقت مؤخرًا حاسوبها العملاق “Colossus” هذا الصيف. وصفه الرئيس التنفيذي لشركة Tesla بأنه أكبر كمبيوتر فائق السرعة في العالم، وقال إن xAI يستخدم 100000 من وحدات معالجة الرسومات H100 من Nvidia، أو وحدات معالجة الرسومات، لتدريب برنامج الدردشة الآلي Grok.
إن شريحة H100 من Nvidia، والمعروفة أيضًا باسم Hopper، مطلوبة بشدة من قبل عمالقة التكنولوجيا والشركات الناشئة في مجال الذكاء الاصطناعي من أجل قوة الحوسبة وتدريب نماذج اللغات الكبيرة. وتتراوح تكلفتها ما بين 30 ألف دولار إلى 40 ألف دولار لكل شريحة.
لقد أخذ عدد H100s التي جمعتها الشركة في الاعتبار عند توظيف أفضل المواهب في مجال الذكاء الاصطناعي. الرئيس التنفيذي لشركة بيربليكسيتي أرافيند سرينيفاس قال في مقابلة على البودكاست أن الموضوع ظهر عندما حاول اصطياد شخص من ميتا.
قال سرينيفاس في مارس/آذار: “لقد حاولت تعيين باحث كبير جدًا من ميتا، وأنت تعرف ماذا قالوا؟ عد إلي عندما يكون لديك 10000 وحدة معالجة رسوميات H100”.
أصدرت Meta نماذج Llama 3 في أبريل ويوليو. وأضاف زوكربيرج في مكالمة الأرباح يوم الأربعاء أن نماذج Meta's Llama 4 ستتمتع بـ “طرائق وقدرات جديدة ومنطق أقوى” وستكون “أسرع بكثير”. وقال إن النماذج الأصغر ستكون على الأرجح جاهزة للإطلاق في وقت أقرب، على الأرجح في أوائل عام 2025.
وردا على سؤال حول إنفاق ميتا الكبير على الذكاء الاصطناعي، قال زوكربيرج إن الشركة تقوم ببناء البنية التحتية للذكاء الاصطناعي بشكل أسرع من المتوقع، وأنه “سعيد لأن الفريق ينفذ بشكل جيد في هذا الصدد”، حتى لو كان ذلك يعني ارتفاع التكاليف، وهو “ربما ليس ما يريده المستثمرون”. لسماع.”
وتتوقع شركة Meta أن تستمر نفقاتها الرأسمالية في النمو حتى العام المقبل مع توسيع نطاق بنيتها التحتية للذكاء الاصطناعي.
لم يذكر الرئيس التنفيذي لشركة Meta حجم مجموعة شرائح H100 الخاصة بالشركة بالضبط. وفي الوقت نفسه، غرد Musk في وقت سابق من هذا الأسبوع بأن xAI ستضاعف حجم مجموعتها قريبًا في الأشهر المقبلة إلى 200000 شريحة H100 وH200.