في مقابلة مع CRN، أوضح رئيس قناة Nvidia Americas Craig Weinstein لماذا ستصبح عروض الشركة القادمة Groke LPX وVera CPU بمثابة قناة تشغيل “بمرور الوقت” لمراكز بيانات الذكاء الاصطناعي. ويقول الشريكان إن الاهتمام بالمشروع قد يكون محدودًا في الوقت الحالي.
عندما كشفت Nvidia عن حامل الخادم Grok 3 LPX الخاص بها يوم الاثنين الماضي، أشارت الشركة إلى أنها تركز على المشاركة المباشرة مع أفضل موفري نماذج الذكاء الاصطناعي الذين سيستفيدون من زمن الوصول المنخفض للغاية للمنتج لتقديم خدمات ذكاء اصطناعي متميزة فائقة السرعة.
لكن في مقابلة مع CRN في اليوم التالي، قال رئيس قناة Nvidia Americas Craig Weinstein إنه يتوقع أن تصبح رفوف Grok LPX جذابة لعملاء المؤسسات المتطورة، ونتيجة لذلك، تصبح منتجًا لشركاء القنوات لبيعه “بمرور الوقت”.
(ذات صلة: ستستخدم Nvidia وحدات المعالجة المركزية Intel Xeon 6 لأنظمة DGX Rubin NVL8)
قال المدير التنفيذي الشيء نفسه بالنسبة للجهد الجديد الذي تبذله شركة البنية التحتية العملاقة للذكاء الاصطناعي لتوفير وحدات المعالجة المركزية Vera المخصصة والمتوافقة مع Arm كعرض مستقل.
ومع ذلك، قال المديرون التنفيذيون لشركة Lenovo وأحد كبار شركاء قناة Nvidia لـ CRN إن حامل Grok LPX سيكون له جاذبية محدودة بين الشركات – على الأقل في الوقت الحالي. كان لدى زعيم Lenovo أفكار مماثلة حول خادم Vera CPU.
تخطط Nvidia لتقديم حامل Groke 3 LPX، الذي يتضمن 256 وحدة معالجة لغة Groke 3 (LPUs)، بالإضافة إلى حامل Vera Rubin NVL72 الرائد، والذي يتضمن 36 وحدة معالجة مركزية Vera و 72 وحدة معالجة رسوميات Rubin، بدءًا من النصف الثاني من العام. تم الإعلان عن هذه المنتجات الجديدة في حدث GTC 2026 الخاص بالشركة الأسبوع الماضي.
قال وينشتاين، نائب رئيس المنظمة الشريكة لـ Nvidia’s Americas في GTC: “نعتقد أنه مع توسع الاستدلال في المؤسسة – وهو ما حدث بالفعل – فإن الجانب الاسمي من هذه المعادلة سيعمل بشكل جيد جدًا لنظام LPU”.
يشير تعليقه “الرمزي” إلى ادعاءات الشركة بأن رفوف Grok3 LPX و Vera Rubin NVL72، عند توصيلها وتشغيلها معًا، يمكن أن تسرع بشكل كبير من المعدل الذي يمكن أن تنتج به نماذج تريليون معلمة الرموز المميزة. يمكن أن تتراوح هذه النماذج من روبوتات الدردشة ذات القدرات المنطقية، إلى مساعدي الترميز، لاستخدام الحالات التي تنتج كميات كبيرة من النص أو التعليمات البرمجية كرموز، اعتمادًا على التطبيق.
في أحد الأمثلة، قالت Nvidia، يمكن لكلا النظامين زيادة إنتاجية الاستدلال لنموذج GPT ذي 1 تريليون معلمة بمقدار 35 مرة لكل ميجاوات يستهلكها كلا النظامين مقارنة بالجيل السابق من منصة Grace Blackwell NVL72.
سينتج النموذج الناتج 300 رمزًا لكل ميجاوات في الساعة لأنه يوفر 500 رمزًا في الثانية لكل مستخدم، ومن المتوقع أن يساعد مطوري نماذج الذكاء الاصطناعي الكبار والمؤثرين على تقديم خدمات متميزة أكثر تكلفة.
قال وينشتاين: “كانت الرسالة الأساسية (في GTC) تدور حول مصانع الرموز المميزة أو أدوات التوسع الفائقة المتطورة أو مواطني الذكاء الاصطناعي الذين بنيت أعمالهم على الرموز المميزة”. “ولكن نظرًا لأن حجم المؤسسات والاقتصادات الرمزية أصبح أكثر أهمية بالنسبة لتلك المؤسسات، فإن نظام LPU سيكون مهمًا للغاية، (يوفر) إرشادًا منخفض التكلفة يسمح لتلك المؤسسة بتوسيع نطاق مصانعها الرمزية إلى ملايين، إن لم يكن المليارات، من الرموز.”
سيتم تطبيق التشغيل النهائي للقناة على “العديد” من الشركاء الذين يقومون بالفعل بتوزيع وتنفيذ منصات Nvidia على نطاق واسع مثل Grace Blackwell NVL72، وفقًا لـ Weinstein، الذي قال إن شريكًا واحدًا لم يذكر اسمه يتعامل مع 18000 رف سنويًا. غالبًا ما تتطلب هذه الأنواع من رفوف الخوادم تبريدًا سائلًا ومئات الكيلووات من الطاقة، مما يجعل الأجهزة مقتصرة على العملاء الذين لديهم البنية التحتية المناسبة لمثل هذه المنتجات.
وقال: “هؤلاء الشركاء موجودون في اللعبة واسعة النطاق، سواء في المؤسسة أو في neocloud. والعديد منهم أيضًا يتشاركون ويتاجرون مع شركات التوسعة الفائقة. وتصبح المسؤولية في جانب البناء مكونًا أساسيًا في مجموعة الخدمات التي يتشاركون معها”.
وقال وينشتاين إنه لا يوجد جدول زمني للوقت الذي قد يبدأ فيه الشركاء في التعامل مع عمليات نشر Grok LPX، مشيرًا إلى أن الشركة ستتعامل مع القناة “بشكل انتهازي”.
Lenovo، Mark III Executive Ltd. Grok Enterprises ترى الاهتمام – في الوقت الحالي
على الرغم من عدم الإعلان عن دعم OEM لـ Grok 3 LPX، قال Vlad Rozhanovich، قائد المبيعات لأعمال مركز البيانات في Lenovo، إن شركته ستفكر في تقديم الرف إذا بدأت في رؤية الطلب من العملاء، حتى لو لم يكن هناك طلب من أي مؤسسة كبيرة حتى الآن.
وقال في مقابلة مع CRN الأسبوع الماضي: “لقد سمعنا عن الاهتمام بـ Grok في أماكن مثل المملكة العربية السعودية”، مستشهداً باهتمام شركة Humane للذكاء الاصطناعي المدعومة من الدولة في الشرق الأوسط، والتي كانت تستخدم رقائق Grok قبل إعلان Nvidia.
وفي مكان آخر، تشهد لينوفو “اهتمامًا من عدد من الشركات التي تفكر في نموذج اللغة الأكبر، لكنه ليس شيئًا تسعى إليه جميع الشركات”، كما قال روزانوفيتش، نائب الرئيس الأول لمجموعة حلول البنية التحتية في لينوفو.
قال آندي لين، مدير التكنولوجيا التنفيذي ونائب رئيس الإستراتيجية والابتكار في شريك تكامل أنظمة Nvidia ومقره هيوستن Mark III Systems، لـ CRN إنه يعتقد أن Grok 3 LPX سوف يجذب مقدمي الخدمات السحابية والسحابات الجديدة وشركات الذكاء الاصطناعي الأصلية “التي تميز نفسها حقًا في توفير تجربة مستخدم رائعة للنماذج”.
ومع ذلك، فقد أقر بأن هذه الشركات تمثل “مجموعة فرعية صغيرة جدًا” من قاعدة عملاء شركته لأن الاستفادة من بنيات الرقائق الجديدة مثل Groke ستتطلب مؤسسات لديها “قدر معين من الحجم والقدرة المتقدمة” من حيث موارد التطوير والتكامل.
وفيما يتعلق بإمكانيات جروك بين عملاء المؤسسات، قال لين إنه يرى جاذبية محدودة.
وقال المدير التنفيذي لموفر الحلول، الذي فازت شركته بجوائز Nvidia Partner Network عدة سنوات متتالية، بما في ذلك هذا العام: “أعتقد أن الأمر سيتطلب نوعًا خاصًا من المؤسسات لدمج هذا في خطوط الأنابيب الحالية”. “أود أن أقول إنه من المحتمل أن يجذب أقلية صغيرة من الشركات لأن الشركات تجد صعوبة كبيرة في إنشاء مركز حقيقي للتميز في الذكاء الاصطناعي أو مصنع للذكاء الاصطناعي.”
مع خطة Nvidia لإدخال وحدات المعالجة المركزية Vera في أول حامل خادم لوحدة المعالجة المركزية فقط، ترى الشركة فرصة بمليارات الدولارات لتسريع المهام الحرجة في أعباء عمل الذكاء الاصطناعي الوكيل التي من الأفضل تشغيلها على وحدات المعالجة المركزية بدلاً من وحدات معالجة الرسومات.
تندرج هذه الوظائف ضمن ما تسميه Nvidia “تنفيذ وضع الحماية” وتتضمن أشياء مثل استدعاء الأدوات واستعلامات قاعدة البيانات وتجميع التعليمات البرمجية. وفقًا للشركة، كلما زادت سرعة تشغيل هذه العمليات، زادت سرعة وصول أي بيانات ناتجة من وحدة معالجة الرسومات إلى الرموز المميزة بناءً على الإجراءات التي قدمها المستخدم.
مثل Grok LPX، قال Weinstein إن عروض وحدة المعالجة المركزية Vera المستقلة مثل Vera CPU Rack تمثل “فرصة خاصة لأعباء عمل معينة يمكن أن تستفيد من تلك البنية.” وفي حين أن هذا يعني أنها “ربما لا تكون فرصة فورية” للقناة، إلا أنه يعتقد أن ذلك يمكن أن يحدث “مع مرور الوقت”.
تركز هذه الفرصة الخاصة في المقام الأول على المتوسعين الفائقين، بما في ذلك أولئك الذين لديهم البنية التحتية السحابية لـ Meta وOracle بالإضافة إلى موفري الخدمات السحابية الجديدة مثل Lambda وNebius.
لكن Nvidia تعمل مع كبار مصنعي المعدات الأصلية – بما في ذلك Dell Technologies وApache وLenovo وSupermicro – لتقديم وحدات المعالجة المركزية Vera في مجموعة متنوعة من التكوينات، وفقًا لإيان باك، نائب رئيس Nvidia للحوسبة فائقة الأداء وعالية الأداء.
وقال في اجتماع مع الصحفيين في GTC الأسبوع الماضي: “يمكنهم أخذ هذا المعالج، ونحن نرحب بهم تمامًا لبناء خوادم وحدة المعالجة المركزية للسوق”.
يتوقف اهتمام وحدة المعالجة المركزية Vera على دعم ذراع المؤسسة
وقال روزانوفيتش، مسؤول مبيعات لينوفو، إنه يرى فرصًا محدودة لخوادم Vera CPU المستقلة في القناة، على الأقل عندما يتعلق الأمر بالمؤسسات على المدى القريب.
وقال: “عندما أفكر في حل Vera للحوسبة فقط من خلال شركاء القنوات، ربما (سيتم بيعه للمتبنين الأوائل). لكنه لن يحظى بحصة كبيرة من السوق”.
وذلك لأنه وفقًا لروزانوفيتش، “لا تزال المؤسسات التقليدية في عالم x86″، ويتطلب تمكين البرامج على وحدات المعالجة المركزية المستندة إلى Arm “رفعًا ثقيلًا”.
وقال: “هناك بالتأكيد تطبيقات برمجية تنقلها Nvidia إلى البنية التحتية لـ Arm، وسيحدث ذلك – سيحدث – لكن الأمر سيستغرق بعض الوقت”.
قال المدير التنفيذي لشركة Lenovo إنهم رأوا هذه المشكلة مع خوادم وحدة المعالجة المركزية التي يبيعها البائع استنادًا إلى سلف Vera، Grace، والذي استخدم تصميمًا أساسيًا لوحدة المعالجة المركزية جاهزًا من Arm مقابل نوى Nvidia المخصصة المصممة لـ Vera.
وقال: “لم تكن Grace صديقة للقنوات لأن النظام البيئي لم يكن جاهزًا. هل هناك بعض بائعي البرامج الذين يسيرون في هذا الطريق؟ نعم. لم نصل إلى هناك بعد”. “لا يزال نظام x86 هو الجزء المنتشر في السوق، لكن لا يمكنك أن تنسى قوة Nvidia وإمكانية وصولها إلى مطوري البرامج.”
قال لين، المدير التنفيذي لشركة Mark III Systems، إنه يعتقد أن العملاء لديهم “اهتمام كبير” بخوادم Vera CPU، خاصة فيما يتعلق بالحوسبة عالية الأداء، حيث يمكن أن تستفيد أعباء العمل مثل المحاكاة من تحسينات وحدة المعالجة المركزية.
أشار CTO لموفر الحلول إلى أن بعض العملاء واجهوا مشكلات مع أول وحدة معالجة مركزية لخادم Nvidia، Grace، لأن “الرمز الخاص بهم لم يتم تحسينه بعد لـ Arm.” ومع ذلك، فإنه يتوقع أن يتحسن الوضع مع الجيل الثاني من عملاق البنية التحتية للذكاء الاصطناعي.
وقال لين: “أعتقد أنه سيكون هناك اعتماد إضافي وسيكون الناس على استعداد لاستكشاف المزيد لأنني أعتقد أن الكثير من القدرات أصبحت أكثر وضوحًا الآن”.











