استخدمت عملاق البنية التحتية للذكاء الاصطناعي الكلمة الرئيسية في معرض CES 2026 التي ألقاها الرئيس التنفيذي لشركة Nvidia Jensen Huang للاحتفال بإطلاق منصة Rubin GPU الخاصة بها، وهي المتابعة المرتقبة لمنتجات Blackwell Ultra سريعة البيع. ومن المقرر أن يبدأ التوفر من الشركاء في النصف الثاني من هذا العام.
كشفت Nvidia يوم الاثنين عن منصة تخزين جديدة “للذاكرة المرجعية”، وإمكانيات صيانة “بدون توقف”، وحوسبة سرية على نطاق الرف وغيرها من الميزات الجديدة لرف الخادم Vera Rubin NVL72 القادم لمراكز بيانات الذكاء الاصطناعي.
استخدمت عملاق البنية التحتية للذكاء الاصطناعي الكلمة الرئيسية في معرض CES 2026 التي ألقاها الرئيس التنفيذي لشركة Nvidia Jensen Huang للاحتفال بإطلاق منصة Rubin GPU الخاصة بها، وهي المتابعة المرتقبة لمنتجات Blackwell Ultra سريعة البيع. ولكن بينما قالت الشركة إن روبن في “الإنتاج الكامل”، فإن المنتجات ذات الصلة لن تكون متاحة من الشركاء حتى النصف الثاني من هذا العام.
(ذات صلة: أكبر 10 قصص إخبارية من Nvidia لعام 2025)
واجه هوانغ وغيره من المسؤولين التنفيذيين في شركة Nvidia في الأشهر الأخيرة المخاوف من أن بناء مركز بيانات الذكاء الاصطناعي الضخم يمثل فقاعة، قائلين إن الشركة تتوقع تحقيق 500 مليار دولار من منتجات Blackwell & Rubin بين بداية العام الماضي ونهاية هذا العام، مستشهدين بالطلب المستمر على حلول الذكاء الاصطناعي التوليدية والوكيلة والمادية.
في الترويج لـ Rubin، أعلنت Nvidia عن دعم واسع النطاق من شركات التكنولوجيا الكبيرة والمؤثرة، بما في ذلك Amazon Web Services، وMicrosoft، وGoogle Cloud، وCoreWave، وCisco، وDell Technologies، وApache، وLenovo وغيرها الكثير.
تخطط الشركة التي يقع مقرها في سانتا كلارا بولاية كاليفورنيا لإتاحة Rubin مبدئيًا بطريقتين: من خلال منصة Vera Rubin NVL72 على نطاق الرف، والتي تضيف 72 وحدة معالجة رسوميات Rubin و36 وحدة معالجة مركزية Vera المخصصة المتوافقة مع Arm، ومن خلال منصة HGX Rubin NVL8، التي تضيف ثمانية وحدات معالجة رسومات Rubin إلى الخوادم التي تشغل وحدات المعالجة المركزية المستندة إلى x86.
سيتم دعم كلا النظامين الأساسيين بواسطة مجموعة DGX SuperPod من Nvidia.
كانت المنصة على نطاق الحامل تسمى في الأصل Vera Rubin NVL144 عندما تم عرضها في حدث Nvidia’s GTC 2025 في مارس الماضي، مع الرقم 144 المقصود منه أن يعكس عدد قوالب GPU في كل حامل خادم. لكن الشركة قررت في النهاية عدم القيام بذلك، وبدلاً من ذلك اختارت تسمية NVL72 المستخدمة لمنصات Grace Blackwell على نطاق الرف لتعكس عدد حزم GPU، والتي تحتوي كل منها على قالبي GPU.
تشتمل حزم GPU الخاصة بمنتجات Blackwell أيضًا على قالبي GPU، متصلين عبر وصلة بينية عالية السرعة.
قال ديون هاريس، المدير الأول للحوسبة عالية الأداء وحلول البنية التحتية للذكاء الاصطناعي في Nvidia، في مؤتمر صحفي مع الصحفيين والمحللين يوم الأحد: “نحن في الأساس متسقون مع الطريقة التي وضعناها وتحدثنا عنها لصالح Blackwell وندفعها من أجل Vera Rubin أيضًا”.
قال هاريس إن منصة Rubin، التي تحتوي على حامل Vera Rubin NVL72 كمنتجها الرئيسي، تتضمن وحدات معالجة الرسوميات Rubin ووحدات المعالجة المركزية Vera – وحدات المعالجة المركزية الأولى من Nvidia المزودة بأنوية مخصصة ومتوافقة مع Arm – وأربع شرائح جديدة أخرى شاركت الشركة في تصميمها “لتلبية احتياجات النماذج الأكثر تقدمًا وتقليل تكلفة الذكاء”.
مواصفات ومميزات فيرا روبين NVL72
وقدمت الشركة الكثير من المواصفات والمميزات لمنصة Rubin، والتي تمت مشاركة بعضها في فعاليات سابقة.
تتميز كل وحدة معالجة مركزية من Vera بـ 88 نواة Olympus مخصصة، و176 خيطًا مع تقنية Nvidia المكانية المتعددة الخيوط الجديدة، وذاكرة LPDDR5X بنظام سعة 1.5 تيرابايت، وعرض نطاق ترددي للذاكرة يبلغ 1.2 تيرابايت في الثانية، وقدرات حوسبة سرية. كما يتميز أيضًا بوصلة بينية من شريحة إلى شريحة NVLInk بسرعة 1.8 تيرابايت في الثانية لدعم الذاكرة المتماسكة مع وحدة معالجة الرسومات.
في المؤتمر الصحفي، قال هاريس إن ميزة الحوسبة السرية لوحدة المعالجة المركزية تسمح لـ Vera Rubin بتوفير “أول بيئة تنفيذ موثوقة على نطاق الرف والتي تحافظ على أمان البيانات عبر مجالات وحدة المعالجة المركزية ووحدة معالجة الرسومات وNVLink (لحماية أكبر نماذج الملكية وبيانات التدريب وأحمال العمل الاستدلالية في العالم).”
وفقًا للشركة، مقارنةً بوحدات معالجة الرسوميات Grace من Nvidia، والتي تعتمد على الهندسة المعمارية الدقيقة Neoverse v2 الجاهزة للاستخدام من Arm، توفر Vera ضعف الأداء في معالجة البيانات والضغط وتجميع الأكواد.
وقالت الشركة إن وحدة معالجة الرسوميات Rubin، من ناحية أخرى، قادرة على 50 بيتافلوب للحوسبة الاستدلالية باستخدام تنسيق بيانات NVFP4 من Nvidia، وهو أسرع بخمس مرات من Blackwell. ويمكنه أيضًا أداء 35 بيتافلوب لتدريب NVFP4، وهو أسرع 3.5 مرة من سابقه. يبلغ عرض النطاق الترددي لذاكرة النطاق الترددي العالي HBM4 22 تيرابايت في الثانية، وهو أسرع 2.8 مرة، في حين أن عرض النطاق الترددي NVLink لكل وحدة معالجة رسومات هو 3.6 تيرابايت في الثانية، وهو أسرع مرتين.
تتضمن المنصة أيضًا مفتاح NVLink 6 مبرد بالسائل لتوسيع نطاق الشبكات. يتميز المحول بـ 400G SerDes للاتصال بين جميع وحدات معالجة الرسومات، وعرض النطاق الترددي 3.6 تيرابت في الثانية لكل وحدة معالجة رسومات، وإجمالي عرض النطاق الترددي 28.8 تيرابت في الثانية، و14.4 تيرافلوب من حوسبة FP8 داخل الشبكة.
بالإضافة إلى ذلك، وفقًا للشركة، تستخدم منصة Rubin ConnectX-9 SuperNIC وBluefield-4 DPU من Nvidia للارتقاء بالشبكات واسعة النطاق إلى المستوى التالي.
قالت Nvidia إن كل هذه الأجزاء تدخل في منصة Vera Rubin NVL72، القادرة على توفير 3.6 إكسافلوب من أداء الاستدلال NVFP4، وهو ما يزيد بخمس مرات عن التكرار المستند إلى Blackwell. يصل أداء التدريب باستخدام تنسيق NVFP4 إلى 2.5 إكسافلوب، وهو أعلى بمقدار 3.5 مرة من سابقه.
وقالت Nvidia إن Vera Rubin لديها سعة 54 تيرابايت من LPDDR5X، أي أكثر بـ 2.5 مرة من Blackwell، و20.7 تيرابايت من سعة HBM4، أي أكثر بنسبة 50 بالمائة من سابقتها. يصل عرض النطاق الترددي لـ HBM4 إلى 1.6 بيتابت في الثانية، وهو أعلى بـ 2.8 مرة، ويبلغ عرض النطاق الترددي الموسع 260 تيرابايت في الثانية، وهو ضعف ما توفره منصة Blackwell NVL72.
وقال هاريس: “هذا عرض نطاق ترددي أكبر من الإنترنت العالمي بأكمله”.
تعلن Nvidia عن ميزات مرونة الحامل NVL72 من الجيل الثالث
وقالت Nvidia إن Vera Rubin تتضمن أيضًا الجيل الثالث من تقنيات مرونة الحامل NVL72، بما في ذلك تصميم صينية معيارية خالية من الكابلات تسمح بالتجميع والخدمة بشكل أسرع بما يصل إلى 18 مرة.
وتشمل الميزات الأخرى المرونة الذكية NVLink، والتي تدعي الشركة أنها ستسمح بصيانة الخادم مع “عدم التوقف عن العمل”.
قال هاريس: “تتميز أدراج التبديل NVLink الآن بعدم الحاجة إلى الصيانة أثناء التوقف والتسامح مع الأخطاء، مما يسمح للأرفف بالبقاء قيد التشغيل حتى عند إزالة أدراج التبديل أو تعبئتها جزئيًا”.
يوجد أيضًا محرك RAS من الجيل الثاني لمتطلبات الموثوقية والتوافر وقابلية الخدمة، والتي قالت Nvidia إنها ستمكن من تشخيصات وحدة معالجة الرسومات دون فصل الحامل عن الإنترنت.
وقال هاريس: “تعمل كل هذه الميزات على زيادة وقت تشغيل النظام وإنتاجيته، مما يقلل من تكاليف التدريب والاستدلال”.
إنفيديا تكشف عن منصة تخزين الذاكرة المرجعية
مع قيام أعباء عمل الذكاء الاصطناعي بتوليد كميات هائلة من بيانات السياق، تقدم Nvidia منصة تخزين جديدة تقول إنها ستوفر زيادات كبيرة في أداء الاستدلال وكفاءة الطاقة لمثل هذه التطبيقات.
قال هاريس، الذي يطلق عليه Nvidia Inference context Memory Storage Platform، إن التقنية تستخدم Bluefield-4 وSpectrum-X Ethernet لإنشاء “بنية تحتية للتخزين الأصلي للذكاء الاصطناعي لتخزين ذاكرة التخزين المؤقت KV” – وهي بنية بيانات مهمة لتحسين الطريقة التي تولد بها نماذج اللغات الكبيرة الرموز المميزة أو تقديم الاستجابات.
وفقًا لهاريس، توفر هذه المنصة الجديدة خمسة أضعاف الرموز المميزة في الثانية، وأداء أفضل بخمس مرات لكل دولار، وكفاءة أفضل في استهلاك الطاقة بخمس مرات، مقارنة بخيارات تخزين الشبكة التقليدية لتخزين البيانات المرجعية التقديرية.
وقال: “يُترجم هذا بشكل مباشر إلى إنتاجية أعلى وزمن وصول أقل وسلوك أكثر قابلية للتنبؤ”. “وهذا مهم حقًا بالنسبة لأعباء العمل التي نتحدث عنها: التطبيقات ذات السياق الكبير مثل الدردشة متعددة الأدوار، والتوليد المعزز بالاسترجاع، والاستدلال متعدد الخطوات للذكاء الاصطناعي الوكيل. وتركز أعباء العمل هذه على مدى كفاءة تخزين السياق وإعادة استخدامه ومشاركته عبر الأنظمة.”
وقال هاريس إن Nvidia “تعمل بشكل وثيق مع شركاء التخزين لدينا لجلب مستوى جديد من ذاكرة سياق الاستدلال إلى منصة Rubin حتى يتمكن العملاء من نشرها كجزء من بنية تحتية كاملة ومتكاملة للذكاء الاصطناعي.”












