يدعم Apache حامل خادم الذكاء الاصطناعي “Helios” من AMD مع محولات توسيع نطاق Juniper المخصصة

يقول Apache إن تنفيذ منصة AMD “Helios” على نطاق الرفوف سيتضمن “أول محول موسع لتقديم أداء محسن لأحمال عمل الذكاء الاصطناعي عبر شبكة إيثرنت القياسية”، وذلك بفضل أعمال التطوير التي يتم تنفيذها مع Broadcom.

قالت VMware يوم الثلاثاء إنها ستكون “واحدة من أوائل الشركات المصنعة للمعدات الأصلية” التي تتبنى رف خادم AI المسرع بواسطة GPU من AMD والذي من المقرر أن ينافس منصة Vera Rubin التي طال انتظارها من Nvidia العام المقبل.

تم الإعلان عنها في Apache Discover 2025 في برشلونة، إسبانيا، وقالت شركة الخوادم العملاقة ومقرها هيوستن، تكساس، إنها تخطط لجعل منصة AMD “Helios” واسعة النطاق، مدعومة بـ 72 من وحدات معالجة الرسوميات Instinct MI 455X الخاصة بمصمم الرقائق، متاحة لمقدمي الخدمات السحابية، بما في ذلك ما يسمى بـ “neoclouds”، في العام المقبل للتدريب على نطاق واسع في مجال الذكاء الاصطناعي وأحمال عمل الاستدلال.

(ذات صلة: يشرح الرئيس التنفيذي لشركة Nvidia سبب رؤيته “شيئًا مختلفًا تمامًا” عن فقاعة الذكاء الاصطناعي)

تم الكشف عن خطط Apache مع رفوف Helios ذات النطاق المزدوج بعد أقل من شهر من تصريح الرئيس التنفيذي لشركة AMD Lisa Su بأن مصمم الرقائق يرى “مسارًا واضحًا للغاية” للحصول على حصة مكونة من رقمين في سوق الذكاء الاصطناعي لمراكز البيانات التي تهيمن عليها Nvidia، مع توقعات بكسب مليارات الدولارات من الإيرادات السنوية من وحدات معالجة الرسوميات Instinct والمنتجات ذات الصلة في عام 2027.

على النقيض من ذلك، قالت إنفيديا قبل أقل من أسبوعين إن لديها “رؤية” إيرادات بقيمة 500 مليار دولار من بداية هذا العام حتى نهاية العام المقبل لمنصات Blackwell ومنصات الجيل التالي من Rubin، بما في ذلك منصة Vera Rubin.

مواصفات ومميزات هيليوس من شركة HPE

وفقًا لـ Apache، من المتوقع أن يوفر حامل Helios واحد عرض نطاق ترددي يصل إلى 260 تيرابت في الثانية، وما يصل إلى 2.9 إكسافلوب من أداء FP4، و31 تيرابايت من ذاكرة HBM4، و1.4 بيتابايت في الثانية من عرض النطاق الترددي للذاكرة، مما يدعم نماذج الذكاء الاصطناعي الضخمة التي تصل إلى تريليون معلمة. وتتوافق هذه الأرقام مع المواصفات الأولية التي قدمتها AMD لـ Helios في يونيو.

وقالت HP إن تطبيق Helios، الذي يعتمد على مواصفات Open Compute Project، سيتضمن “أول محول توسيع لتقديم الأداء الأمثل لأحمال عمل الذكاء الاصطناعي عبر شبكة إيثرنت القياسية”. سيؤدي هذا إلى تمكين اتصالات عالية السرعة بين وحدات معالجة الرسومات الـ 72 لكل حامل.

وقالت الشركة إن فرعها Juniper Networking يعمل مع شركة Broadcom العملاقة لأشباه الموصلات لتطوير محولات شبكات واسعة النطاق خصيصًا لعروض Helios الخاصة بها. مدعومًا بشريحة شبكة Tomahawk 6 من Broadcom، سيعتمد المحول على معيار Ultra Accelerator Link عبر Ethernet، والذي يدعمه عملاق التكنولوجيا وعشرات الشركات الأخرى كبديل لتقنية التوصيل البيني NVLink من Nvidia.

وقال أباتشي إن التبديل سيستفيد من “قدرات الأتمتة والضمان الخاصة بالذكاء الاصطناعي لتبسيط عمليات الشبكة من أجل النشر بشكل أسرع وتوفير التكلفة الإجمالية.” تقول أن المفتاح “يقلل من قفل البائع ويتيح تحديثات الميزات بشكل أسرع.”

وفقًا لـ Apache، سيستخدم حامل Helios أيضًا برنامج AMD’s ROCM وتقنية شبكات Pensando “للمساعدة في تسريع الابتكار وتقليل التكلفة الإجمالية للملكية”.

الغريزة ليست قناة واسعة النطاق لـ AMD حتى الآن

في حين أن AMD استثمرت مبالغ كبيرة من المال لتحدي Nvidia بشكل مباشر، فقد أخبرت الشركة CRN في وقت سابق من هذا العام أنها ليست مستعدة بعد لجعل وحدات معالجة الرسوميات Instinct عبارة عن قناة واسعة النطاق، وبدلاً من ذلك اختارت العمل مع شركاء قنوات محددين في الوقت الحالي.

وذلك لأن الشركة تركز على المشاركة “عالية اللمس” مع أكبر عملائها – بما في ذلك Meta وOpenAI وMicrosoft وXAI – لضمان حصولهم على تجربة مثالية، وفقًا لما قاله Kevin Lansing، المدير التنفيذي لشركة AMD.

قال لانسينغ، الذي يدير مبيعات الأمريكتين والمبيعات الفائقة، في مقابلة أجريت معه في يونيو: “إن التحدي المتمثل في تمكين قناة على Instinct هو أننا لا نستطيع تمكين نموذج حيث يتعين علينا الانتقال من واحد إلى متعدد إذا لم نتمكن من لمسهم جميعًا وتقديم تجربة رائعة”.

ومن بين هؤلاء الشركاء المختارين شركة International Computing Concepts، وهي شركة متخصصة في تكامل الأنظمة مقرها في نورثبروك، إلينوي والتي حصلت على المركز الأول في قائمة CRN’s Fast Growth 150 هذا العام، مع معظم نموها المكون من ثلاثة أرقام على مدى العامين الماضيين مدفوعًا بأعمال Nvidia الخاصة بها.

صرح أليكسي ستوليار، المدير التنفيذي للتكنولوجيا في شركة International Computing Concepts، لـ CRN يوم الاثنين أنه يرى “بعض الزخم” لحلول الخوادم القائمة على الغريزة من عملاء neocloud، في إشارة إلى مجموعة متنامية من مقدمي الخدمات السحابية الصغيرة الذين يركزون على حوسبة الذكاء الاصطناعي.

“تسعى[AMD]حقًا وراء فرص محددة جدًا يمكنهم التقاطها والتأكد من (قدرتهم) على تقديم أفضل أداء، وما إلى ذلك. أعتقد أنه بمجرد أن يشعروا بها قليلًا وتصبح أكثر صلابة قليلاً، سيبدأون في دفعها إلى المجتمع الشريك،” قال.

الشركاء: قد يكون توسيع نطاق التواصل أمرًا صعبًا

قال ستوليار إنه معجب بفكرة دعم رفوف Helios من AMD لمعيار مفتوح مثل Ultra Accelerator Link over Ethernet، محذرًا من أن صناعة التكنولوجيا قد تواجه عوائق تحول دون الاستفادة الكاملة منها.

استند المسؤول التنفيذي لمزود الحلول في هذا الادعاء إلى التحديات التي تواجهها شركته في مساعدة العملاء على الاستفادة من إمكانات توسيع نطاق منصات Nvidia ذات الحجم الكبير مثل GB200، قائلًا “لا يوجد الكثير من أعباء العمل التي يمكنها حقًا تعظيم هذا.”

وقال إن الاستثناء من هذه القاعدة سيكون المتوسعون الفائقون، الذين لديهم المستوى المناسب من الخبرة لتعظيم عرض النطاق الترددي الموسع لوظائف التدريب المستمرة واسعة النطاق على الذكاء الاصطناعي.

وقال ستوليار: “ليس هناك الكثير من الأشخاص الذين يعرفون حقًا كيفية القيام بذلك. ولكن مع ذلك، لا نرى الكثير من الاستخدامات لها”.

وبدلاً من ذلك، يتوقع المسؤول التنفيذي أن تستفيد معظم الشركات من القدرات الواسعة للمنصات ذات الحجم الكبير، والتي قد لا تقدم نفس المستوى من عرض النطاق الترددي ولكنها يمكن أن تمكن مئات وحدات معالجة الرسوميات الإضافية من الاتصال ببعضها البعض على نفس النسيج.

قال ستوليار: “بالتأكيد، إنه أبطأ قليلاً، ولكن طالما أنك لا تملأ هذا النطاق الترددي بالكامل، فلا بأس. وحتى إذا كنت تملأ هذا النطاق الترددي بالكامل، فإن وصولك إلى مجموعة GPU أكبر أصبح الآن أكبر بكثير”.

رابط المصدر