تقوم AMD بتعيين مسؤول تنفيذي في AWS كمهندس رئيسي لرف خادم “Helios” AI

قال أرفيند بالاكومار، قائد البنية التحتية لخدمات الويب في Amazon، إنه تم تعيينه من قبل AMD لقيادة “حلول البنية التحتية للذكاء الاصطناعي على نطاق المجموعة” لمنصة حامل خادم Helios، وهو رد مصمم الرقائق على حلول الذكاء الاصطناعي الشهيرة والقوية على نطاق الحامل من Nvidia.

قامت AMD بتعيين قائد البنية التحتية لشركة Amazon Web Services Arvind Balakumar لقيادة الجهود الهندسية لمنصة رفوف خادم الذكاء الاصطناعي “Helios”، وهي إجابة مصمم الرقائق لحلول الذكاء الاصطناعي الشهيرة والقوية على نطاق الرفوف من Nvidia.

في أحد منشورات LinkedIn يوم الأحد، قال بالاكومار إنه تم تعيينه من قبل AMD في نوفمبر كنائب رئيس الشركة للهندسة للبنية التحتية للذكاء الاصطناعي – وهي الوظيفة التي تجعله مسؤولاً عن “حلول البنية التحتية للذكاء الاصطناعي على نطاق عنقودي” لشركة Helios، والتي من المقرر أن تظهر لأول مرة في العام المقبل كأول منصة للشركة على نطاق واسع لوحدات معالجة الرسوميات Instinct.

(ذات صلة: التحليل: كيف ساعد قراران كبيران شركة AMD على الفوز بصفقة OpenAI)

أكد متحدث باسم AWS استلام طلب CRN للتعليق، لكنه لم يرد حتى وقت النشر. ولم يستجب المتحدث باسم AMD.

كتب بالاكومار على LinkedIn: “إن الطلب على البنية التحتية للذكاء الاصطناعي لا يمكن إشباعه، وتتطلب تلبية هذا الطلب ابتكارًا ثوريًا عبر مجموعة الحوسبة بأكملها، بدءًا من بنيات السيليكون والوصلات البينية عالية الأداء وحتى توزيع الطاقة وتحديث الشبكة”.

قال المسؤول التنفيذي إن AMD “في وضع فريد لقيادة هذا العصر”، وذلك بفضل “محفظة الحوسبة الواسعة” الخاصة بها من وحدات المعالجة المركزية EPYC، ووحدات معالجة الرسوميات Instinct، ووحدات Pensando DPU، والتي سيتم دمجها بإحكام في منصة Helios وتمكينها من خلال مجموعة برامج RoCM الخاصة بها.

تلعب شركة Helios دورًا كبيرًا في دفع الطلب التلقائي على AMD

يأتي إصدار Helios في أعقاب استثمار AMD الكبير في السيطرة على هيمنة Nvidia في سوق البنية التحتية للذكاء الاصطناعي، والتي تخطط AMD لمنافستها مع منصة Vera Rubin من Nvidia للحصول على أقوى مراكز بيانات الذكاء الاصطناعي.

أشارت ليزا سو، الرئيس التنفيذي لشركة AMD، إلى أن شركة Helios تلعب دورًا رئيسيًا في زيادة الاهتمام بعروض البنية التحتية للذكاء الاصطناعي للشركة، قائلة الشهر الماضي إنها تتوقع تحقيق إيرادات سنوية بمليارات الدولارات من وحدات معالجة الرسوميات Instinct والمنتجات ذات الصلة في عام 2027.

أعطى هذا المسار سو الثقة لتقول إنها ترى “طريقًا واضحًا للغاية” للحصول على حصة مكونة من رقمين في سوق البنية التحتية للذكاء الاصطناعي التي تهيمن عليها شركة Nvidia، والتي تقدر أنها ستجني 500 مليار دولار من منصات Blackwell وRubin GPU بين هذا العام والعام المقبل.

قاد بالاكومار مؤخرًا AWS Global Infrastructure

أمضى بالاكومار آخر خمس سنوات ونصف في AWS، حيث كان مؤخرًا مديرًا عامًا لقابلية تطوير البنية التحتية. في هذا الدور، “قاد الرؤية الإستراتيجية والتنفيذ لقابلية التوسع في البنية التحتية العالمية لشركة AWS عبر الحوسبة والشبكات ومراكز البيانات التي تغطي 120 منطقة توافر في 38 منطقة،” كما جاء في ملفه الشخصي على LinkedIn.

وفقًا لملفه الشخصي على LinkedIn، فقد “أشرف على المنظمات الهندسية وإدارة المنتجات وتحليلات البيانات التي تقود تخطيط قدرات البنية التحتية، وتسليم القدرات، وتوسيع البنية التحتية لـ GenAI، وذكاء سلسلة التوريد السحابية.”

قبل توليه هذا المنصب، كان يشغل منصب المدير العام لمنصة AWS Infrastructure Automation Platform ومدير المنتج في المنطقة الأخيرة.

قبل الانضمام إلى AWS في عام 2020، أمضى بالاكومار ما يقرب من خمس سنوات في Google Cloud، حيث كان مؤخرًا رئيسًا لشراكات المنتجات والتكنولوجيا للبنية التحتية للحوسبة والذكاء الاصطناعي. وقد عمل سابقًا لمدة تسع سنوات في شركة Intel، حيث كان مديرًا أول للهندسة والمنتجات في منتجات RealSense ومنصات خوادم المؤسسات.

رابط المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا