يعد الوصول إلى البيانات الجاهزة للاستخدام في تدريب الذكاء الاصطناعي والاستدلال والمهام الأخرى أمرًا بالغ الأهمية لضمان أن أنظمة التخزين لا تعمل بمثابة اختناقات أمام الأداء الكامل لوحدات معالجة الرسومات وتطبيقات الذكاء الاصطناعي. تنظر CRN إلى بائعي وحدات التخزين الـ 13 الذين قدموا أفضل عروض الذكاء الاصطناعي الخاصة بهم في مؤتمر Nvidia’s GTC.
وحدات معالجة الرسومات هي الأجهزة التي يعمل عليها الذكاء الاصطناعي، وكانت أهمية زيادة أداء وحدة معالجة الرسومات موضوعًا رئيسيًا لحدث Nvidia GTC 2026 لهذا العام.
ولكن بغض النظر عن مدى أداء وحدات معالجة الرسومات هذه، فإنها تتوقف أثناء انتظار البيانات. وقد أدى ذلك إلى رفع مستوى توفر البيانات والأداء إلى نفس مستوى أهمية وحدات معالجة الرسومات.
ولضمان ألا تصبح البيانات عنق الزجاجة أمام وحدات معالجة الرسومات وتطبيقات الذكاء الاصطناعي التي تعمل عليها، يقترب بائعو وحدات التخزين من صناعة الذكاء الاصطناعي على عدة جبهات. يتضمن ذلك أداء أفضل لنظام التخزين لتغذية البيانات إلى وحدة معالجة الرسومات وإدارة أفضل للبيانات للتأكد من أنها جاهزة ويمكن لوحدة معالجة الرسومات استخدامها.
(ذات صلة: التحليل: تمتد هيمنة Nvidia للذكاء الاصطناعي إلى الشبكات لأنها تؤدي إلى دفع كبير لوحدة المعالجة المركزية)
كانت العديد من أفضل شركات تخزين البيانات وإدارة البيانات في صناعة تكنولوجيا المعلومات تعرض أحدث إدخالاتها للذكاء الاصطناعي في Nvidia GTC 2026. وتضمن ذلك أنظمة تخزين جديدة من شركات مثل Dell Technologies وNetApp وEverpure وHammerspace وDDN وVast Data وHitachi Vantara، بالإضافة إلى خطط الإدارة الجديدة من العديد من البائعين الآخرين.
تسلط CRN الضوء على تقنيات التخزين الجديدة التي تركز على الذكاء الاصطناعي من 13 من كبار بائعي وحدات التخزين. واصل القراءة لمعرفة كل التفاصيل.
مختبرات Lightbits Lightinfera
تحولت كل من ScaleFlux وFarmGPU وLightBits Labs إلى GTC لكشف النقاب عن بنية تعاونية قالوا إنها مصممة للتغلب على قيود الذاكرة والإدخال/الإخراج لاستدلال الذكاء الاصطناعي طويل السياق. من خلال دمج وحدة تخزين NVMe عالية الأداء من ScaleFlux، والبيئات المُدارة من FarmGPU، وبرنامج LightInfera من Lightbits، تعمل هذه المنصة الجديدة على تحسين استمرارية وبث ذاكرة التخزين المؤقت kv. وقالت الشركات إن البنية تزيل توقفات GPU عن طريق الجلب المسبق للبيانات المطلوبة عبر RDMA عالي السرعة، مما يقلل بشكل كبير من الوقت حتى أول رمز مميز ويزيد من استخدام GPU بما يصل إلى 3X. تتميز المنصة بأمان الذكاء الاصطناعي الأصلي وعزل المستأجر، مما يتيح للمؤسسات تقديم نماذج أكبر وتفاعلات أطول بكفاءة أكبر، مما يوفر بنية تحتية سريعة الاستجابة وقابلة للتطوير وفعالة من حيث التكلفة لأحمال عمل الذكاء الاصطناعي من الجيل التالي.
هيتاشي فانتارا هيتاشي آي كيو
Hitachi IQ من Hitachi Vantara عبارة عن منصة بنية تحتية للذكاء الاصطناعي للمؤسسات تعمل على توحيد الحوسبة والشبكات والتخزين في حزمة بنية أساسية واحدة تم التحقق منها. بناءً على منصة بيانات VSP One من Hitachi Vantara، تدعم Hitachi iQ الآن وحدات معالجة الرسومات Nvidia Blackwell وBlackwell Ultra الجديدة في تكوينات مبردة بالهواء ومبردة بالسوائل، وتستهدف أعباء العمل التي تتراوح من تطوير النماذج والضبط الدقيق إلى الاستدلال والتطبيقات الوكيلة. يوفر Hitachi IQ Studio، وهو مكون برنامج الذكاء الاصطناعي، أدوات لنشر وإدارة وكلاء الذكاء الاصطناعي في بيئات مؤسسية آمنة، بما في ذلك مخططات جديدة للتنسيق بين الوكلاء المتعددين مع أدوار المشرف والعامل. تتيح إمكانياته الموسعة مع Hammerspace الوصول إلى البيانات الموزعة عبر MCP، مما يقلل الحاجة إلى نقل البيانات بين البيئات.
منصة بيانات فدورا
في GTC 2026، كشفت Vidura عن ثلاثة تحديثات لمنصة تخزين AI الأصلية الخاصة بوحدة معالجة الرسومات: التوفر الفوري لـ RDMA؛ معاينة الطبقات المدركة للسياق؛ والبنية التحتية المحسنة المبنية على معالجات AMD EPYC Turin وشبكات Nvidia ConnectX-7. يتيح RDMA النقل المباشر للبيانات من وحدة معالجة الرسومات إلى وحدة التخزين التي تتجاوز وحدة المعالجة المركزية، مما يقلل من زمن الوصول لتدريب الذكاء الاصطناعي وأحمال عمل الاستدلال. ستعمل الطبقات المدركة للسياق، المخطط لها في وقت لاحق من عام 2026، على نقل البيانات بذكاء عبر طبقات التخزين، بما في ذلك محركات أقراص NVMe SSD المحلية وذاكرة الوصول العشوائي الديناميكية (DRAM) والتخزين الدائم، بناءً على أنماط عبء العمل. يتوفر RDMA حاليًا على الأنظمة من فئتي V5000 وV7000.
Everpure Evergreen // واحد لـ Flashblade // EXA
FlashBlade من Everpure // Evergreen for EXA // Forest (EG1)، المعروفة سابقًا باسم Pure Storage، هي خدمة تخزين مرنة قائمة على الاستهلاك مصممة للتدريب والاستدلال على نطاق واسع في مجال الذكاء الاصطناعي. فهو يستبدل مشتريات الأجهزة التقليدية بنموذج الاشتراك، مما يؤدي إلى مواءمة التكلفة مع الاستخدام وتمكين النمو السلس مع تطور أعباء عمل الذكاء الاصطناعي وتعقيد البيانات. قالت Everpure أنه نظرًا لأن المؤسسات تعاني تاريخيًا من “تدهور الأداء” عند توسيع نطاق الذكاء الاصطناعي من بضع عقد إلى مئات، فإن الخدمة توفر الإنتاجية العالية وقابلية التوسع الخطي اللازمة لأحمال عمل الذكاء الاصطناعي واسعة النطاق من لوحة معلومات واحدة. ومن خلال توفير اشتراك موحد للنشر العالمي، تهدف Everpure إلى نقل السوق من صوامع الأجهزة الصلبة إلى مصانع الذكاء الاصطناعي العالمية المرنة التي تستجيب للطلب.
تجربة DDN Horizon و AI Factory
DDN Horizon من DDN عبارة عن طائرة تحكم في تنسيق الذكاء الاصطناعي متكاملة مصممة لتشغيل وحدة معالجة الرسومات والبنية التحتية للبيانات كمنصة للذكاء الاصطناعي كخدمة. يقوم البرنامج بتنسيق خطوط أنابيب الحوسبة والتخزين والذكاء الاصطناعي عبر البيئات المحلية والمختلطة والسحابية لمساعدة المؤسسات على توفير مساحات عمل الذكاء الاصطناعي وبيئات التدريب وخدمات الاستدلال من خلال نموذج الخدمة الذاتية. كما عرضت الشركة أيضًا تجربة AI Factory الخاصة بها، حيث تعاونت DDN وSupermicro وNvidia في مجموعة بنية تحتية متكاملة للذكاء الاصطناعي تعمل بكامل طاقتها. وتدير البيئة، المستضافة داخل منصة مصممة خصيصًا، خطوط أنابيب حية للذكاء الاصطناعي للمؤسسات، بما في ذلك الجيل المعزز للاسترجاع، وتحليل المخاطر المالية، وسير عمل الجينوم وتحليلات الفيديو، على أنظمة DDN Enterprise AI Hyperpod المدعومة بوحدات معالجة الرسومات Nidia.
وكيل Nutanix منظمة العفو الدولية
انتقلت Nutanix إلى GTC لكشف النقاب عن عرض Agentic AI، وهو عبارة عن حزمة برامج كاملة تهدف إلى مساعدة العملاء على تسريع اعتماد Agentic AI لتحويل الأعمال. يتكامل العرض مع NVIDIA AI Enterprise على مستوى منشئ الوكيل وينظم نظامًا بيئيًا معتمدًا من NVIDIA لمصانع الذكاء الاصطناعي. ويهدف إلى توفير الأداء والامتثال والأمان لتطبيقات الذكاء الاصطناعي الوكيل والمساعدة في تقليل إجمالي تكاليف الرمز المميز. وقالت الشركة إن هذه البنية التحتية والمنصة المؤسسية تمكّن الفرق من بناء مصانع الذكاء الاصطناعي وتوسيع نطاقها وتشغيلها وتمكين فرق التطوير بمجموعة غنية من خدمات AI PaaS المدمجة مع Nvidia AI Enterprise لتسريع نشر أعباء عمل الذكاء الاصطناعي للوكيل.
بيانات ضخمة مكدس مؤسسة ضخمة
تعد Vast Foundation Stack الجديدة من Vast Data مكتبة مفتوحة المصدر تعمل على توسيع مخططات Nvidia إلى تطبيقات خطوط أنابيب الذكاء الاصطناعي الجاهزة للإنتاج والمصممة للتشغيل محليًا على نظام التشغيل Vast AI. من خلال تجميع الأنماط المعمارية التي أثبتت جدواها في قوالب قابلة للنشر، تساعد Foundation Stacks المؤسسات على التحرك بشكل أسرع من التجريب إلى الإنتاج. يدمج كل مكدس الوصول إلى البيانات، وخدمات قاعدة البيانات، وتنسيق الحوسبة، والأحداث، وتنفيذ خطوط الأنابيب ضمن بيئة موحدة للمساعدة في التخلص من الحاجة إلى تجميع البنية التحتية المعقدة. يساعد ذلك المطورين على التركيز على منطق الأعمال الذي يربط الذكاء الاصطناعي ببيانات المؤسسة وسير العمل، مع النشر المستمر لخطوط الأنابيب القابلة للتطوير عبر البيئات السحابية والمحلية حيث يتم تشغيل نظام التشغيل Vast AI OS.
Cloudian Hyperscale AIDP تصميم لينوفو فاليدا
حصلت منصة بيانات الذكاء الاصطناعي Hyperscale من Cloudian على شهادة Lenovo Validated Design، مما يمنح المؤسسات مجموعة بنية تحتية للذكاء الاصطناعي تم اختبارها مسبقًا ومبنية على وحدة التخزين الأصلية من Cloudian S3 ووحدات معالجة الرسومات Nvidia وبرامج الذكاء الاصطناعي للمؤسسات. توفر هذه التقنية سيادة البيانات حتى تتمكن الصناعات الخاضعة للتنظيم من تشغيل أعباء عمل الذكاء الاصطناعي دون إرسال بيانات حساسة إلى موفري الخدمات السحابية العامة، بما في ذلك روبوتات الدردشة لخدمة العملاء التي تعتمد على عقود من الوثائق المؤسسية، أو المراقبة بالفيديو للامتثال للسلامة والأمن. تم بناء التكوين الذي تم التحقق منه على منصة Lenovo Hybrid AI 285، التي تتكون من خادم Lenovo ThinkSystem SR675 v3 مع ثمانية وحدات معالجة رسوميات Nvidia RTX Pro 6000. وهي متاحة من خلال قناة لينوفو.
أنظمة التخزين من سلسلة NetApp EF: EF50، EF80
وفقًا لشركة NetApp، تم تصميم الجيل التالي من سلسلة NetApp EF، طرازي EF50 وEF80، للمؤسسات التي تدير كميات هائلة من البيانات لأحمال العمل كثيفة الأداء. وهو يدعم الشركات في تلبية المتطلبات المتزايدة للذكاء الاصطناعي والحوسبة عالية الأداء (HPC) وقواعد بيانات المؤسسات والبيئات السحابية الجديدة. يستهدف الطراز EF80 أحمال عمل الذكاء الاصطناعي والحوسبة عالية الأداء واسعة النطاق، بينما يقدم الطراز EF50 فوائد مماثلة للمؤسسات متوسطة الحجم، حيث يعمل على تحسين الذكاء الاصطناعي والتحليلات من خلال أثر فعال من حيث التكلفة. توفر هذه الأنظمة ما يزيد عن 110 جيجابت في الثانية من إنتاجية القراءة وما يصل إلى 57 جيجابت في الثانية من إنتاجية الكتابة، وهو تحسن بنسبة 250 بالمائة مقارنة بالأجيال السابقة، مما يساعد على ضمان أداء تخزين سريع وموثوق ضمن ميزانيات معقولة.
Minio AStore لـ Nvidia STX
يدعم Minio AIStore الآن مخازن بيانات الكائنات لبنية STX المرجعية الجديدة من Nvidia، مما يوفر التخزين الأصلي للكائنات في قلب مصانع الذكاء الاصطناعي للمؤسسات. تم تصميم AIStor ليعمل أصلاً على معالجات Nvidia BlueField-4، ويدعم دورة حياة الذكاء الاصطناعي الكاملة، بما في ذلك التدريب واسع النطاق، وخطوط أنابيب RAG للمؤسسات، والاستدلال الوكيل في الوقت الفعلي، مع توفير أداء فائق السرعة وقياس مستقل للتخزين والحوسبة. يعمل هذا التكامل على محاذاة بنية التخزين المنفصلة لـ Minio مع تصميم STX المعياري من Nvidia لنشر البنية التحتية الحديثة لمصنع الذكاء الاصطناعي.
منصة بيانات Hammerspace AI
تعتبر منصة بيانات Hammerspace AI Data Platform من Hammerspace بيئة بيانات عالمية تعمل على توحيد ملكية البيانات بالكامل في مساحة اسم واحدة عالية الأداء. يتماشى مع التصميم المرجعي لـ Nvidia AI Data Platform، فهو يسد الفجوة بين مكان وجود بيانات المؤسسة (NAS القديمة، وتخزين الكائنات، والسحابة) ومكان الحاجة إليها (تعمل تطبيقات الذكاء الاصطناعي على وحدات معالجة الرسومات المحلية أو في السحابة). تسمح مساحة الاسم الموحدة وأتمتة سير العمل للمؤسسات بتقليل عدد الأدوات بشكل كبير وتبسيط مسارات البيانات الخاصة بها. ومن خلال النشر السريع والبنية القابلة للتطوير، يمكن للمؤسسات أن تبدأ صغيرة الحجم وتتوسع بسرعة وتنمو مع متطلبات العمل.
منصة Dell AI مع Nvidia
جلبت Dell بعض الأشياء الجديدة إلى GTC فيما يتعلق بأعمال البيانات والتخزين. يقوم محرك تنسيق البيانات الجديد، المبني على استحواذ Dell على Dataloop، بأتمتة اكتشاف البيانات ووضع العلامات عليها وتحويلها للمساعدة في جعل البيانات جاهزة للذكاء الاصطناعي. وقالت الشركة إن وحدة معالجة الرسوميات Nvidia RTX Pro Blackwell Server Edition المضمنة في طبقة البيانات توفر فهرسة متجهات أسرع بمقدار 12 مرة ووقت أسرع 19 مرة لأول رمز مميز. قالت الشركة إن نظام Dell Lightning File System (في الصورة)، المتوفر في أبريل 2026، يوفر أداءً أكثر بمقدار 20 مرة وإنتاجية أكبر بمقدار 2x لكل وحدة حامل مقارنة بالمنافسين الذين يستخدمون الفلاش فقط. تجمع وحدة تخزين Dell Exascale بين نظام تخزين الملفات والكائنات ونظام الملفات المتوازي على منصة واحدة مع أداء قراءة يصل إلى 6 تيرابايت في الثانية ودعم Nvidia ConnectX SuperNIC.
منصة بيانات Weka NeuralMesh AI
كشفت Weka عن التوفر العام لمنصة بيانات NeuralMesh AI (AIDP) الجاهزة للمؤسسات، والتي قالت الشركة إنها توفر بنية تحتية عالية الأداء وقابلة للتركيب ومُحسَّنة لعمليات نشر الذكاء الاصطناعي في المصانع. استنادًا إلى التصميم المرجعي لمنصة بيانات الذكاء الاصطناعي من Nvidia، فإن العرض عبارة عن نظام شامل يهدف إلى تسريع تسليم البيانات الجاهزة للذكاء الاصطناعي إلى مصانع الذكاء الاصطناعي. وقالت الشركة إن هذا يؤدي إلى تسريع الجداول الزمنية لمشروع الذكاء الاصطناعي من أشهر إلى دقائق، وتمكين المؤسسات من تقديم تطبيقات الذكاء الاصطناعي على نطاق الإنتاج باستخدام أفضل التقنيات في فئتها عبر نظامها البيئي. من خلال الاستفادة من بنية NeuralMesh التكيفية، فإنها تعالج العقبة الأكثر إلحاحًا في الذكاء الاصطناعي المؤسسي: يمكن للمؤسسات إظهار مفاهيم الذكاء الاصطناعي في إثبات المفهوم ولكنها تكافح باستمرار للوصول إلى نطاق الإنتاج.











