تقنية

Nvidia HGX H200: تقوم Nvidia بترقية الشريحة المتطورة للعمل بالذكاء الاصطناعي

[ad_1]

كشفت شركة Nvidia، الشركة الرائدة في تصنيع وحدات معالجة الرسومات (GPU)، عن تفاصيل أحدث شرائحها عالية الأداء المخصصة لأعمال الذكاء الاصطناعي، HGX H200. تعتمد وحدة معالجة الرسومات الجديدة هذه على نجاح سابقتها، H100، حيث تقدم ترقيات كبيرة في عرض النطاق الترددي للذاكرة والقدرة على تعزيز قدرتها في التعامل مع أعمال الذكاء الاصطناعي التوليدية المكثفة.

ما الفرق بين HGX H200 وH100؟

يتميز HGX H200 بنطاق ترددي للذاكرة أكبر بـ 1.4 مرة وسعة ذاكرة أكبر بـ 1.8 مرة من H100، مما يجعله تقدمًا ملحوظًا في مشهد حوسبة الذكاء الاصطناعي. ويكمن التحسين الرئيسي في اعتماد مواصفات ذاكرة جديدة وأسرع تسمى HBM3e، مما يؤدي إلى رفع النطاق الترددي لذاكرة وحدة معالجة الرسومات إلى 4.8 تيرابايت في الثانية وزيادة سعة الذاكرة الإجمالية إلى 141 جيجابايت.

يهدف طرح ذاكرة النطاق الترددي العالي (HBM) الأسرع والأكثر شمولاً إلى تسريع الأداء عبر المهام التي تتطلب حوسبة، مما يفيد بشكل خاص نماذج الذكاء الاصطناعي التوليدية وتطبيقات الحوسبة عالية الأداء. قام إيان باك، نائب رئيس منتجات الحوسبة عالية الأداء بشركة Nvidia، بتسليط الضوء على هذه التطورات في عرض فيديو.

شريحة نفيديا H200

وعلى الرغم من التقدم التكنولوجي، فإن السؤال الذي يلوح في الأفق يدور حول مدى توفر الرقائق الجديدة. تعترف Nvidia بقيود العرض التي يواجهها سابقتها H100، وتهدف إلى إطلاق أول شرائح H200 في الربع الثاني من عام 2024. وتتعاون Nvidia مع الشركات المصنعة للأنظمة العالمية ومقدمي الخدمات السحابية لضمان التوافر، ولكن لا تزال أرقام الإنتاج المحددة غير معلنة.

يحافظ H200 على التوافق مع الأنظمة التي تدعم H100s، مما يوفر انتقالًا سلسًا لموفري الخدمات السحابية. يعد اللاعبون الرئيسيون مثل Amazon وGoogle وMicrosoft وOracle من بين أوائل الشركات التي قامت بدمج وحدات معالجة الرسومات الجديدة في عروضهم في العام المقبل.

وبينما تمتنع شركة Nvidia عن الكشف عن سعر جهاز H200، من المتوقع أن يتراوح سعر سابقه H100 بين 25.000 دولار إلى 40.000 دولار لكل جهاز. ولا يزال الطلب على هذه الرقائق عالية الأداء قويا، حيث تسعى شركات الذكاء الاصطناعي بنشاط إلى الحصول عليها من أجل معالجة البيانات بكفاءة في تدريب أدوات الصور التوليدية ونماذج اللغات الكبيرة.

يتماشى الكشف عن H200 مع جهود Nvidia لتلبية الطلب المتزايد على وحدات معالجة الرسومات الخاصة بها. وتخطط الشركة لمضاعفة إنتاج H100 ثلاث مرات في عام 2024، بهدف إنتاج ما يصل إلى 2 مليون وحدة، كما ورد في أغسطس. مع استمرار تطور مشهد الذكاء الاصطناعي، يعد طرح H200 بقدرات محسنة، مما يمهد الطريق لعام واعد أكثر لعشاق وحدة معالجة الرسومات ومطوري الذكاء الاصطناعي على حدٍ سواء.

يمكنك مشاهدة إعلان Nvidia:

يمكنك متابعة Smartprix على تويتروفيسبوك وإنستغرام وأخبار جوجل. قم بزيارة موقع Smartprix.com للحصول على أحدث الأخبار والمراجعات والأدلة التقنية.



[ad_2]

Source link

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى