تكنولوجيا

Nvidia تعلن عن تقنيات جديدة في مجال شرائح الذكاء الاصطناعي

أعلنت شركة Nvidia عن الجيل الجديد من شرائح الذكاء الاصطناعي والبرمجيات المخصصة للعمل مع النماذج اللغوية الكبيرة. تم الكشف عن هذه التقنيات في المؤتمر العالمي لتكنولوجيا الرسوميات GTC 2024.

وفقًا لتصريحات الرئيس التنفيذي للشركة، جينسن هوانغ، تقوم Nvidia بتحديث بنية الرسوميات (GPU) كل عامين لزيادة الأداء. وكثير من النماذج الذكية السابقة تم تدريبها على بنية Hopper، وهي تستخدم في رقائق مثل H100 التي تم الإعلان عنها في عام 2022.

وأطلقت Nvidia الجيل الجديد من معالجات الذكاء الاصطناعي الرسومية تحت اسم “Blackwell”. ومن المقرر إصدار أول نموذج GB200 في نهاية هذا العام.

وتزعم Nvidia أن المعالجات الجديدة توفر زيادة كبيرة في الأداء للشركات التي تعمل مع الشبكات العصبونية- 20 بيتافلوبس للشرائح الجديدة بدلاً من 4 بيتافلوبس لـ H100. ووفقًا لهوانغ، ستسمح القدرة الحسابية الإضافية لهم بتدريب نماذج أكبر وأكثر تعقيدًا.

على سبيل المثال، لتدريب GPT-4 في 90 يومًا كان يتطلب 8000 شريحة قديمة و 15 ميغاواط من الطاقة. أما لتدريبه على بطاقة الفيديو الجديدة، فسيتطلب فقط 2000 معالج و 4 ميغاواط.

ومن المعروف أيضًا أن GB200 سيحتوي على 192 جيجابايت من الذاكرة بسرعة نقل بيانات 8 تيرابايت في الثانية.

وسيكون الجهاز متاحا في شكل خادم تحت اسم GB200 NVLink 2، والذي يتكون من 72 معالج رسومي Blackwell. سيكون حجم الذاكرة العشوائية الإجمالي له 30 تيرابايت.

ستقوم الشركة ببيع الوصول إلى GB200 من خلال الخدمات السحابية. وأعلنت Nvidia أن Amazon Web Services ستقوم ببناء مجموعة خوادم تتكون من 20,000.

وأعلن هوانغ أيضًا عن إضافة منتج جديد باسم Nvidia Inference Microservice (NIM) إلى اشتراك البرمجيات التجارية. وهو يسهل استخدام العتاد الرسومي القديم للحوسبة.

يذكر أنه في يناير 2024، قام مارك زوكربيرج بشراء شرائح Nvidia لصالح Meta، نظرًا لأن “خريطة الطريق المستقبلية” في مجال الذكاء الاصطناعي تتطلب “بنية حوسبة ضخمة”.