تراشه H200 انویدیا برای آموزش مدلهای هوش مصنوعی
تراشه H200 انویدیا
انویدیا روز دوشنبه از یک واحد پردازش گرافیکی با نام H200 رونمایی کرد که برای آموزش و استقرار انواع مدلهای هوش مصنوعی طراحی شده است تا رونق هوش مصنوعی را تقویت کند
اینGPU جدید ارتقاء یافته از H100 است. H100 تراشه OpenAI است که برای آموزش پیشرفته ترین مدل زبان بزرگ خود یعنیGPT-4 استفاده میشود. شرکتهای بزرگ، استارتآپها و سازمانهای دولتی همگی برای عرضه محدود شده این تراشهها رقابت میکنند. همچنین شاید خبر انویدیا پلتفرم محاسباتی هوش مصنوعی خود را به شرکت داده ابری Snowflake میآورد برای شما جالب باشد.
بر اساس تخمین ریموند جیمز، تراشههای H100 بین 25000 تا 40000 دلار قیمت دارند و هزاران عدد از آنها برای ایجاد بزرگترین مدلها در فرآیندی به نام “آموزش (training)” مورد نیاز است.
هیجان نسبت به پردازندههای گرافیکی هوش مصنوعی انویدیا، سهام این شرکت را افزایش داده است، که تاکنون در سال 2023 بیش از 230 درصد افزایش یافته است.
پیشرفت کلیدی H200 این است که شامل 141 گیگابایت حافظه نسل بعدی “HBM3” است که به این تراشه کمک میکند تا “استنباط (inference)” یا استفاده از یک مدل بزرگ را پس از آموزش برای تولید متن، تصویر یا پیش بینی انجام دهد.
انویدیا گفت که H200 تقریبا دو برابر سریعتر از H100 خروجی تولید میکند.
H200 که قرار است در سه ماهه دوم سال 2024 عرضه شود، با پردازنده گرافیکی MI300X AMD رقابت خواهد کرد. تراشه AMD، مشابه H200، دارای حافظه اضافی نسبت به مدلهای قبلی خود است که به جا دادن مدلهای بزرگ بر روی سخت افزار برای اجرای استنباط کمک میکند.
انویدیا گفت H200 با H100 سازگار خواهد بود، به این معنی که شرکتهای هوش مصنوعی که قبلاً با مدل قبلی آموزش میدهند، نیازی به تغییر سیستم سرور یا نرمافزار خود برای استفاده از نسخه جدید نخواهند داشت.
انویدیا میگوید که این محصول در پیکربندیهای سرور چهار یا هشت GPU در سیستمهای کامل HGX این شرکت و همچنین در تراشهای به نام GH200 که GPU H200 را با یک پردازنده مبتنی بر Arm جفت میکند، در دسترس خواهد بود.
هر دو H100 و H200 بر اساس معماری Hopper انویدیا هستند.