“OCI قابلیتهای ابررایانهای با هوش مصنوعی در مقیاس بزرگ را به هزاران سازمان در هر اندازهای ارائه میکند. همکاری قوی ما با NVIDIA ارزش زیادی را به مشتریان ارائه میکند و ما از قدرت H100 هیجانزده هستیم.” – گرگ پاولیک، CTO و معاون ارشد رئیس جمهور در Oracle Cloud Infrastructure
سرورها و سیستمهای دارای پردازندههای گرافیکی NVIDIA H100 از تولیدکنندگان بزرگ سرور از جمله Atos، Cisco، Dell Technologies، گیگابایت، Hewlett Packard Enterprise، Lenovo و Supermicro در دسترس هستند.
Twelve Labs هیجان زده است که از Oracle Cloud Infrastructure Compute نمونههای فلزی برهنه مجهز به پردازندههای گرافیکی NVIDIA H100 استفاده کند تا به تلاشها برای ارائه مدلهای پایه ویدیویی به بازار ادامه دهد. – جائه لی، مدیرعامل دوازده آزمایشگاه
DGX H100 همچنین شامل مجموعه نرمافزار هوش مصنوعی NVIDIA است که به شرکتها اجازه میدهد تا به طور یکپارچه بارهای کاری هوش مصنوعی خود را در مقیاس بزرگ اجرا و مدیریت کنند. این پیشنهاد شامل آخرین نسخه NVIDIA AI Enterprise است که امروز به طور جداگانه معرفی شد و همچنین NVIDIA Base Command، سیستم عامل مرکز داده DGX، که آموزش و عملیات هوش مصنوعی را بر روی پلت فرم NVIDIA هماهنگ می کند. DGX برای ساده سازی و ساده سازی توسعه هوش مصنوعی.
“قدرت محاسباتی NVIDIA H100 Tensor Core GPU برای فعال کردن تلاشهای ما برای پیشبرد مرزهای آموزش و استنتاج هوش مصنوعی ضروری است. سیستمهایی مانند GPT-4.” – گرگ براکمن، رئیس و یکی از بنیانگذاران OpenAI
معماری هاپر هوش مصنوعی را تسریع می کند
H100، مبتنی بر معماری محاسباتی NVIDIA Hopper GPU با موتور ترانسفورماتور داخلی خود، برای توسعه، آموزش، و استقرار هوش مصنوعی مولد، مدلهای زبان بزرگ (LLM) و سیستمهای توصیهکننده بهینه شده است. این فناوری از دقت FP8 H100 استفاده میکند و آموزش هوش مصنوعی 9 برابر سریعتر و استنتاج هوش مصنوعی تا 30 برابر سریعتر را در LLM در مقایسه با نسل قبلی A100 ارائه میکند. H100 حمل و نقل را در پاییز در واحدهای کارتی منتخب از تولیدکنندگان جهانی آغاز کرد.
NVIDIA DGX H100 دارای هشت پردازنده گرافیکی H100 است که با اتصالات پرسرعت NVIDIA NVLink و شبکه کوانتوم InfiniBand و شبکه اترنت طیف یکپارچه NVIDIA متصل شده اند. این پلتفرم 32 پتافلاپ عملکرد محاسباتی را با دقت FP8، با شبکه سازی 2 برابر سریعتر از نسل قبلی ارائه می دهد، که به به حداکثر رساندن بهره وری انرژی در پردازش بارهای کاری بزرگ هوش مصنوعی کمک می کند.
در دسترس بودن
ابرکامپیوترهای NVIDIA DGX H100 در حال تولید کامل هستند و قابل سفارش از شرکای NVIDIA در سراسر جهان هستند. مشتریان امروز می توانند DGX H100 را با NVIDIA DGX Cloud امتحان کنند. قیمت از شرکای NVIDIA DGX در سراسر جهان در دسترس است.
AWS و NVIDIA برای بیش از 12 سال با هم کار کرده اند تا راه حل های مقرون به صرفه مبتنی بر GPU را در مقیاس بر اساس تقاضا ارائه دهند. AWS سابقه بینظیری در ارائه نمونههای مبتنی بر GPU دارد که مرزهای مقیاسپذیری را با هر نسل متوالی پشت سر میگذارد. امروزه، بسیاری از مشتریان حجم کار آموزش یادگیری ماشین را به بیش از 10000 GPU کاهش می دهند. با Gen 2 EFA، مشتریان میتوانند نمونههای P5 خود را به بیش از 20000 GPU H100 افزایش دهند و قابلیتهای ابررایانهای بر اساس تقاضا را برای هر سازمانی به ارمغان بیاورند. – دیوید براون، معاون آمازون EC2 در AWS
پیشگامان هوش مصنوعی H100 را پذیرفته اند
چندین پیشگام مولد هوش مصنوعی H100 را برای سرعت بخشیدن به کار خود اتخاذ می کنند:
- OpenAI از نسل قبلی H100، پردازندههای گرافیکی NVIDIA A100، برای آموزش و اجرای ChatGPT، یک سیستم هوش مصنوعی بهینهشده برای گفتگو، استفاده کرد که توسط صدها میلیون نفر در سراسر جهان در زمان رکورد استفاده شد. OpenAI از H100 در ابررایانه Azure خود برای تقویت تحقیقات در حال انجام هوش مصنوعی خود استفاده خواهد کرد.
- متا، یک شریک کلیدی فناوری NVIDIA، سیستم ابررایانه هوش مصنوعی Grand Teton مبتنی بر Hopper خود را با بهبودهای عملکردی چندگانه نسبت به مدل قبلی خود Zion توسعه داده است، از جمله 4 برابر پهنای باند میزبان به GPU، 2 برابر شبکه محاسباتی و داده، و 2 برابر قدرت. پاكت نامه. با این ظرفیت محاسباتی بیشتر، گرند تتون میتواند هم آموزش و هم استنتاج تولید مدلهای توصیه یادگیری عمیق و درک محتوا را پشتیبانی کند.
- هوش مصنوعی پایداری، پیشگام در هوش مصنوعی تولید متن به تصویر، یک مشتری H100 با دسترسی زودهنگام در AWS است. هوش مصنوعی پایداری قصد دارد از H100 برای سرعت بخشیدن به مدل های ویدیویی، سه بعدی و چندوجهی آینده خود استفاده کند.
- Twelve Labs، پلتفرمی که به کسبوکارها و توسعهدهندگان امکان دسترسی به درک ویدیوی چندوجهی را میدهد، قصد دارد از نمونههای H100 در یک ابرخوشه OCI برای ساختن ویدیوی فوری، هوشمند و به راحتی قابل جستجو استفاده کند.
- آنلاتان، خالق برنامه NovelAI برای نوشتن داستان به کمک هوش مصنوعی و ترکیب متن به تصویر، از نمونههای H100 در پلتفرم ابری CoreWeave برای ساخت مدل و استنتاج استفاده میکند.
DGX H100 در سراسر جهان
نوآوران در سراسر جهان اولین موج سیستم های DGX H100 را دریافت می کنند، از جمله:
- CyberAgent، یک شرکت پیشرو تبلیغات دیجیتال و خدمات اینترنتی مستقر در ژاپن، تبلیغات دیجیتالی تولید شده توسط هوش مصنوعی و آواتارهای دیجیتالی دوقلوی افراد مشهور را ایجاد میکند و از فناوریهای مولد هوش مصنوعی و LLM استفاده کامل میکند.
- آزمایشگاه فیزیک کاربردی دانشگاه جان هاپکینز، بزرگترین مرکز تحقیقاتی وابسته به دانشگاه در ایالات متحده، از DGX H100 برای آموزش LLM استفاده خواهد کرد.
- KTH Royal Institute of Technology، یک دانشگاه فنی و مهندسی پیشرو اروپایی مستقر در استکهلم، از DGX H100 برای ارائه برنامه های کامپیوتری پیشرفته برای آموزش عالی استفاده خواهد کرد.
- میتسویی، یکی از گروههای تجاری پیشرو ژاپن با طیف گستردهای از کسبوکارها در زمینههایی مانند انرژی، رفاه، محاسبات و ارتباطات، در حال ساخت اولین ابررایانه هوش مصنوعی ژاپنی برای کشف دارو است که توسط DGX H100 طراحی شده است.
- Telconet، یکی از ارائه دهندگان پیشرو مخابراتی اکوادور، تجزیه و تحلیل ویدئویی هوشمند را برای شهرهای امن و خدمات زبانی توسعه می دهد تا به مشتریان در همه لهجه های اسپانیایی کمک کند.
پشتیبانی از اکوسیستم
ما کاملاً بر روی نوآوری هوش مصنوعی و محصولات مبتنی بر هوش مصنوعی متمرکز شدهایم. GPUهای NVIDIA H100 شتابدهندههای پیشرفته یادگیری ماشینی هستند که به ما مزیت رقابتی قابل توجهی در صنعت یادگیری ماشین برای طیف گستردهای از برنامهها، از آموزش مدل میدهند. برای استنباط مدل.” – ارن دوگان، مدیر عامل آنلاتان
علاوه بر این، متا اکنون ابررایانه هوش مصنوعی گرند تتون مجهز به H100 خود را برای تیم های تولیدی و تحقیقاتی هوش مصنوعی خود به کار گرفته است. بنیانگذار و مدیرعامل انویدیا، جنسن هوانگ، امروز در جریان سخنرانی GTC خود اعلام کرد که ابررایانههای NVIDIA DGX H100 AI در حال تولید کامل هستند و به زودی در شرکتهای سراسر جهان در دسترس خواهند بود.

هوانگ گفت: «پتانسیل باورنکردنی هوش مصنوعی مولد تقریباً هر صنعتی را برای ابداع استراتژیهای تجاری خود و فناوری مورد نیاز برای تحقق آنها الهام میبخشد. انویدیا و شرکای ما به سرعت در حال حرکت هستند تا قدرتمندترین پلتفرم محاسباتی هوش مصنوعی جهان را به آن دسته از برنامه های کاربردی ارائه دهند که شیوه زندگی، کار و بازی ما را به طور اساسی متحول کند.
قیمت و سایر جزئیات به طور مستقیم از شرکای NVIDIA در دسترس است.
مرجع اخبار سخت افزار کامپیوترایران
“هوش مصنوعی قلب همه کارهایی است که در Google Cloud انجام می دهیم. پردازنده گرافیکی NVIDIA H100 و قابلیت های قدرتمند آن، همراه با محصولات و خدمات پیشرفته هوش مصنوعی ما، مشتریان ما را قادر می سازد تا نوآوری کنند. ما از همکاری با NVIDIA برای شتاب بخشیدن هیجان زده ایم. تلاش های سازمانی برای استفاده از قدرت هوش مصنوعی مولد.»—امین وحدت، معاون زیرساخت سیستم ها و خدمات در Google Cloud
“از آنجایی که پذیرش هوش مصنوعی به سرعت در حال افزایش است، نحوه عملکرد و موفقیت کسبوکارها اساساً در حال تغییر است. با آوردن معماری Hopper NVIDIA به Microsoft Azure، ما میتوانیم عملکرد و قابلیتهای محاسباتی بینظیری را به شرکتهایی ارائه دهیم که به دنبال افزایش قابلیتهای هوش مصنوعی خود هستند.” – اسکات گاتری. ، معاون اجرایی گروه Cloud + AI در مایکروسافت
Stability AI به عنوان رهبر جهانی در مدلهای مولد منبع باز هوش مصنوعی متعهد است که بهترین ابزارهای جهان را برای ایجاد چندوجهی در اختیار مصرفکنندگان و کسبوکارها قرار دهد. بهرهگیری از قدرت NVIDIA H100 قدرت محاسباتی بیسابقهای را برای تقویت خلاقیت و قابلیتهای تحقیقاتی ارائه میکند. تعداد فزایندهای از کسانی که به دنبال بهرهمندی از قدرتهای تغییردهنده هوش مصنوعی مولد هستند. این قفل ویدیو، سه بعدی و سایر مدلهای ما را باز میکند که به طور منحصربهفردی از اتصالات بالاتر و معماری پیشرفته برای اگزابایت داده بهره میبرند.» – عماد مستق، بنیانگذار و مدیر عامل پایداری IA
با ایجاد تجربیات جدید مبتنی بر هوش مصنوعی، مانند تجربیات مبتنی بر هوش مصنوعی مولد، مدلهای هوش مصنوعی زیربنایی به طور فزایندهای پیچیده میشوند. توصیههای آینده محتوای متا، هوش مصنوعی مولد و نیازهای متاورز.» – الکسیس بیورلین، معاون زیرساخت، سیستمهای هوش مصنوعی و پلتفرمهای شتابدهی متا
NVIDIA H100 در فضای ابری اکنون از Azure در پیشنمایش خصوصی، Oracle Cloud Infrastructure در دسترس محدود و عموماً از Cirrascale و CoreWeave در دسترس است. AWS اعلام کرده است که H100 در هفته های آینده به صورت پیش نمایش محدود در دسترس خواهد بود. شرکای ابری Google Cloud و NVIDIA، Lambda، Paperspace و Vultr قصد دارند H100 را ارائه دهند.