پردازنده‌های گرافیکی NVIDIA Hopper با افزایش تقاضا برای هوش مصنوعی، دسترسی خود را افزایش می‌دهند

با ایجاد تجربیات جدید مبتنی بر هوش مصنوعی، مانند تجربیات مبتنی بر هوش مصنوعی مولد، مدل‌های هوش مصنوعی زیربنایی به طور فزاینده‌ای پیچیده می‌شوند. توصیه‌های آینده محتوای متا، هوش مصنوعی مولد و نیازهای متاورز.» – الکسیس بیورلین، معاون زیرساخت، سیستم‌های هوش مصنوعی و پلتفرم‌های شتاب‌دهی متا

“هوش مصنوعی قلب همه کارهایی است که در Google Cloud انجام می دهیم. پردازنده گرافیکی NVIDIA H100 و قابلیت های قدرتمند آن، همراه با محصولات و خدمات پیشرفته هوش مصنوعی ما، مشتریان ما را قادر می سازد تا نوآوری کنند. ما از همکاری با NVIDIA برای شتاب بخشیدن هیجان زده ایم. تلاش های سازمانی برای استفاده از قدرت هوش مصنوعی مولد.»—امین وحدت، معاون زیرساخت سیستم ها و خدمات در Google Cloud

معماری هاپر هوش مصنوعی را تسریع می کند
H100، مبتنی بر معماری محاسباتی NVIDIA Hopper GPU با موتور ترانسفورماتور داخلی خود، برای توسعه، آموزش، و استقرار هوش مصنوعی مولد، مدل‌های زبان بزرگ (LLM) و سیستم‌های توصیه‌کننده بهینه شده است. این فناوری از دقت FP8 H100 استفاده می‌کند و آموزش هوش مصنوعی 9 برابر سریع‌تر و استنتاج هوش مصنوعی تا 30 برابر سریع‌تر را در LLM در مقایسه با نسل قبلی A100 ارائه می‌کند. H100 حمل و نقل را در پاییز در واحدهای کارتی منتخب از تولیدکنندگان جهانی آغاز کرد.

DGX H100 همچنین شامل مجموعه نرم‌افزار هوش مصنوعی NVIDIA است که به شرکت‌ها اجازه می‌دهد تا به طور یکپارچه بارهای کاری هوش مصنوعی خود را در مقیاس بزرگ اجرا و مدیریت کنند. این پیشنهاد شامل آخرین نسخه NVIDIA AI Enterprise است که امروز به طور جداگانه معرفی شد و همچنین NVIDIA Base Command، سیستم عامل مرکز داده DGX، که آموزش و عملیات هوش مصنوعی را بر روی پلت فرم NVIDIA هماهنگ می کند. DGX برای ساده سازی و ساده سازی توسعه هوش مصنوعی.

علاوه بر این، متا اکنون ابررایانه هوش مصنوعی گرند تتون مجهز به H100 خود را برای تیم های تولیدی و تحقیقاتی هوش مصنوعی خود به کار گرفته است. بنیانگذار و مدیرعامل انویدیا، جنسن هوانگ، امروز در جریان سخنرانی GTC خود اعلام کرد که ابررایانه‌های NVIDIA DGX H100 AI در حال تولید کامل هستند و به زودی در شرکت‌های سراسر جهان در دسترس خواهند بود.

هوانگ گفت: «پتانسیل باورنکردنی هوش مصنوعی مولد تقریباً هر صنعتی را برای ابداع استراتژی‌های تجاری خود و فناوری مورد نیاز برای تحقق آنها الهام می‌بخشد. انویدیا و شرکای ما به سرعت در حال حرکت هستند تا قدرتمندترین پلتفرم محاسباتی هوش مصنوعی جهان را به آن دسته از برنامه های کاربردی ارائه دهند که شیوه زندگی، کار و بازی ما را به طور اساسی متحول کند.

Twelve Labs هیجان زده است که از Oracle Cloud Infrastructure Compute نمونه‌های فلزی برهنه مجهز به پردازنده‌های گرافیکی NVIDIA H100 استفاده کند تا به تلاش‌ها برای ارائه مدل‌های پایه ویدیویی به بازار ادامه دهد. – جائه لی، مدیرعامل دوازده آزمایشگاه

در دسترس بودن
ابرکامپیوترهای NVIDIA DGX H100 در حال تولید کامل هستند و قابل سفارش از شرکای NVIDIA در سراسر جهان هستند. مشتریان امروز می توانند DGX H100 را با NVIDIA DGX Cloud امتحان کنند. قیمت از شرکای NVIDIA DGX در سراسر جهان در دسترس است.

پیشگامان هوش مصنوعی H100 را پذیرفته اند
چندین پیشگام مولد هوش مصنوعی H100 را برای سرعت بخشیدن به کار خود اتخاذ می کنند:

  • OpenAI از نسل قبلی H100، پردازنده‌های گرافیکی NVIDIA A100، برای آموزش و اجرای ChatGPT، یک سیستم هوش مصنوعی بهینه‌شده برای گفتگو، استفاده کرد که توسط صدها میلیون نفر در سراسر جهان در زمان رکورد استفاده شد. OpenAI از H100 در ابررایانه Azure خود برای تقویت تحقیقات در حال انجام هوش مصنوعی خود استفاده خواهد کرد.
  • متا، یک شریک کلیدی فناوری NVIDIA، سیستم ابررایانه هوش مصنوعی Grand Teton مبتنی بر Hopper خود را با بهبودهای عملکردی چندگانه نسبت به مدل قبلی خود Zion توسعه داده است، از جمله 4 برابر پهنای باند میزبان به GPU، 2 برابر شبکه محاسباتی و داده، و 2 برابر قدرت. پاكت نامه. با این ظرفیت محاسباتی بیشتر، گرند تتون می‌تواند هم آموزش و هم استنتاج تولید مدل‌های توصیه یادگیری عمیق و درک محتوا را پشتیبانی کند.
  • هوش مصنوعی پایداری، پیشگام در هوش مصنوعی تولید متن به تصویر، یک مشتری H100 با دسترسی زودهنگام در AWS است. هوش مصنوعی پایداری قصد دارد از H100 برای سرعت بخشیدن به مدل های ویدیویی، سه بعدی و چندوجهی آینده خود استفاده کند.
  • Twelve Labs، پلتفرمی که به کسب‌وکارها و توسعه‌دهندگان امکان دسترسی به درک ویدیوی چندوجهی را می‌دهد، قصد دارد از نمونه‌های H100 در یک ابرخوشه OCI برای ساختن ویدیوی فوری، هوشمند و به راحتی قابل جستجو استفاده کند.
  • آنلاتان، خالق برنامه NovelAI برای نوشتن داستان به کمک هوش مصنوعی و ترکیب متن به تصویر، از نمونه‌های H100 در پلتفرم ابری CoreWeave برای ساخت مدل و استنتاج استفاده می‌کند.

DGX H100 در سراسر جهان

نوآوران در سراسر جهان اولین موج سیستم های DGX H100 را دریافت می کنند، از جمله:

  • CyberAgent، یک شرکت پیشرو تبلیغات دیجیتال و خدمات اینترنتی مستقر در ژاپن، تبلیغات دیجیتالی تولید شده توسط هوش مصنوعی و آواتارهای دیجیتالی دوقلوی افراد مشهور را ایجاد می‌کند و از فناوری‌های مولد هوش مصنوعی و LLM استفاده کامل می‌کند.
  • آزمایشگاه فیزیک کاربردی دانشگاه جان هاپکینز، بزرگترین مرکز تحقیقاتی وابسته به دانشگاه در ایالات متحده، از DGX H100 برای آموزش LLM استفاده خواهد کرد.
  • KTH Royal Institute of Technology، یک دانشگاه فنی و مهندسی پیشرو اروپایی مستقر در استکهلم، از DGX H100 برای ارائه برنامه های کامپیوتری پیشرفته برای آموزش عالی استفاده خواهد کرد.
  • میتسویی، یکی از گروه‌های تجاری پیشرو ژاپن با طیف گسترده‌ای از کسب‌وکارها در زمینه‌هایی مانند انرژی، رفاه، محاسبات و ارتباطات، در حال ساخت اولین ابررایانه هوش مصنوعی ژاپنی برای کشف دارو است که توسط DGX H100 طراحی شده است.
  • Telconet، یکی از ارائه دهندگان پیشرو مخابراتی اکوادور، تجزیه و تحلیل ویدئویی هوشمند را برای شهرهای امن و خدمات زبانی توسعه می دهد تا به مشتریان در همه لهجه های اسپانیایی کمک کند.

پشتیبانی از اکوسیستم

ما کاملاً بر روی نوآوری هوش مصنوعی و محصولات مبتنی بر هوش مصنوعی متمرکز شده‌ایم. GPUهای NVIDIA H100 شتاب‌دهنده‌های پیشرفته یادگیری ماشینی هستند که به ما مزیت رقابتی قابل توجهی در صنعت یادگیری ماشین برای طیف گسترده‌ای از برنامه‌ها، از آموزش مدل می‌دهند. برای استنباط مدل.” – ارن دوگان، مدیر عامل آنلاتان

“OCI قابلیت‌های ابررایانه‌ای با هوش مصنوعی در مقیاس بزرگ را به هزاران سازمان در هر اندازه‌ای ارائه می‌کند. همکاری قوی ما با NVIDIA ارزش زیادی را به مشتریان ارائه می‌کند و ما از قدرت H100 هیجان‌زده هستیم.” – گرگ پاولیک، CTO و معاون ارشد رئیس جمهور در Oracle Cloud Infrastructure

“از آنجایی که پذیرش هوش مصنوعی به سرعت در حال افزایش است، نحوه عملکرد و موفقیت کسب‌وکارها اساساً در حال تغییر است. با آوردن معماری Hopper NVIDIA به Microsoft Azure، ما می‌توانیم عملکرد و قابلیت‌های محاسباتی بی‌نظیری را به شرکت‌هایی ارائه دهیم که به دنبال افزایش قابلیت‌های هوش مصنوعی خود هستند.” – اسکات گاتری. ، معاون اجرایی گروه Cloud + AI در مایکروسافت

انویدیا و شرکای کلیدی آن امروز در دسترس بودن محصولات و خدمات جدید دارای پردازنده گرافیکی NVIDIA H100 Tensor Core، قدرتمندترین پردازنده گرافیکی جهان برای هوش مصنوعی، برای پاسخگویی به تقاضای فزاینده برای آموزش و استنتاج مولد در هوش مصنوعی اعلام کردند. Oracle Cloud Infrastructure (OCI) در دسترس بودن محدود نمونه‌های GPU فلزی برهنه OCI Compute با پردازنده‌های گرافیکی H100 را اعلام کرد. علاوه بر این، خدمات وب آمازون از نمونه های EC2 P5 آمازون EC2 UltraClusterهای آتی خود خبر داد که می توانند تا 20000 GPU H100 متصل به هم مقیاس داشته باشند. این به دنبال اعلام پیش نمایش خصوصی Microsoft Azure در هفته گذشته برای ماشین مجازی H100 خود، ND H100 v5 است.

Stability AI به عنوان رهبر جهانی در مدل‌های مولد منبع باز هوش مصنوعی متعهد است که بهترین ابزارهای جهان را برای ایجاد چندوجهی در اختیار مصرف‌کنندگان و کسب‌وکارها قرار دهد. بهره‌گیری از قدرت NVIDIA H100 قدرت محاسباتی بی‌سابقه‌ای را برای تقویت خلاقیت و قابلیت‌های تحقیقاتی ارائه می‌کند. تعداد فزاینده‌ای از کسانی که به دنبال بهره‌مندی از قدرت‌های تغییردهنده هوش مصنوعی مولد هستند. این قفل ویدیو، سه بعدی و سایر مدل‌های ما را باز می‌کند که به طور منحصربه‌فردی از اتصالات بالاتر و معماری پیشرفته برای اگزابایت داده بهره می‌برند.» – عماد مستق، بنیان‌گذار و مدیر عامل پایداری IA

NVIDIA H100 در فضای ابری اکنون از Azure در پیش‌نمایش خصوصی، Oracle Cloud Infrastructure در دسترس محدود و عموماً از Cirrascale و CoreWeave در دسترس است. AWS اعلام کرده است که H100 در هفته های آینده به صورت پیش نمایش محدود در دسترس خواهد بود. شرکای ابری Google Cloud و NVIDIA، Lambda، Paperspace و Vultr قصد دارند H100 را ارائه دهند.

NVIDIA DGX H100 دارای هشت پردازنده گرافیکی H100 است که با اتصالات پرسرعت NVIDIA NVLink و شبکه کوانتوم InfiniBand و شبکه اترنت طیف یکپارچه NVIDIA متصل شده اند. این پلتفرم 32 پتافلاپ عملکرد محاسباتی را با دقت FP8، با شبکه سازی 2 برابر سریعتر از نسل قبلی ارائه می دهد، که به به حداکثر رساندن بهره وری انرژی در پردازش بارهای کاری بزرگ هوش مصنوعی کمک می کند.

AWS و NVIDIA برای بیش از 12 سال با هم کار کرده اند تا راه حل های مقرون به صرفه مبتنی بر GPU را در مقیاس بر اساس تقاضا ارائه دهند. AWS سابقه بی‌نظیری در ارائه نمونه‌های مبتنی بر GPU دارد که مرزهای مقیاس‌پذیری را با هر نسل متوالی پشت سر می‌گذارد. امروزه، بسیاری از مشتریان حجم کار آموزش یادگیری ماشین را به بیش از 10000 GPU کاهش می دهند. با Gen 2 EFA، مشتریان می‌توانند نمونه‌های P5 خود را به بیش از 20000 GPU H100 افزایش دهند و قابلیت‌های ابررایانه‌ای بر اساس تقاضا را برای هر سازمانی به ارمغان بیاورند. – دیوید براون، معاون آمازون EC2 در AWS

سرورها و سیستم‌های دارای پردازنده‌های گرافیکی NVIDIA H100 از تولیدکنندگان بزرگ سرور از جمله Atos، Cisco، Dell Technologies، گیگابایت، Hewlett Packard Enterprise، Lenovo و Supermicro در دسترس هستند.

قیمت و سایر جزئیات به طور مستقیم از شرکای NVIDIA در دسترس است.



مرجع اخبار سخت افزار کامپیوترایران

“قدرت محاسباتی NVIDIA H100 Tensor Core GPU برای فعال کردن تلاش‌های ما برای پیشبرد مرزهای آموزش و استنتاج هوش مصنوعی ضروری است. سیستم‌هایی مانند GPT-4.” – گرگ براکمن، رئیس و یکی از بنیانگذاران OpenAI