شریک AWS و NVIDIA برای ارائه 65 ابر رایانه ExaFLOP AI و راه حل های دیگر

Amazon Web Services, Inc. (AWS) یک شرکت Amazon.com (NASDAQ: AMZN) و NVIDIA (NASDAQ: NVDA) امروز گسترش همکاری استراتژیک خود را برای ارائه زیرساخت، نرم افزار و پیشرفته ترین خدمات اعلام کردند. برای تقویت نوآوری های هوش مصنوعی مولد مشتری (AI). این شرکت‌ها بهترین فناوری‌های NVIDIA و AWS را گرد هم می‌آورند، از جدیدترین سیستم‌های چند نود انویدیا با پردازنده‌های گرافیکی، پردازنده‌های مرکزی و نرم‌افزارهای هوش مصنوعی نسل بعدی گرفته تا مجازی‌سازی و امنیت پیشرفته AWS Nitro، آداپتور الاستیک فابریک (EFA) و UltraCluster. مقیاس پذیری، ایده آل برای آموزش مدل های پایه و ایجاد برنامه های کاربردی هوش مصنوعی.

این همکاری گسترده بر اساس یک رابطه طولانی مدت است که با ارائه پیشگامان یادگیری ماشین اولیه (ML) با عملکرد محاسباتی مورد نیاز برای پیشرفت وضعیت هنر این فناوری‌ها، عصر هوش مصنوعی مولد را تقویت کرده است.

به عنوان بخشی از همکاری گسترده تر برای تقویت هوش مصنوعی مولد در بخش های مختلف:

  • AWS اولین ارائه‌دهنده ابری خواهد بود که سوپرتراشه‌های NVIDIA GH200 Grace Hopper را با فناوری جدید چند نود NVLink در فضای ابری ادغام می‌کند. پلتفرم چند نود NVIDIA GH200 NVL32 32 سوپرتراشه Grace Hopper را با فناوری‌های NVIDIA NVLink و NVSwitch در یک نمونه متصل می‌کند. این پلتفرم در نمونه‌های Amazon Elastic Compute Cloud (Amazon EC2) متصل به شبکه قدرتمند آمازون (EFA)، با مجازی‌سازی پیشرفته (AWS Nitro System) و خوشه‌بندی در مقیاس بزرگ (Amazon EC2 UltraClusters) در دسترس خواهد بود و به مشتریان معمولی امکان تکامل را می‌دهد. به هزاران سوپرتراشه GH200.
  • NVIDIA و AWS برای میزبانی NVIDIA DGX Cloud، آموزش هوش مصنوعی NVIDIA به عنوان یک سرویس، در AWS همکاری خواهند کرد. این اولین DGX Cloud خواهد بود که دارای GH200 NVL32 است و بزرگترین حافظه مشترک را در یک نمونه به توسعه دهندگان ارائه می دهد. DGX Cloud در AWS آموزش هوش مصنوعی پیشرفته و مدل‌های زبانی بزرگ را که می‌تواند فراتر از 1 تریلیون پارامتر باشد، تسریع خواهد کرد.
  • NVIDIA و AWS در پروژه Ceiba برای طراحی سریع‌ترین ابررایانه هوش مصنوعی جهان با پردازنده گرافیکی شریک هستند: یک سیستم در مقیاس بزرگ با اتصال GH200 NVL32 و آمازون EFA که توسط AWS برای تیم تحقیق و توسعه NVIDIA میزبانی می‌شود. این ابرکامپیوتر بی‌نظیر، مجهز به 16384 سوپرتراشه NVIDIA GH200 و توانایی پردازش 65 اگزافلاپس هوش مصنوعی، توسط NVIDIA برای تقویت موج بعدی نوآوری‌های هوش مصنوعی خود استفاده خواهد شد.
  • AWS سه نمونه جدید جدید آمازون EC2 را معرفی خواهد کرد: نمونه‌های P5e، با پردازنده‌های گرافیکی NVIDIA H200 Tensor Core، برای حجم‌های کاری تولیدی و HPC در مقیاس بزرگ و لبه‌ای، و نمونه‌های G6 و G6e، با پردازنده‌های گرافیکی NVIDIA L4 و پردازنده‌های گرافیکی NVIDIA L40S. به ترتیب، برای طیف وسیعی از کاربردها مانند تنظیم دقیق هوش مصنوعی، استنتاج، گرافیک و حجم کاری ویدیویی. نمونه‌های G6e به‌ویژه برای توسعه گردش‌های کاری سه‌بعدی، دوقلوهای دیجیتال و سایر برنامه‌ها با استفاده از NVIDIA Omniverse، پلتفرمی برای اتصال و ساخت برنامه‌های سه بعدی مولد مبتنی بر هوش مصنوعی، مناسب هستند.
  • AWS و NVIDIA بیش از 13 سال است که با اولین نمونه ابر GPU در جهان شروع به همکاری کرده اند. امروز، ما گسترده‌ترین راه‌حل‌های NVIDIA GPU را برای حجم‌های کاری از جمله گرافیک، بازی، محاسبات با عملکرد بالا، یادگیری ماشین، و اکنون، برنامه‌های کاربردی ارائه می‌دهیم. آدام سلیپسکی، مدیر عامل AWS گفت: “ما به نوآوری با NVIDIA ادامه می دهیم تا AWS را به بهترین مکان برای اجرای پردازنده های گرافیکی تبدیل کنیم، با ترکیب سوپرتراشه های نسل بعدی NVIDIA Grace Hopper با شبکه قدرتمند EFA AWS، خوشه بندی فوق مقیاس پذیر EC2 UltraClusters. و قابلیت های مجازی سازی پیشرفته Nitro.

جنسن هوانگ، بنیانگذار و مدیر عامل انویدیا، گفت: «هوش مصنوعی مولد بار کاری ابری را تغییر می‌دهد و محاسبات سریع را در پایه تولید محتوای متنوع قرار می‌دهد. NVIDIA و AWS با هدایت یک ماموریت مشترک برای ارائه پیشرفته‌ترین و مقرون‌به‌صرفه هوش مصنوعی مولد به هر مشتری، در کل پشته محاسباتی، از زیرساخت‌های هوش مصنوعی گرفته تا کتابخانه‌های شتاب گرفته تا مدل‌های اولیه و خدمات هوش مصنوعی مولد، با یکدیگر همکاری می‌کنند. “

نمونه‌های جدید آمازون EC2 جدیدترین فناوری‌های NVIDIA و AWS را ترکیب می‌کنند
AWS اولین ارائه‌دهنده ابری خواهد بود که سوپرتراشه‌های NVIDIA GH200 Grace Hopper را با فناوری NVLink چند گره ارائه می‌کند. هر سوپرتراشه GH200 یک پردازنده Grace مبتنی بر Arm را با یک پردازنده گرافیکی معماری NVIDIA Hopper در همان ماژول ترکیب می کند. یک نمونه آمازون EC2 با GH200 NVL32 می‌تواند تا 20 ترابایت حافظه مشترک برای بارهای کاری در مقیاس ترابایت فراهم کند.

این نمونه‌ها از اتصال نسل سوم Elastic Fabric Adapter (EFA) AWS بهره می‌برند که حداکثر 400 گیگابیت بر ثانیه در هر سوپرتراشه با تاخیر کم و پهنای باند توان عملیاتی شبکه را فراهم می‌کند و مشتریان را قادر می‌سازد تا به هزاران سوپرتراشه GH200 در EC2 UltraClusters مقیاس کنند.

نمونه‌های AWS با GH200 NVL32 به مشتریان دسترسی درخواستی به عملکرد کلاس ابر رایانه را ارائه می‌دهند، که برای بارهای کاری AI/ML در مقیاس بزرگ ضروری است که باید در چندین گره برای بارهای کاری AI مولد پیچیده، پوشش FM، سیستم‌های توصیه‌ای توزیع شود. و پایگاه های داده برداری

نمونه‌های EC2 مجهز به NVIDIA GH200 دارای 4.5 ترابایت حافظه HBM3e هستند که 7.2 برابر بیشتر از نمونه‌های نسل فعلی EC2 P5d با H100 است و به مشتریان امکان می‌دهد مدل‌های بزرگ‌تر را اجرا کنند و در عین حال عملکرد آموزشی را بهبود ببخشند. علاوه بر این، اتصال حافظه CPU-GPU تا 7 برابر پهنای باند بیشتری نسبت به PCIe فراهم می کند و ارتباطات تراشه به تراشه را امکان پذیر می کند که کل حافظه موجود را برای برنامه ها افزایش می دهد.

نمونه‌های AWS با GH200 NVL32 اولین زیرساخت هوش مصنوعی در AWS خواهند بود که از خنک‌کننده مایع برخوردار می‌شوند تا اطمینان حاصل شود که رک‌های سرور با بسته‌بندی متراکم می‌توانند به طور موثر در اوج عملکرد کار کنند.

نمونه‌های EC2 با GH200 NVL32 همچنین از AWS Nitro، پلت‌فرم زیربنای نمونه‌های نسل بعدی EC2 بهره‌مند خواهند شد. سیستم نیترو عملکرد ورودی/خروجی را از CPU/GPU میزبان به سخت‌افزار تخصصی تخلیه می‌کند تا عملکرد ثابت‌تری ارائه دهد، در حالی که امنیت پیشرفته آن از کد مشتری و داده‌ها در طول پردازش محافظت می‌کند.

AWS اولین میزبان NVIDIA DGX Cloud است که توسط Grace Hopper طراحی شده است
AWS برای میزبانی NVIDIA DGX Cloud با زیرساخت GH200 NVL32 NVLink با NVIDIA همکاری خواهد کرد. NVIDIA DGX Cloud یک سرویس ابررایانه هوش مصنوعی است که دسترسی سریع به ابررایانه‌های چند گره‌ای را برای آموزش پیچیده‌ترین مدل‌های LLM و هوش مصنوعی مولد، با نرم‌افزار یکپارچه NVIDIA AI Enterprise و دسترسی مستقیم به کارشناسان NVIDIA AI فراهم می‌کند.

پروژه عظیم ابررایانه Ceiba برای تقویت توسعه هوش مصنوعی NVIDIA
ابرکامپیوتر پروژه Ceiba که AWS و NVIDIA روی آن همکاری می کنند با خدمات AWS مانند شبکه رمزگذاری شده Amazon Virtual Private Cloud (VPC) و فروشگاه بلوک الاستیک آمازون با کارایی بالا ادغام می شود و به انویدیا امکان دسترسی به مجموعه ای از AWS را می دهد. امکانات. .

NVIDIA از این ابر رایانه برای تحقیق و توسعه برای پیشرفت هوش مصنوعی برای LLM، گرافیک و شبیه‌سازی، زیست‌شناسی محاسباتی، روباتیک، اتومبیل‌های خودران، پیش‌بینی آب و هوای Earth-2 و موارد دیگر استفاده خواهد کرد.

NVIDIA و AWS Supercharge Generative AI، HPC، طراحی و شبیه سازی
برای تقویت توسعه، آموزش و استنتاج بزرگترین LLMها، نمونه‌های AWS P5e از جدیدترین پردازنده‌های گرافیکی NVIDIA H200 بهره می‌برند که ۱۴۱ گیگابایت حافظه گرافیکی HBM3e، ۱.۸ برابر بزرگ‌تر و ۱.۴ برابر سریع‌تر از پردازنده‌های گرافیکی H100 ارائه می‌دهند. این افزایش حافظه GPU، همراه با حداکثر 3200 گیگابیت بر ثانیه شبکه EFA با قابلیت AWS Nitro، مشتریان را قادر می سازد تا به ساخت، آموزش و استقرار مدل های پیشرفته خود در AWS ادامه دهند.

برای ارائه راه‌حل‌های مقرون‌به‌صرفه و کم‌مصرف برای حجم‌های کاری ویدئویی، هوش مصنوعی و گرافیکی، AWS نمونه‌های جدید آمازون EC2 G6e با پردازنده‌های گرافیکی NVIDIA L40S و نمونه‌های G6 مجهز به پردازنده‌های گرافیکی L4 را معرفی کرد. پیشنهادات جدید می‌تواند به استارت‌آپ‌ها، شرکت‌ها و محققان کمک کند تا نیازهای هوش مصنوعی و گرافیکی با وفاداری بالا را برآورده کنند.

نمونه‌های G6e برای مدیریت بارهای کاری پیچیده مانند هوش مصنوعی و برنامه‌های کاربردی دیجیتالی دوقلو طراحی شده‌اند. با استفاده از NVIDIA Omniverse، شبیه‌سازی‌های سه‌بعدی فوتورئالیستی را می‌توان با استفاده از داده‌های بلادرنگ از سرویس‌هایی مانند AWS IoT TwinMaker، ربات‌های چت هوشمند، دستیاران، جستجو و خلاصه‌سازی توسعه داد، زمینه‌سازی و بهبود بخشید. آمازون رباتیک و مراکز تحقق آمازون قادر خواهند بود دوقلوهای دیجیتالی ساخته شده با NVIDIA Omniverse و AWS IoT TwinMaker را برای بهینه سازی طراحی و جریان انبار، آموزش دستیاران رباتیک هوشمندتر و بهبود تحویل به مشتریان ادغام کنند.

پردازنده‌های گرافیکی L40S تا 1.45 پتافلاپ عملکرد FP8 را ارائه می‌کنند و دارای هسته‌های Ray Tracing هستند که تا 209 ترافلاپس عملکرد ردیابی اشعه را ارائه می‌دهند. پردازنده‌های گرافیکی L4 که در نمونه‌های G6 ارائه می‌شوند، راه‌حل‌های کم‌هزینه‌تر و کم‌مصرف انرژی را برای استقرار مدل‌های هوش مصنوعی برای پردازش زبان طبیعی، ترجمه زبان، تجزیه و تحلیل ویدیو و تصویر هوش مصنوعی، تشخیص گفتار و شخصی‌سازی ارائه می‌دهند. پردازنده‌های گرافیکی L40S همچنین بارهای گرافیکی را تسریع می‌کنند، مانند ایجاد و ارائه گرافیک‌های بلادرنگ با کیفیت سینما و پخش بازی‌ها. هر سه نمونه در سال آینده در دسترس خواهند بود.

نرم افزار NVIDIA در AWS Drives Generative AI Development
علاوه بر این، انویدیا نرم‌افزاری را روی AWS برای توسعه هوش مصنوعی مولد معرفی کرد. میکروسرویس NVIDIA NeMo Retriever ابزارهای جدیدی را برای ساخت ربات‌های گفتگوی بسیار دقیق و ابزارهای خلاصه‌سازی با استفاده از بازیابی معنایی سریع ارائه می‌دهد. NVIDIA BioNeMo که اکنون در Amazon SageMaker در دسترس است و در AWS در NVIDIA DGX Cloud در دسترس است، شرکت‌های داروسازی را قادر می‌سازد تا با ساده‌سازی و تسریع آموزش مدل با استفاده از داده‌های خود، کشف دارو را تسریع کنند.

نرم افزار NVIDIA در AWS به آمازون کمک می کند تا نوآوری های جدیدی را در خدمات و عملیات خود ارائه دهد. AWS از چارچوب NVIDIA NeMo برای آموزش برخی از نسل بعدی Amazon Titan LLM استفاده می کند. Amazon Robotics شروع به استفاده از NVIDIA Omniverse Isaac برای ایجاد دوقلوهای دیجیتالی برای خودکارسازی، بهینه سازی و برنامه ریزی انبارهای مستقل خود در محیط های مجازی قبل از استقرار آنها در دنیای واقعی کرده است.

مرجع اخبار سخت افزار کامپیوترایران