این همکاری گسترده بر اساس یک رابطه طولانی مدت است که با ارائه پیشگامان یادگیری ماشین اولیه (ML) با عملکرد محاسباتی مورد نیاز برای پیشرفت وضعیت هنر این فناوریها، عصر هوش مصنوعی مولد را تقویت کرده است.
![](https://tpucdn.com/img/bz4yRdFAW8CEw4hk_thm.jpg)
به عنوان بخشی از همکاری گسترده تر برای تقویت هوش مصنوعی مولد در بخش های مختلف:
- AWS اولین ارائهدهنده ابری خواهد بود که سوپرتراشههای NVIDIA GH200 Grace Hopper را با فناوری جدید چند نود NVLink در فضای ابری ادغام میکند. پلتفرم چند نود NVIDIA GH200 NVL32 32 سوپرتراشه Grace Hopper را با فناوریهای NVIDIA NVLink و NVSwitch در یک نمونه متصل میکند. این پلتفرم در نمونههای Amazon Elastic Compute Cloud (Amazon EC2) متصل به شبکه قدرتمند آمازون (EFA)، با مجازیسازی پیشرفته (AWS Nitro System) و خوشهبندی در مقیاس بزرگ (Amazon EC2 UltraClusters) در دسترس خواهد بود و به مشتریان معمولی امکان تکامل را میدهد. به هزاران سوپرتراشه GH200.
- NVIDIA و AWS برای میزبانی NVIDIA DGX Cloud، آموزش هوش مصنوعی NVIDIA به عنوان یک سرویس، در AWS همکاری خواهند کرد. این اولین DGX Cloud خواهد بود که دارای GH200 NVL32 است و بزرگترین حافظه مشترک را در یک نمونه به توسعه دهندگان ارائه می دهد. DGX Cloud در AWS آموزش هوش مصنوعی پیشرفته و مدلهای زبانی بزرگ را که میتواند فراتر از 1 تریلیون پارامتر باشد، تسریع خواهد کرد.
- NVIDIA و AWS در پروژه Ceiba برای طراحی سریعترین ابررایانه هوش مصنوعی جهان با پردازنده گرافیکی شریک هستند: یک سیستم در مقیاس بزرگ با اتصال GH200 NVL32 و آمازون EFA که توسط AWS برای تیم تحقیق و توسعه NVIDIA میزبانی میشود. این ابرکامپیوتر بینظیر، مجهز به 16384 سوپرتراشه NVIDIA GH200 و توانایی پردازش 65 اگزافلاپس هوش مصنوعی، توسط NVIDIA برای تقویت موج بعدی نوآوریهای هوش مصنوعی خود استفاده خواهد شد.
- AWS سه نمونه جدید جدید آمازون EC2 را معرفی خواهد کرد: نمونههای P5e، با پردازندههای گرافیکی NVIDIA H200 Tensor Core، برای حجمهای کاری تولیدی و HPC در مقیاس بزرگ و لبهای، و نمونههای G6 و G6e، با پردازندههای گرافیکی NVIDIA L4 و پردازندههای گرافیکی NVIDIA L40S. به ترتیب، برای طیف وسیعی از کاربردها مانند تنظیم دقیق هوش مصنوعی، استنتاج، گرافیک و حجم کاری ویدیویی. نمونههای G6e بهویژه برای توسعه گردشهای کاری سهبعدی، دوقلوهای دیجیتال و سایر برنامهها با استفاده از NVIDIA Omniverse، پلتفرمی برای اتصال و ساخت برنامههای سه بعدی مولد مبتنی بر هوش مصنوعی، مناسب هستند.
- AWS و NVIDIA بیش از 13 سال است که با اولین نمونه ابر GPU در جهان شروع به همکاری کرده اند. امروز، ما گستردهترین راهحلهای NVIDIA GPU را برای حجمهای کاری از جمله گرافیک، بازی، محاسبات با عملکرد بالا، یادگیری ماشین، و اکنون، برنامههای کاربردی ارائه میدهیم. آدام سلیپسکی، مدیر عامل AWS گفت: “ما به نوآوری با NVIDIA ادامه می دهیم تا AWS را به بهترین مکان برای اجرای پردازنده های گرافیکی تبدیل کنیم، با ترکیب سوپرتراشه های نسل بعدی NVIDIA Grace Hopper با شبکه قدرتمند EFA AWS، خوشه بندی فوق مقیاس پذیر EC2 UltraClusters. و قابلیت های مجازی سازی پیشرفته Nitro.
جنسن هوانگ، بنیانگذار و مدیر عامل انویدیا، گفت: «هوش مصنوعی مولد بار کاری ابری را تغییر میدهد و محاسبات سریع را در پایه تولید محتوای متنوع قرار میدهد. NVIDIA و AWS با هدایت یک ماموریت مشترک برای ارائه پیشرفتهترین و مقرونبهصرفه هوش مصنوعی مولد به هر مشتری، در کل پشته محاسباتی، از زیرساختهای هوش مصنوعی گرفته تا کتابخانههای شتاب گرفته تا مدلهای اولیه و خدمات هوش مصنوعی مولد، با یکدیگر همکاری میکنند. “
نمونههای جدید آمازون EC2 جدیدترین فناوریهای NVIDIA و AWS را ترکیب میکنند
AWS اولین ارائهدهنده ابری خواهد بود که سوپرتراشههای NVIDIA GH200 Grace Hopper را با فناوری NVLink چند گره ارائه میکند. هر سوپرتراشه GH200 یک پردازنده Grace مبتنی بر Arm را با یک پردازنده گرافیکی معماری NVIDIA Hopper در همان ماژول ترکیب می کند. یک نمونه آمازون EC2 با GH200 NVL32 میتواند تا 20 ترابایت حافظه مشترک برای بارهای کاری در مقیاس ترابایت فراهم کند.
این نمونهها از اتصال نسل سوم Elastic Fabric Adapter (EFA) AWS بهره میبرند که حداکثر 400 گیگابیت بر ثانیه در هر سوپرتراشه با تاخیر کم و پهنای باند توان عملیاتی شبکه را فراهم میکند و مشتریان را قادر میسازد تا به هزاران سوپرتراشه GH200 در EC2 UltraClusters مقیاس کنند.
نمونههای AWS با GH200 NVL32 به مشتریان دسترسی درخواستی به عملکرد کلاس ابر رایانه را ارائه میدهند، که برای بارهای کاری AI/ML در مقیاس بزرگ ضروری است که باید در چندین گره برای بارهای کاری AI مولد پیچیده، پوشش FM، سیستمهای توصیهای توزیع شود. و پایگاه های داده برداری
نمونههای EC2 مجهز به NVIDIA GH200 دارای 4.5 ترابایت حافظه HBM3e هستند که 7.2 برابر بیشتر از نمونههای نسل فعلی EC2 P5d با H100 است و به مشتریان امکان میدهد مدلهای بزرگتر را اجرا کنند و در عین حال عملکرد آموزشی را بهبود ببخشند. علاوه بر این، اتصال حافظه CPU-GPU تا 7 برابر پهنای باند بیشتری نسبت به PCIe فراهم می کند و ارتباطات تراشه به تراشه را امکان پذیر می کند که کل حافظه موجود را برای برنامه ها افزایش می دهد.
نمونههای AWS با GH200 NVL32 اولین زیرساخت هوش مصنوعی در AWS خواهند بود که از خنککننده مایع برخوردار میشوند تا اطمینان حاصل شود که رکهای سرور با بستهبندی متراکم میتوانند به طور موثر در اوج عملکرد کار کنند.
نمونههای EC2 با GH200 NVL32 همچنین از AWS Nitro، پلتفرم زیربنای نمونههای نسل بعدی EC2 بهرهمند خواهند شد. سیستم نیترو عملکرد ورودی/خروجی را از CPU/GPU میزبان به سختافزار تخصصی تخلیه میکند تا عملکرد ثابتتری ارائه دهد، در حالی که امنیت پیشرفته آن از کد مشتری و دادهها در طول پردازش محافظت میکند.
AWS اولین میزبان NVIDIA DGX Cloud است که توسط Grace Hopper طراحی شده است
AWS برای میزبانی NVIDIA DGX Cloud با زیرساخت GH200 NVL32 NVLink با NVIDIA همکاری خواهد کرد. NVIDIA DGX Cloud یک سرویس ابررایانه هوش مصنوعی است که دسترسی سریع به ابررایانههای چند گرهای را برای آموزش پیچیدهترین مدلهای LLM و هوش مصنوعی مولد، با نرمافزار یکپارچه NVIDIA AI Enterprise و دسترسی مستقیم به کارشناسان NVIDIA AI فراهم میکند.
پروژه عظیم ابررایانه Ceiba برای تقویت توسعه هوش مصنوعی NVIDIA
ابرکامپیوتر پروژه Ceiba که AWS و NVIDIA روی آن همکاری می کنند با خدمات AWS مانند شبکه رمزگذاری شده Amazon Virtual Private Cloud (VPC) و فروشگاه بلوک الاستیک آمازون با کارایی بالا ادغام می شود و به انویدیا امکان دسترسی به مجموعه ای از AWS را می دهد. امکانات. .
NVIDIA از این ابر رایانه برای تحقیق و توسعه برای پیشرفت هوش مصنوعی برای LLM، گرافیک و شبیهسازی، زیستشناسی محاسباتی، روباتیک، اتومبیلهای خودران، پیشبینی آب و هوای Earth-2 و موارد دیگر استفاده خواهد کرد.
NVIDIA و AWS Supercharge Generative AI، HPC، طراحی و شبیه سازی
برای تقویت توسعه، آموزش و استنتاج بزرگترین LLMها، نمونههای AWS P5e از جدیدترین پردازندههای گرافیکی NVIDIA H200 بهره میبرند که ۱۴۱ گیگابایت حافظه گرافیکی HBM3e، ۱.۸ برابر بزرگتر و ۱.۴ برابر سریعتر از پردازندههای گرافیکی H100 ارائه میدهند. این افزایش حافظه GPU، همراه با حداکثر 3200 گیگابیت بر ثانیه شبکه EFA با قابلیت AWS Nitro، مشتریان را قادر می سازد تا به ساخت، آموزش و استقرار مدل های پیشرفته خود در AWS ادامه دهند.
برای ارائه راهحلهای مقرونبهصرفه و کممصرف برای حجمهای کاری ویدئویی، هوش مصنوعی و گرافیکی، AWS نمونههای جدید آمازون EC2 G6e با پردازندههای گرافیکی NVIDIA L40S و نمونههای G6 مجهز به پردازندههای گرافیکی L4 را معرفی کرد. پیشنهادات جدید میتواند به استارتآپها، شرکتها و محققان کمک کند تا نیازهای هوش مصنوعی و گرافیکی با وفاداری بالا را برآورده کنند.
نمونههای G6e برای مدیریت بارهای کاری پیچیده مانند هوش مصنوعی و برنامههای کاربردی دیجیتالی دوقلو طراحی شدهاند. با استفاده از NVIDIA Omniverse، شبیهسازیهای سهبعدی فوتورئالیستی را میتوان با استفاده از دادههای بلادرنگ از سرویسهایی مانند AWS IoT TwinMaker، رباتهای چت هوشمند، دستیاران، جستجو و خلاصهسازی توسعه داد، زمینهسازی و بهبود بخشید. آمازون رباتیک و مراکز تحقق آمازون قادر خواهند بود دوقلوهای دیجیتالی ساخته شده با NVIDIA Omniverse و AWS IoT TwinMaker را برای بهینه سازی طراحی و جریان انبار، آموزش دستیاران رباتیک هوشمندتر و بهبود تحویل به مشتریان ادغام کنند.
پردازندههای گرافیکی L40S تا 1.45 پتافلاپ عملکرد FP8 را ارائه میکنند و دارای هستههای Ray Tracing هستند که تا 209 ترافلاپس عملکرد ردیابی اشعه را ارائه میدهند. پردازندههای گرافیکی L4 که در نمونههای G6 ارائه میشوند، راهحلهای کمهزینهتر و کممصرف انرژی را برای استقرار مدلهای هوش مصنوعی برای پردازش زبان طبیعی، ترجمه زبان، تجزیه و تحلیل ویدیو و تصویر هوش مصنوعی، تشخیص گفتار و شخصیسازی ارائه میدهند. پردازندههای گرافیکی L40S همچنین بارهای گرافیکی را تسریع میکنند، مانند ایجاد و ارائه گرافیکهای بلادرنگ با کیفیت سینما و پخش بازیها. هر سه نمونه در سال آینده در دسترس خواهند بود.
نرم افزار NVIDIA در AWS Drives Generative AI Development
علاوه بر این، انویدیا نرمافزاری را روی AWS برای توسعه هوش مصنوعی مولد معرفی کرد. میکروسرویس NVIDIA NeMo Retriever ابزارهای جدیدی را برای ساخت رباتهای گفتگوی بسیار دقیق و ابزارهای خلاصهسازی با استفاده از بازیابی معنایی سریع ارائه میدهد. NVIDIA BioNeMo که اکنون در Amazon SageMaker در دسترس است و در AWS در NVIDIA DGX Cloud در دسترس است، شرکتهای داروسازی را قادر میسازد تا با سادهسازی و تسریع آموزش مدل با استفاده از دادههای خود، کشف دارو را تسریع کنند.
نرم افزار NVIDIA در AWS به آمازون کمک می کند تا نوآوری های جدیدی را در خدمات و عملیات خود ارائه دهد. AWS از چارچوب NVIDIA NeMo برای آموزش برخی از نسل بعدی Amazon Titan LLM استفاده می کند. Amazon Robotics شروع به استفاده از NVIDIA Omniverse Isaac برای ایجاد دوقلوهای دیجیتالی برای خودکارسازی، بهینه سازی و برنامه ریزی انبارهای مستقل خود در محیط های مجازی قبل از استقرار آنها در دنیای واقعی کرده است.
مرجع اخبار سخت افزار کامپیوترایران
تحریریه Techpowerup