AMD مجموعه ای پیشرو از راه حل های هوش مصنوعی مرکز داده را با سری AMD Instinct MI300 ارائه می کند.

امروز، AMD در دسترس بودن شتاب‌دهنده‌های AMD Instinct MI300X – با پهنای باند حافظه پیشرو در صنعت برای هوش مصنوعی و عملکرد پیشرو در صنعت برای آموزش و استنتاج مدل‌های زبان بزرگ (LLM) و همچنین واحد پردازش شتاب‌دهی AMD Instinct MI300A (APU) را اعلام کرد. ) – ترکیبی از آخرین معماری AMD CDNA 3 و پردازنده‌های «Zen 4» برای ارائه عملکرد موفقیت‌آمیز برای بارهای کاری HPC و AI.

ویکتور پنگ، رئیس AMD می‌گوید: «شتاب‌دهنده‌های سری MI300 AMD با پیشرفته‌ترین فناوری‌های ما طراحی شده‌اند، عملکردی پیشرو در صنعت ارائه می‌کنند و در استقرار ابری و سازمانی در مقیاس بزرگ استفاده خواهند شد.» ارائه‌دهندگان ابر، OEM و ODM با استفاده از سخت‌افزار، نرم‌افزار پیشرو و رویکرد اکوسیستم باز، فناوری‌هایی را به بازار می‌آورند که کسب‌وکارها را قادر می‌سازد راه‌حل‌های مبتنی بر کسب‌وکار را بر روی هوش مصنوعی اتخاذ و به کار گیرند.

مشتریانی که از آخرین مجموعه شتاب‌دهنده‌های AMD Instinct استفاده می‌کنند، می‌توان به مایکروسافت اشاره کرد که اخیراً سری جدید ماشین مجازی Azure ND MI300x v5 (VM) را معرفی کرده است که برای بارهای کاری هوش مصنوعی بهینه‌سازی شده و توسط شتاب‌دهنده‌های AMD Instinct MI300X پشتیبانی می‌شود. علاوه بر این، ال کاپیتان – ابررایانه ای با APU های AMD Instinct MI300A و میزبانی در آزمایشگاه ملی لاورنس لیورمور – دومین ابررایانه کلاس exascale با قدرت AMD خواهد بود و انتظار می رود بیش از دو اگزافلاپس عملکرد با دقت مضاعف را در صورت کامل ارائه دهد. مستقر شد . Oracle Cloud Infrastructure قصد دارد نمونه‌های فلزی خالی مبتنی بر AMD Instinct MI300X را به نمونه‌های محاسباتی شتاب‌دار با کارایی بالا برای هوش مصنوعی اضافه کند. انتظار می رود نمونه های مبتنی بر MI300X از OCI Supercluster با شبکه فوق سریع RDMA پشتیبانی کنند.

چندین OEM بزرگ نیز سیستم‌های محاسباتی شتاب‌دهی را همزمان با رویداد AMD Advancing AI نشان دادند. دل سرور Dell PowerEdge XE9680 را معرفی کرد که دارای هشت شتابدهنده AMD Instinct MI300 Series و طراحی جدید تایید شده Dell برای هوش مصنوعی مولد با چارچوب های AI مجهز به AMD ROCm است. HPE اخیرا HPE Cray Supercomputing EX255a را معرفی کرد، اولین تیغه شتاب دهنده ابرکامپیوتری مجهز به APU های AMD Instinct MI300A، که در اوایل سال 2024 در دسترس خواهد بود. 2024. 2024. Supermicro افزوده های جدیدی را به سرورهای شتاب دهنده نسل H13 خود اعلام کرده است که از نسل چهارم پردازنده های AMD EPYC و شتاب دهنده های سری MI300 AMD Instinct پشتیبانی می کنند.

AMD Instinct MI300X
شتاب‌دهنده‌های AMD Instinct MI300X از معماری جدید AMD CDNA 3 بهره می‌برند. در مقایسه با نسل قبلی شتاب‌دهنده‌های AMD Instinct MI250X، MI300X تقریباً 40 درصد واحدهای محاسباتی بیشتر، 1.5 برابر ظرفیت پردازش بیشتر، حافظه، 1.7 برابر حداکثر باند تئوری حافظه تئوری ارائه می‌کند. به عنوان پشتیبانی از فرمت های ریاضی جدید مانند FP8 و sparsity. همه برای بارهای کاری هوش مصنوعی و HPC طراحی شده اند.

LLMهای امروزی همچنان از نظر اندازه و پیچیدگی در حال افزایش هستند و به مقدار زیادی حافظه و محاسبات نیاز دارند. شتاب‌دهنده‌های AMD Instinct MI300X دارای بهترین ظرفیت حافظه 192 گیگابایتی HBM3 در کلاس و حداکثر پهنای باند حافظه 5.3 ترابایت بر ثانیه برای ارائه عملکرد مورد نیاز برای بارهای کاری کلاس سازمانی هستند. هوش مصنوعی با تقاضای فزاینده‌ای. پلتفرم AMD Instinct یک پلتفرم هوش مصنوعی مولد پیشرفته است که بر اساس طراحی استاندارد صنعتی OCP با هشت شتاب دهنده MI300X ساخته شده است تا ظرفیت حافظه 1.5 ترابایتی HBM3 را ارائه دهد. طراحی استاندارد صنعت پلت‌فرم AMD Instinct به شرکای OEM اجازه می‌دهد تا شتاب‌دهنده‌های MI300X را در پیشنهادات هوش مصنوعی موجود ادغام کنند، استقرار را ساده کرده و پذیرش سرورهای مبتنی بر شتاب‌دهنده AMD Instinct را تسریع کنند.

در مقایسه با Nvidia H100 HGX، پلتفرم AMD Instinct می تواند تا 1.6 برابر افزایش توان عملیاتی را هنگام اجرای استنتاج بر روی LLMهایی مانند BLOOM 176B ارائه دهد و تنها گزینه موجود در بازار است که قادر به استنتاج برای مدل پارامتر 70B مانند Llama2 است. . روی یک شتاب دهنده MI300X؛ ساده کردن استقرار LLM در کلاس سازمانی و فعال کردن TCO استثنایی.

AMD Instinct MI300A
APUهای AMD Instinct MI300A، اولین APU مرکز داده در جهان برای HPC و AI، بسته‌بندی سه بعدی و معماری نسل چهارم AMD Infinity را به کار می‌گیرد تا با همگرایی HPC و AI، اوج عملکرد را در بارهای کاری حیاتی مأموریت ارائه دهد. APU های MI300A هسته های گرافیکی AMD CDNA 3 با کارایی بالا، جدیدترین هسته های CPU “Zen 4” x86 AMD و 128 گیگابایت حافظه نسل بعدی HBM3 را ترکیب می کنند تا تقریباً 1.9 برابر عملکرد هر وات در HPC FP32 و AI ارائه دهند. حجم کار، در مقایسه با نسل قبلی AMD Instinct MI250X.

بهره وری انرژی برای جوامع HPC و AI از اهمیت بالایی برخوردار است، اما این حجم کاری بسیار به داده ها و منابع فشرده است. APUهای AMD Instinct MI300A از ادغام هسته‌های CPU و GPU در یک بسته بهره می‌برند و یک پلتفرم بسیار کارآمد را ارائه می‌کنند و در عین حال عملکرد محاسباتی مورد نیاز برای تسریع آموزش جدیدترین مدل‌های هوش مصنوعی را نیز ارائه می‌دهند. AMD نوآوری در بهره وری انرژی را با هدف 30×25 این شرکت تنظیم می کند، با هدف ارائه بهبود 30 برابری در بهره وری انرژی در پردازنده های سرور و شتاب دهنده ها برای آموزش هوش مصنوعی و HPC از سال 2020 تا 2025.

مزیت APU به این معنی است که APU های AMD Instinct MI300A دارای حافظه یکپارچه و منابع حافظه کش هستند که به مشتریان یک پلت فرم GPU با قابلیت برنامه ریزی آسان، محاسبات با کارایی بالا، آموزش سریع هوش مصنوعی و بهره وری انرژی چشمگیر برای تامین انرژی مورد نیازترین حجم کاری HPC و AI را ارائه می دهند.

نرم افزار ROCm و شرکای اکوسیستم
AMD آخرین پلتفرم نرم افزار باز AMD ROCm 6 را همراه با تعهد این شرکت به ارائه کتابخانه های پیشرفته به جامعه منبع باز معرفی کرد و چشم انداز این شرکت را برای توسعه نرم افزار سازمانی پیش برد. هوش مصنوعی منبع باز. نرم افزار ROCm 6 نشان دهنده یک جهش رو به جلو برای ابزارهای نرم افزاری AMD است که عملکرد شتاب هوش مصنوعی را در هنگام اجرا بر روی شتاب دهنده های سری MI300 در تولید متن Llama 2 در مقایسه با سخت افزار و نرم افزار نسل قبلی تقریباً 8 برابر افزایش می دهد. علاوه بر این، ROCm 6 از چندین ویژگی کلیدی جدید برای هوش مصنوعی مولد پشتیبانی می‌کند، از جمله FlashAttention، HIPGraph، و vLLM و غیره. به این ترتیب، AMD به طور منحصربه‌فردی برای استفاده از پرکاربردترین مدل‌ها، الگوریتم‌ها و چارچوب‌های نرم‌افزار AI منبع باز – مانند Hugging Face، PyTorch، TensorFlow و دیگران – موقعیتی منحصر به فرد دارد که باعث ایجاد نوآوری، ساده‌سازی راه‌حل‌های هوش مصنوعی AMD و باز کردن پتانسیل واقعی می‌شود. هوش مصنوعی مولد

AMD همچنین از طریق خرید Nod.AI و Mipsology و همچنین از طریق مشارکت های استراتژیک اکوسیستم مانند Lamini – اجرای LLM برای مشتریان سازمانی – و MosaicML – با استفاده از AMD ROCm برای فعال کردن آموزش LLM در شتاب دهنده های AMD Instinct با صفر به سرمایه گذاری در قابلیت های نرم افزار ادامه می دهد. کد تغییر می کند

مرجع اخبار سخت افزار کامپیوترایران