ویکتور پنگ، رئیس AMD میگوید: «شتابدهندههای سری MI300 AMD با پیشرفتهترین فناوریهای ما طراحی شدهاند، عملکردی پیشرو در صنعت ارائه میکنند و در استقرار ابری و سازمانی در مقیاس بزرگ استفاده خواهند شد.» ارائهدهندگان ابر، OEM و ODM با استفاده از سختافزار، نرمافزار پیشرو و رویکرد اکوسیستم باز، فناوریهایی را به بازار میآورند که کسبوکارها را قادر میسازد راهحلهای مبتنی بر کسبوکار را بر روی هوش مصنوعی اتخاذ و به کار گیرند.
مشتریانی که از آخرین مجموعه شتابدهندههای AMD Instinct استفاده میکنند، میتوان به مایکروسافت اشاره کرد که اخیراً سری جدید ماشین مجازی Azure ND MI300x v5 (VM) را معرفی کرده است که برای بارهای کاری هوش مصنوعی بهینهسازی شده و توسط شتابدهندههای AMD Instinct MI300X پشتیبانی میشود. علاوه بر این، ال کاپیتان – ابررایانه ای با APU های AMD Instinct MI300A و میزبانی در آزمایشگاه ملی لاورنس لیورمور – دومین ابررایانه کلاس exascale با قدرت AMD خواهد بود و انتظار می رود بیش از دو اگزافلاپس عملکرد با دقت مضاعف را در صورت کامل ارائه دهد. مستقر شد . Oracle Cloud Infrastructure قصد دارد نمونههای فلزی خالی مبتنی بر AMD Instinct MI300X را به نمونههای محاسباتی شتابدار با کارایی بالا برای هوش مصنوعی اضافه کند. انتظار می رود نمونه های مبتنی بر MI300X از OCI Supercluster با شبکه فوق سریع RDMA پشتیبانی کنند.
چندین OEM بزرگ نیز سیستمهای محاسباتی شتابدهی را همزمان با رویداد AMD Advancing AI نشان دادند. دل سرور Dell PowerEdge XE9680 را معرفی کرد که دارای هشت شتابدهنده AMD Instinct MI300 Series و طراحی جدید تایید شده Dell برای هوش مصنوعی مولد با چارچوب های AI مجهز به AMD ROCm است. HPE اخیرا HPE Cray Supercomputing EX255a را معرفی کرد، اولین تیغه شتاب دهنده ابرکامپیوتری مجهز به APU های AMD Instinct MI300A، که در اوایل سال 2024 در دسترس خواهد بود. 2024. 2024. Supermicro افزوده های جدیدی را به سرورهای شتاب دهنده نسل H13 خود اعلام کرده است که از نسل چهارم پردازنده های AMD EPYC و شتاب دهنده های سری MI300 AMD Instinct پشتیبانی می کنند.
AMD Instinct MI300X
شتابدهندههای AMD Instinct MI300X از معماری جدید AMD CDNA 3 بهره میبرند. در مقایسه با نسل قبلی شتابدهندههای AMD Instinct MI250X، MI300X تقریباً 40 درصد واحدهای محاسباتی بیشتر، 1.5 برابر ظرفیت پردازش بیشتر، حافظه، 1.7 برابر حداکثر باند تئوری حافظه تئوری ارائه میکند. به عنوان پشتیبانی از فرمت های ریاضی جدید مانند FP8 و sparsity. همه برای بارهای کاری هوش مصنوعی و HPC طراحی شده اند.
LLMهای امروزی همچنان از نظر اندازه و پیچیدگی در حال افزایش هستند و به مقدار زیادی حافظه و محاسبات نیاز دارند. شتابدهندههای AMD Instinct MI300X دارای بهترین ظرفیت حافظه 192 گیگابایتی HBM3 در کلاس و حداکثر پهنای باند حافظه 5.3 ترابایت بر ثانیه برای ارائه عملکرد مورد نیاز برای بارهای کاری کلاس سازمانی هستند. هوش مصنوعی با تقاضای فزایندهای. پلتفرم AMD Instinct یک پلتفرم هوش مصنوعی مولد پیشرفته است که بر اساس طراحی استاندارد صنعتی OCP با هشت شتاب دهنده MI300X ساخته شده است تا ظرفیت حافظه 1.5 ترابایتی HBM3 را ارائه دهد. طراحی استاندارد صنعت پلتفرم AMD Instinct به شرکای OEM اجازه میدهد تا شتابدهندههای MI300X را در پیشنهادات هوش مصنوعی موجود ادغام کنند، استقرار را ساده کرده و پذیرش سرورهای مبتنی بر شتابدهنده AMD Instinct را تسریع کنند.
در مقایسه با Nvidia H100 HGX، پلتفرم AMD Instinct می تواند تا 1.6 برابر افزایش توان عملیاتی را هنگام اجرای استنتاج بر روی LLMهایی مانند BLOOM 176B ارائه دهد و تنها گزینه موجود در بازار است که قادر به استنتاج برای مدل پارامتر 70B مانند Llama2 است. . روی یک شتاب دهنده MI300X؛ ساده کردن استقرار LLM در کلاس سازمانی و فعال کردن TCO استثنایی.
AMD Instinct MI300A
APUهای AMD Instinct MI300A، اولین APU مرکز داده در جهان برای HPC و AI، بستهبندی سه بعدی و معماری نسل چهارم AMD Infinity را به کار میگیرد تا با همگرایی HPC و AI، اوج عملکرد را در بارهای کاری حیاتی مأموریت ارائه دهد. APU های MI300A هسته های گرافیکی AMD CDNA 3 با کارایی بالا، جدیدترین هسته های CPU “Zen 4” x86 AMD و 128 گیگابایت حافظه نسل بعدی HBM3 را ترکیب می کنند تا تقریباً 1.9 برابر عملکرد هر وات در HPC FP32 و AI ارائه دهند. حجم کار، در مقایسه با نسل قبلی AMD Instinct MI250X.
بهره وری انرژی برای جوامع HPC و AI از اهمیت بالایی برخوردار است، اما این حجم کاری بسیار به داده ها و منابع فشرده است. APUهای AMD Instinct MI300A از ادغام هستههای CPU و GPU در یک بسته بهره میبرند و یک پلتفرم بسیار کارآمد را ارائه میکنند و در عین حال عملکرد محاسباتی مورد نیاز برای تسریع آموزش جدیدترین مدلهای هوش مصنوعی را نیز ارائه میدهند. AMD نوآوری در بهره وری انرژی را با هدف 30×25 این شرکت تنظیم می کند، با هدف ارائه بهبود 30 برابری در بهره وری انرژی در پردازنده های سرور و شتاب دهنده ها برای آموزش هوش مصنوعی و HPC از سال 2020 تا 2025.
مزیت APU به این معنی است که APU های AMD Instinct MI300A دارای حافظه یکپارچه و منابع حافظه کش هستند که به مشتریان یک پلت فرم GPU با قابلیت برنامه ریزی آسان، محاسبات با کارایی بالا، آموزش سریع هوش مصنوعی و بهره وری انرژی چشمگیر برای تامین انرژی مورد نیازترین حجم کاری HPC و AI را ارائه می دهند.
نرم افزار ROCm و شرکای اکوسیستم
AMD آخرین پلتفرم نرم افزار باز AMD ROCm 6 را همراه با تعهد این شرکت به ارائه کتابخانه های پیشرفته به جامعه منبع باز معرفی کرد و چشم انداز این شرکت را برای توسعه نرم افزار سازمانی پیش برد. هوش مصنوعی منبع باز. نرم افزار ROCm 6 نشان دهنده یک جهش رو به جلو برای ابزارهای نرم افزاری AMD است که عملکرد شتاب هوش مصنوعی را در هنگام اجرا بر روی شتاب دهنده های سری MI300 در تولید متن Llama 2 در مقایسه با سخت افزار و نرم افزار نسل قبلی تقریباً 8 برابر افزایش می دهد. علاوه بر این، ROCm 6 از چندین ویژگی کلیدی جدید برای هوش مصنوعی مولد پشتیبانی میکند، از جمله FlashAttention، HIPGraph، و vLLM و غیره. به این ترتیب، AMD به طور منحصربهفردی برای استفاده از پرکاربردترین مدلها، الگوریتمها و چارچوبهای نرمافزار AI منبع باز – مانند Hugging Face، PyTorch، TensorFlow و دیگران – موقعیتی منحصر به فرد دارد که باعث ایجاد نوآوری، سادهسازی راهحلهای هوش مصنوعی AMD و باز کردن پتانسیل واقعی میشود. هوش مصنوعی مولد
AMD همچنین از طریق خرید Nod.AI و Mipsology و همچنین از طریق مشارکت های استراتژیک اکوسیستم مانند Lamini – اجرای LLM برای مشتریان سازمانی – و MosaicML – با استفاده از AMD ROCm برای فعال کردن آموزش LLM در شتاب دهنده های AMD Instinct با صفر به سرمایه گذاری در قابلیت های نرم افزار ادامه می دهد. کد تغییر می کند
مرجع اخبار سخت افزار کامپیوترایران
تحریریه Techpowerup