نمایش محصولات پیشرفته HPC و AI
در SC23، SK hynix محصولات خود را با هوش مصنوعی و HPC ارائه کرد تا رهبری خود را در زمینه حافظه هوش مصنوعی برجسته کند. در میان این محصولات نسل بعدی، HBM3E توجه ها را به خود جلب کرده است زیرا راه حل HBM بالاترین استانداردهای صنعت را در سرعت، ظرفیت، اتلاف گرما و بهره وری انرژی برآورده می کند. این قابلیتها آن را به ویژه برای سیستمهای سرور هوش مصنوعی با دادههای فشرده مناسب میسازد. HBM3E در کنار H100 NVIDIA معرفی شد، یک GPU با کارایی بالا برای هوش مصنوعی که از HBM3 برای حافظه خود استفاده می کند.
SK hynix همچنین نمایشی از AiMX، برد شتابدهنده هوش مصنوعی این شرکت که در مدلهای زبان بزرگ (LLM) با استفاده از تراشههای GDDR6-AiM که از فناوری PIM استفاده میکنند، برگزار کرد. انتظار میرود این محصول نقش کلیدی در پیشرفت سیستمهای استنتاج مولد مبتنی بر دادههای هوش مصنوعی ایفا کند، زیرا زمان استنتاج هوش مصنوعی سیستمهای سرور را به میزان قابل توجهی در مقایسه با سیستمهای مجهز به GPU کاهش میدهد و در عین حال مصرف انرژی کمتری را نیز ارائه میدهد.
CXL یکی دیگر از ویژگی های برجسته پایه SK hynix بود. بر اساس PCle، CXL یک رابط استاندارد است که به افزایش کارایی سیستم های HPC کمک می کند. CXL با ارائه گسترش حافظه انعطافپذیر، یک رابط امیدوارکننده برای سیستمهای HPC مانند AI و برنامههای Big Data است. به طور خاص، نمونه اولیه پلت فرم حافظه تفکیک شده Niagara CXL SK hynix به عنوان یک راه حل حافظه چند مستاجر که قادر به بهبود عملکرد سیستم در هوش مصنوعی توزیع شده و سیستم های پردازش کلان داده است، معرفی شد.
علاوه بر این، SK hynix توانست نتایج همکاری خود با آزمایشگاه ملی لوس آلاموس (LANL) را برای بهبود عملکرد و کاهش انرژی مورد نیاز برای برنامههای کاربردی با استفاده از فیزیک HPC ارائه دهد. این محصول که راه حل حافظه کامپیوتری مبتنی بر CXL (CMS) نام دارد، توانایی تسریع دسترسی غیرمستقیم به حافظه را دارد و در عین حال حرکت داده ها را به میزان قابل توجهی کاهش می دهد. این پیشرفتهای تکنولوژیکی در حوزههای مختلف حافظه فشرده مانند هوش مصنوعی و تجزیه و تحلیل گرافیکی نیز قابل اجرا هستند.
در نهایت، Object-Based Computing Storage (OCS) به عنوان بخشی از تلاش های SK hynix برای توسعه یک اکوسیستم تحلیلی با چندین شریک ارائه شد. حرکت داده ها را بین سیستم های کاربردی تحلیل و ذخیره سازی به حداقل می رساند، وزن پشته نرم افزار ذخیره سازی را کاهش می دهد و سرعت تجزیه و تحلیل داده ها را تسریع می بخشد. و از طریق نمایشی، این شرکت نشان داد که چگونه فناوری رابط خود قابلیتهای پردازش دادهها را در OCS بهبود میبخشد.
راه حل های نوآورانه برای مراکز داده و eSSD
SK hynix همچنین طیف وسیعی از راه حل های مرکز داده خود را در کنفرانس به نمایش گذاشت، از جمله ماژول حافظه داخلی دوگانه ثبت شده DDR5 (RDIMM). DDR5 RDIMM با 1 میلیارد نانومتر، نسل پنجم فناوری فرآیند 10 نانومتری، به سرعت 6400 مگابیت در ثانیه (Mbps) دست می یابد. این نمایشگر همچنین دارای یک DIMM DDR5 با رتبه های ترکیبی Multiplexer (MCR) بود که سرعتی تا 8800 مگابیت در ثانیه را به دست می آورد. با چنین سرعت های سریع، این راه حل های DDR5 برای محاسبات AI در سرورهای با کارایی بالا مناسب هستند.
بازدیدکنندگان غرفه SK hynix همچنین میتوانستند جدیدترین محصولات SSD سازمانی (eSSD) آن، از جمله PS1010 E3.S و PS1030 مبتنی بر PCle Gen 5 را تجربه کنند. به ویژه، PS1030 سریعترین سرعت خواندن متوالی را در این بخش ارائه میکند. 14800 مگابایت در ثانیه (MB/s) که آن را برای Big Data و یادگیری ماشین ایده آل می کند.
به اشتراک گذاری پتانسیل راه حل های حافظه SK hynix
در طول کنفرانس، کارکنان SK hynix نیز در مورد کاربرد راه حل های حافظه این شرکت برای هوش مصنوعی و HPC ارائه کردند. در چهارمین روز کنفرانس، Yongkee Kwon، مدیر فنی PIM Hardware در Solution Advanced Technology، یک سخنرانی با عنوان «راه حل استنتاج مقرون به صرفه مدل زبان گسترده (LLM) با استفاده از SK hynix AiM» برگزار کرد. Kwon نشان داد که چگونه AiM SK hynix، یک دستگاه PIM تخصصی برای LLM ها، می تواند عملکرد و کارایی انرژی استنتاج LLM را به طور قابل توجهی بهبود بخشد. زمانی که AiM در مدل زبان Open Pre-trained Transformers (OPT) متا، جایگزین منبع باز برای GPT-3 Open AI استفاده شود، می تواند سرعتی تا ده برابر سریع تر از سیستم های گرافیکی متا داشته باشد. هزینه ها و مصرف انرژی
در همان روز، مدیر فنی نرم افزار Memory Forest x&D System Hokyoon Lee ارائه ای با عنوان «تجزیه حافظه مبتنی بر CXL برای بارهای کاری HPC و AI» برگزار کرد. نیاگارای SK hynix مشکل گیرکردن حافظه (یا حافظه استفاده نشده در هر سرور که هرگز توسط سرورهای دیگر قابل استفاده نیست) را با ویژگی حافظه الاستیک خود حل می کند. علاوه بر این، قابلیت اشتراک گذاری حافظه نیاگارا راه حلی برای ترافیک سنگین شبکه در محاسبات توزیع شده معمولی فراهم می کند. در طول جلسه، ارائه دهندگان اثربخشی به اشتراک گذاری حافظه را در یک شبیه سازی دنیای واقعی با چارچوب هوش مصنوعی توزیع شده Ray مورد استفاده در ChatGPT نشان دادند.
یک روز بعد، مدیر و سرپرست فنی SOLAB در Memory Forest x&D Jongryool Kim “تسریع تجزیه و تحلیل داده ها با استفاده از ذخیره سازی محاسباتی مبتنی بر شی در HPC” را ارائه کرد. کیم با معرفی همکاری SK hynix با LANL در تحقیقات فناوری ذخیره سازی محاسباتی، ذخیره سازی محاسباتی مبتنی بر شی (OCS) را به عنوان یک بستر ذخیره سازی محاسباتی جدید برای تجزیه و تحلیل داده ها در HPC پیشنهاد کرد. OCS به دلیل مقیاس پذیری بالا و ویژگی های اطلاعاتی، می تواند تجزیه و تحلیل را به طور مستقل و بدون کمک گره های محاسباتی انجام دهد و پتانسیل خود را به عنوان آینده ذخیره سازی محاسباتی در HPC برجسته می کند.
به همین ترتیب، SK hynix به توسعه راهحلهایی برای پیشرفت هوش مصنوعی و HPC به عنوان ارائهدهنده پیشرو حافظه در جهان برای هوش مصنوعی ادامه خواهد داد.
مرجع اخبار سخت افزار کامپیوترایران
تحریریه Techpowerup