SK hynix نسل بعدی راه حل های AI و HPC خود را در SC23 ارائه می دهد

SK hynix راه حل های پیشرو هوش مصنوعی و محاسبات با کارایی بالا (HPC) خود را در Supercomputing 2023 (SC23) که در دنور، کلرادو، 12 تا 17 نوامبر برگزار شد، به نمایش گذاشت. کنفرانس سالانه SC که توسط انجمن ماشین های محاسباتی و انجمن کامپیوتر IEEE از سال 1988 سازماندهی شده است، آخرین پیشرفت ها در HPC، شبکه، ذخیره سازی داده ها و تجزیه و تحلیل را به نمایش می گذارد. SK hynix اولین حضور خود را در کنفرانس با نمایش راه حل های حافظه انقلابی خود به جامعه HPC نشان داد. در طول این رویداد شش روزه، چندین کارمند SK hynix نیز ارائه‌هایی ارائه کردند که تأثیر راه‌حل‌های حافظه این شرکت بر هوش مصنوعی و HPC را آشکار کردند.

نمایش محصولات پیشرفته HPC و AI
در SC23، SK hynix محصولات خود را با هوش مصنوعی و HPC ارائه کرد تا رهبری خود را در زمینه حافظه هوش مصنوعی برجسته کند. در میان این محصولات نسل بعدی، HBM3E توجه ها را به خود جلب کرده است زیرا راه حل HBM بالاترین استانداردهای صنعت را در سرعت، ظرفیت، اتلاف گرما و بهره وری انرژی برآورده می کند. این قابلیت‌ها آن را به ویژه برای سیستم‌های سرور هوش مصنوعی با داده‌های فشرده مناسب می‌سازد. HBM3E در کنار H100 NVIDIA معرفی شد، یک GPU با کارایی بالا برای هوش مصنوعی که از HBM3 برای حافظه خود استفاده می کند.

SK hynix همچنین نمایشی از AiMX، برد شتاب‌دهنده هوش مصنوعی این شرکت که در مدل‌های زبان بزرگ (LLM) با استفاده از تراشه‌های GDDR6-AiM که از فناوری PIM استفاده می‌کنند، برگزار کرد. انتظار می‌رود این محصول نقش کلیدی در پیشرفت سیستم‌های استنتاج مولد مبتنی بر داده‌های هوش مصنوعی ایفا کند، زیرا زمان استنتاج هوش مصنوعی سیستم‌های سرور را به میزان قابل توجهی در مقایسه با سیستم‌های مجهز به GPU کاهش می‌دهد و در عین حال مصرف انرژی کمتری را نیز ارائه می‌دهد.

CXL یکی دیگر از ویژگی های برجسته پایه SK hynix بود. بر اساس PCle، CXL یک رابط استاندارد است که به افزایش کارایی سیستم های HPC کمک می کند. CXL با ارائه گسترش حافظه انعطاف‌پذیر، یک رابط امیدوارکننده برای سیستم‌های HPC مانند AI و برنامه‌های Big Data است. به طور خاص، نمونه اولیه پلت فرم حافظه تفکیک شده Niagara CXL SK hynix به عنوان یک راه حل حافظه چند مستاجر که قادر به بهبود عملکرد سیستم در هوش مصنوعی توزیع شده و سیستم های پردازش کلان داده است، معرفی شد.

علاوه بر این، SK hynix توانست نتایج همکاری خود با آزمایشگاه ملی لوس آلاموس (LANL) را برای بهبود عملکرد و کاهش انرژی مورد نیاز برای برنامه‌های کاربردی با استفاده از فیزیک HPC ارائه دهد. این محصول که راه حل حافظه کامپیوتری مبتنی بر CXL (CMS) نام دارد، توانایی تسریع دسترسی غیرمستقیم به حافظه را دارد و در عین حال حرکت داده ها را به میزان قابل توجهی کاهش می دهد. این پیشرفت‌های تکنولوژیکی در حوزه‌های مختلف حافظه فشرده مانند هوش مصنوعی و تجزیه و تحلیل گرافیکی نیز قابل اجرا هستند.

در نهایت، Object-Based Computing Storage (OCS) به عنوان بخشی از تلاش های SK hynix برای توسعه یک اکوسیستم تحلیلی با چندین شریک ارائه شد. حرکت داده ها را بین سیستم های کاربردی تحلیل و ذخیره سازی به حداقل می رساند، وزن پشته نرم افزار ذخیره سازی را کاهش می دهد و سرعت تجزیه و تحلیل داده ها را تسریع می بخشد. و از طریق نمایشی، این شرکت نشان داد که چگونه فناوری رابط خود قابلیت‌های پردازش داده‌ها را در OCS بهبود می‌بخشد.

راه حل های نوآورانه برای مراکز داده و eSSD
SK hynix همچنین طیف وسیعی از راه حل های مرکز داده خود را در کنفرانس به نمایش گذاشت، از جمله ماژول حافظه داخلی دوگانه ثبت شده DDR5 (RDIMM). DDR5 RDIMM با 1 میلیارد نانومتر، نسل پنجم فناوری فرآیند 10 نانومتری، به سرعت 6400 مگابیت در ثانیه (Mbps) دست می یابد. این نمایشگر همچنین دارای یک DIMM DDR5 با رتبه های ترکیبی Multiplexer (MCR) بود که سرعتی تا 8800 مگابیت در ثانیه را به دست می آورد. با چنین سرعت های سریع، این راه حل های DDR5 برای محاسبات AI در سرورهای با کارایی بالا مناسب هستند.

بازدیدکنندگان غرفه SK hynix همچنین می‌توانستند جدیدترین محصولات SSD سازمانی (eSSD) آن، از جمله PS1010 E3.S و PS1030 مبتنی بر PCle Gen 5 را تجربه کنند. به ویژه، PS1030 سریع‌ترین سرعت خواندن متوالی را در این بخش ارائه می‌کند. 14800 مگابایت در ثانیه (MB/s) که آن را برای Big Data و یادگیری ماشین ایده آل می کند.

به اشتراک گذاری پتانسیل راه حل های حافظه SK hynix

در طول کنفرانس، کارکنان SK hynix نیز در مورد کاربرد راه حل های حافظه این شرکت برای هوش مصنوعی و HPC ارائه کردند. در چهارمین روز کنفرانس، Yongkee Kwon، مدیر فنی PIM Hardware در Solution Advanced Technology، یک سخنرانی با عنوان «راه حل استنتاج مقرون به صرفه مدل زبان گسترده (LLM) با استفاده از SK hynix AiM» برگزار کرد. Kwon نشان داد که چگونه AiM SK hynix، یک دستگاه PIM تخصصی برای LLM ها، می تواند عملکرد و کارایی انرژی استنتاج LLM را به طور قابل توجهی بهبود بخشد. زمانی که AiM در مدل زبان Open Pre-trained Transformers (OPT) متا، جایگزین منبع باز برای GPT-3 Open AI استفاده شود، می تواند سرعتی تا ده برابر سریع تر از سیستم های گرافیکی متا داشته باشد. هزینه ها و مصرف انرژی

در همان روز، مدیر فنی نرم افزار Memory Forest x&D System Hokyoon Lee ارائه ای با عنوان «تجزیه حافظه مبتنی بر CXL برای بارهای کاری HPC و AI» برگزار کرد. نیاگارای SK hynix مشکل گیرکردن حافظه (یا حافظه استفاده نشده در هر سرور که هرگز توسط سرورهای دیگر قابل استفاده نیست) را با ویژگی حافظه الاستیک خود حل می کند. علاوه بر این، قابلیت اشتراک گذاری حافظه نیاگارا راه حلی برای ترافیک سنگین شبکه در محاسبات توزیع شده معمولی فراهم می کند. در طول جلسه، ارائه دهندگان اثربخشی به اشتراک گذاری حافظه را در یک شبیه سازی دنیای واقعی با چارچوب هوش مصنوعی توزیع شده Ray مورد استفاده در ChatGPT نشان دادند.

یک روز بعد، مدیر و سرپرست فنی SOLAB در Memory Forest x&D Jongryool Kim “تسریع تجزیه و تحلیل داده ها با استفاده از ذخیره سازی محاسباتی مبتنی بر شی در HPC” را ارائه کرد. کیم با معرفی همکاری SK hynix با LANL در تحقیقات فناوری ذخیره سازی محاسباتی، ذخیره سازی محاسباتی مبتنی بر شی (OCS) را به عنوان یک بستر ذخیره سازی محاسباتی جدید برای تجزیه و تحلیل داده ها در HPC پیشنهاد کرد. OCS به دلیل مقیاس پذیری بالا و ویژگی های اطلاعاتی، می تواند تجزیه و تحلیل را به طور مستقل و بدون کمک گره های محاسباتی انجام دهد و پتانسیل خود را به عنوان آینده ذخیره سازی محاسباتی در HPC برجسته می کند.

به همین ترتیب، SK hynix به توسعه راه‌حل‌هایی برای پیشرفت هوش مصنوعی و HPC به عنوان ارائه‌دهنده پیشرو حافظه در جهان برای هوش مصنوعی ادامه خواهد داد.

مرجع اخبار سخت افزار کامپیوترایران

تحریریه Techpowerup