گوگل ابررایانه‌های A3 با پردازنده‌های گرافیکی NVIDIA H100 را معرفی کرد که برای هوش مصنوعی ساخته شده‌اند.

ما همراه با شرکای خود، طیف گسترده‌ای از گزینه‌های محاسباتی را برای موارد استفاده ML مانند مدل‌های زبان بزرگ (LLM)، هوش مصنوعی مولد و مدل‌های انتشار ارائه می‌کنیم. اخیراً ماشین‌های مجازی G2 را معرفی کردیم که اولین ابری بود که پردازنده‌های گرافیکی جدید NVIDIA L4 Tensor Core را برای ارائه بارهای کاری هوش مصنوعی مولد ارائه می‌کرد. امروز، با راه‌اندازی پیش‌نمایش خصوصی ابررایانه A3 GPU نسل بعدی، این مجموعه را گسترش می‌دهیم. Google Cloud اکنون طیف کاملی از گزینه های GPU را برای آموزش و استنباط مدل های ML ارائه می دهد.

ابررایانه‌های Google Compute Engine A3 برای آموزش و خدمت‌رسانی به سخت‌ترین مدل‌های هوش مصنوعی ساخته شده‌اند که به هوش مصنوعی مولد و نوآوری مدل‌های زبانی امروزی کمک می‌کنند. ماشین‌های مجازی A3 ما پردازنده‌های گرافیکی NVIDIA H100 Tensor Core و پیشرفت‌های پیشرو در شبکه Google را برای ارائه خدمات به مشتریان در هر اندازه‌ای ترکیب می‌کنند:

  • A3 اولین نمونه GPU است که از IPUهای 200 گیگابیتی بر ثانیه طراحی شده سفارشی ما استفاده می کند، با انتقال داده GPU به GPU که CPU میزبان را دور می زند و روی رابط های جداگانه از سایر شبکه های VM و ترافیک داده جریان دارد. این امر پهنای باند شبکه را تا 10 برابر بیشتر در مقایسه با ماشین های مجازی A2 ما با تاخیر در صف کم و پایداری پهنای باند بالا امکان پذیر می کند.
  • پارچه شبکه مرکز داده هوشمند مشتری که در صنعت منحصر به فرد است، به ده ها هزار GPU بسیار به هم پیوسته مقیاس می دهد و پیوندهای نوری قابل تنظیم مجدد با پهنای باند کامل را فعال می کند که می توانند توپولوژی را در صورت نیاز تنظیم کنند. تقریباً برای هر پارچه حجم کاری، پهنای باند حجم کاری را دریافت می‌کنیم که از پارچه‌های شبکه گران‌تر، خارج از قفسه و غیرمسدود قابل تشخیص نیست، که منجر به کاهش هزینه کل مالکیت می‌شود.
  • مقیاس ابررایانه A3 تا 26 exaFlops عملکرد هوش مصنوعی را ارائه می دهد که به طور چشمگیری زمان و هزینه آموزش مدل های بزرگ ML را بهبود می بخشد.

همانطور که شرکت‌ها از آموزش به ارائه مدل‌های ML خود می‌روند، ماشین‌های مجازی A3 نیز برای بارهای کاری استنتاج کاملاً مناسب هستند، با تا 30 برابر افزایش عملکرد استنتاج در مقایسه با ماشین‌های ما. ماشین‌های مجازی A2 که توسط پردازنده گرافیکی NVIDIA A100 Tensor Core* تغذیه می‌شوند.

این اعلامیه مبتنی بر همکاری ما با NVIDIA است تا مجموعه کاملی از گزینه‌های GPU را برای آموزش و استنتاج مدل ML به مشتریان خود ارائه دهد.

در Google Cloud، هوش مصنوعی در DNA ما وجود دارد. ما چندین دهه تجربه محاسباتی جهانی را برای هوش مصنوعی به کار برده ایم. ما این زیرساخت را طوری طراحی کرده‌ایم که برای اجرای طیف گسترده‌ای از بارهای کاری هوش مصنوعی بهینه‌سازی شده و مقیاس‌بندی شود – و اکنون آن را در اختیار شما قرار می‌دهیم.



مرجع اخبار سخت افزار کامپیوترایران

برای مشتریانی که به دنبال طراحی پشته نرم‌افزار سفارشی خود هستند، مشتریان همچنین می‌توانند ماشین‌های مجازی A3 را در Google Kubernetes Engine (GKE) و Compute Engine استقرار دهند، بنابراین می‌توانید آخرین مدل‌های پایه را آموزش دهید و ارائه دهید، در حالی که از پشتیبانی از مقیاس خودکار، هماهنگ‌سازی حجم کار و خودکار بهره می‌برید. به روز رسانی ها

ایان باک، نایب رئیس بخش هایپرمقیاس و محاسبات با کارایی بالا در انویدیا گفت: «ماشین‌های مجازی Google Cloud A3، که توسط پردازنده‌های گرافیکی NVIDIA H100 نسل بعدی پشتیبانی می‌شوند، شکل‌گیری و سرویس‌دهی برنامه‌های کاربردی هوش مصنوعی را تسریع می‌کنند. با توجه به نمونه‌های G2 که اخیراً راه‌اندازی شده توسط Google Cloud، ما مفتخریم که به کار خود با Google Cloud ادامه می‌دهیم تا با زیرساخت‌های هوش مصنوعی به تغییر کسب‌وکارها در سراسر جهان کمک کنیم.»

پیاده‌سازی پیشرفته‌ترین مدل‌های هوش مصنوعی (AI) و یادگیری ماشینی (ML) به محاسبات زیادی نیاز دارد، هم برای آموزش مدل‌های زیربنایی و هم برای ارائه آن‌ها پس از شکل‌گیری آن‌ها. با توجه به نیازهای این حجم کاری، یک رویکرد یک اندازه مناسب برای همه کافی نیست: شما به زیرساختی نیاز دارید که برای هوش مصنوعی ساخته شده باشد.

به طور خاص برای عملکرد و مقیاس پذیری طراحی شده است
ماشین‌های مجازی GPU A3 به‌منظور ارائه بالاترین کارایی آموزشی برای بارهای کاری امروزی ML ساخته شده‌اند که دارای پردازنده مدرن، حافظه میزبان پیشرفته، پردازنده‌های گرافیکی نسل بعدی NVIDIA و گرایش‌های ارتقاء شبکه است. ویژگی های اصلی A3 به شرح زیر است:

  • 8 پردازنده گرافیکی H100 با استفاده از معماری Hopper NVIDIA که توان پردازشی 3 برابری را ارائه می دهد
  • پهنای باند دوبخشی 3.6 ترابایت بر ثانیه بین 8 پردازنده گرافیکی A3 از طریق NVIDIA NVSwitch و NVLink 4.0
  • نسل بعدی پردازنده های Intel Xeon Scalable نسل چهارم
  • 2 ترابایت حافظه میزبان از طریق 4800 مگاهرتز DDR5 DIMM
  • 10 برابر پهنای باند شبکه بیشتر به لطف IPU های مجهز به سخت افزار، پشته ارتباطی تخصصی GPU بین سرور، و بهینه سازی های NCCL

ماشین‌های مجازی A3 GPU برای مشتریانی که پیشرفته‌ترین مدل‌های ML را توسعه می‌دهند، گامی بالاتر است. با تسریع چشمگیر آموزش و استنتاج مدل ML، ماشین‌های مجازی A3 شرکت‌ها را قادر می‌سازند تا مدل‌های پیچیده‌تر ML را با سرعت سریع آموزش دهند، و فرصتی را برای مشتری ایجاد می‌کند تا مدل‌های زبان بزرگ (LLM)، هوش مصنوعی و مدل‌های پخش را ایجاد کند تا به بهینه‌سازی عملیات و ماندگاری کمک کند. پیش از رقابت

«نمونه‌های ماشین مجازی Google Cloud A3 قدرت محاسباتی و مقیاس مورد نیاز برای سخت‌ترین حجم‌های آموزشی و استنتاج ما را در اختیار ما قرار می‌دهند. ما مشتاقانه منتظریم تا از تخصص آن‌ها در حوزه هوش مصنوعی و رهبری آن‌ها در زیرساخت‌های مقیاس بزرگ بهره ببریم تا بتوانیم یک سیستم جامع را ارائه دهیم. پلت فرم برای بارهای کاری ML ما.” -Noam Shazeer، مدیر عامل، Character.AI

زیرساخت هوش مصنوعی کاملاً مدیریت شده برای عملکرد و هزینه بهینه شده است
برای مشتریانی که به دنبال توسعه مدل‌های پیچیده ML بدون تعمیر و نگهداری هستند، می‌توانید ماشین‌های مجازی A3 را بر روی Vertex AI، یک پلت‌فرم سرتاسر برای ساخت مدل‌های ML بر روی یک زیرساخت کاملاً مدیریت شده که برای خدمات کم‌هزینه ساخته شده است، استفاده کنید. تأخیر و عملکرد بالا. مربیگری امروز، در Google I/O 2023، ما مشتاق هستیم که با باز کردن پشتیبانی از هوش مصنوعی مولد در Vertex AI برای مشتریان بیشتر و معرفی ویژگی‌ها و قالب‌های جدید، بر روی این پیشنهادات بسازیم.

تحریریه Techpowerup