ما همراه با شرکای خود، طیف گستردهای از گزینههای محاسباتی را برای موارد استفاده ML مانند مدلهای زبان بزرگ (LLM)، هوش مصنوعی مولد و مدلهای انتشار ارائه میکنیم. اخیراً ماشینهای مجازی G2 را معرفی کردیم که اولین ابری بود که پردازندههای گرافیکی جدید NVIDIA L4 Tensor Core را برای ارائه بارهای کاری هوش مصنوعی مولد ارائه میکرد. امروز، با راهاندازی پیشنمایش خصوصی ابررایانه A3 GPU نسل بعدی، این مجموعه را گسترش میدهیم. Google Cloud اکنون طیف کاملی از گزینه های GPU را برای آموزش و استنباط مدل های ML ارائه می دهد.
ابررایانههای Google Compute Engine A3 برای آموزش و خدمترسانی به سختترین مدلهای هوش مصنوعی ساخته شدهاند که به هوش مصنوعی مولد و نوآوری مدلهای زبانی امروزی کمک میکنند. ماشینهای مجازی A3 ما پردازندههای گرافیکی NVIDIA H100 Tensor Core و پیشرفتهای پیشرو در شبکه Google را برای ارائه خدمات به مشتریان در هر اندازهای ترکیب میکنند:
- A3 اولین نمونه GPU است که از IPUهای 200 گیگابیتی بر ثانیه طراحی شده سفارشی ما استفاده می کند، با انتقال داده GPU به GPU که CPU میزبان را دور می زند و روی رابط های جداگانه از سایر شبکه های VM و ترافیک داده جریان دارد. این امر پهنای باند شبکه را تا 10 برابر بیشتر در مقایسه با ماشین های مجازی A2 ما با تاخیر در صف کم و پایداری پهنای باند بالا امکان پذیر می کند.
- پارچه شبکه مرکز داده هوشمند مشتری که در صنعت منحصر به فرد است، به ده ها هزار GPU بسیار به هم پیوسته مقیاس می دهد و پیوندهای نوری قابل تنظیم مجدد با پهنای باند کامل را فعال می کند که می توانند توپولوژی را در صورت نیاز تنظیم کنند. تقریباً برای هر پارچه حجم کاری، پهنای باند حجم کاری را دریافت میکنیم که از پارچههای شبکه گرانتر، خارج از قفسه و غیرمسدود قابل تشخیص نیست، که منجر به کاهش هزینه کل مالکیت میشود.
- مقیاس ابررایانه A3 تا 26 exaFlops عملکرد هوش مصنوعی را ارائه می دهد که به طور چشمگیری زمان و هزینه آموزش مدل های بزرگ ML را بهبود می بخشد.
همانطور که شرکتها از آموزش به ارائه مدلهای ML خود میروند، ماشینهای مجازی A3 نیز برای بارهای کاری استنتاج کاملاً مناسب هستند، با تا 30 برابر افزایش عملکرد استنتاج در مقایسه با ماشینهای ما. ماشینهای مجازی A2 که توسط پردازنده گرافیکی NVIDIA A100 Tensor Core* تغذیه میشوند.
این اعلامیه مبتنی بر همکاری ما با NVIDIA است تا مجموعه کاملی از گزینههای GPU را برای آموزش و استنتاج مدل ML به مشتریان خود ارائه دهد.
در Google Cloud، هوش مصنوعی در DNA ما وجود دارد. ما چندین دهه تجربه محاسباتی جهانی را برای هوش مصنوعی به کار برده ایم. ما این زیرساخت را طوری طراحی کردهایم که برای اجرای طیف گستردهای از بارهای کاری هوش مصنوعی بهینهسازی شده و مقیاسبندی شود – و اکنون آن را در اختیار شما قرار میدهیم.
مرجع اخبار سخت افزار کامپیوترایران
برای مشتریانی که به دنبال طراحی پشته نرمافزار سفارشی خود هستند، مشتریان همچنین میتوانند ماشینهای مجازی A3 را در Google Kubernetes Engine (GKE) و Compute Engine استقرار دهند، بنابراین میتوانید آخرین مدلهای پایه را آموزش دهید و ارائه دهید، در حالی که از پشتیبانی از مقیاس خودکار، هماهنگسازی حجم کار و خودکار بهره میبرید. به روز رسانی ها
ایان باک، نایب رئیس بخش هایپرمقیاس و محاسبات با کارایی بالا در انویدیا گفت: «ماشینهای مجازی Google Cloud A3، که توسط پردازندههای گرافیکی NVIDIA H100 نسل بعدی پشتیبانی میشوند، شکلگیری و سرویسدهی برنامههای کاربردی هوش مصنوعی را تسریع میکنند. با توجه به نمونههای G2 که اخیراً راهاندازی شده توسط Google Cloud، ما مفتخریم که به کار خود با Google Cloud ادامه میدهیم تا با زیرساختهای هوش مصنوعی به تغییر کسبوکارها در سراسر جهان کمک کنیم.»
پیادهسازی پیشرفتهترین مدلهای هوش مصنوعی (AI) و یادگیری ماشینی (ML) به محاسبات زیادی نیاز دارد، هم برای آموزش مدلهای زیربنایی و هم برای ارائه آنها پس از شکلگیری آنها. با توجه به نیازهای این حجم کاری، یک رویکرد یک اندازه مناسب برای همه کافی نیست: شما به زیرساختی نیاز دارید که برای هوش مصنوعی ساخته شده باشد.
به طور خاص برای عملکرد و مقیاس پذیری طراحی شده است
ماشینهای مجازی GPU A3 بهمنظور ارائه بالاترین کارایی آموزشی برای بارهای کاری امروزی ML ساخته شدهاند که دارای پردازنده مدرن، حافظه میزبان پیشرفته، پردازندههای گرافیکی نسل بعدی NVIDIA و گرایشهای ارتقاء شبکه است. ویژگی های اصلی A3 به شرح زیر است:
- 8 پردازنده گرافیکی H100 با استفاده از معماری Hopper NVIDIA که توان پردازشی 3 برابری را ارائه می دهد
- پهنای باند دوبخشی 3.6 ترابایت بر ثانیه بین 8 پردازنده گرافیکی A3 از طریق NVIDIA NVSwitch و NVLink 4.0
- نسل بعدی پردازنده های Intel Xeon Scalable نسل چهارم
- 2 ترابایت حافظه میزبان از طریق 4800 مگاهرتز DDR5 DIMM
- 10 برابر پهنای باند شبکه بیشتر به لطف IPU های مجهز به سخت افزار، پشته ارتباطی تخصصی GPU بین سرور، و بهینه سازی های NCCL
ماشینهای مجازی A3 GPU برای مشتریانی که پیشرفتهترین مدلهای ML را توسعه میدهند، گامی بالاتر است. با تسریع چشمگیر آموزش و استنتاج مدل ML، ماشینهای مجازی A3 شرکتها را قادر میسازند تا مدلهای پیچیدهتر ML را با سرعت سریع آموزش دهند، و فرصتی را برای مشتری ایجاد میکند تا مدلهای زبان بزرگ (LLM)، هوش مصنوعی و مدلهای پخش را ایجاد کند تا به بهینهسازی عملیات و ماندگاری کمک کند. پیش از رقابت
«نمونههای ماشین مجازی Google Cloud A3 قدرت محاسباتی و مقیاس مورد نیاز برای سختترین حجمهای آموزشی و استنتاج ما را در اختیار ما قرار میدهند. ما مشتاقانه منتظریم تا از تخصص آنها در حوزه هوش مصنوعی و رهبری آنها در زیرساختهای مقیاس بزرگ بهره ببریم تا بتوانیم یک سیستم جامع را ارائه دهیم. پلت فرم برای بارهای کاری ML ما.” -Noam Shazeer، مدیر عامل، Character.AI
زیرساخت هوش مصنوعی کاملاً مدیریت شده برای عملکرد و هزینه بهینه شده است
برای مشتریانی که به دنبال توسعه مدلهای پیچیده ML بدون تعمیر و نگهداری هستند، میتوانید ماشینهای مجازی A3 را بر روی Vertex AI، یک پلتفرم سرتاسر برای ساخت مدلهای ML بر روی یک زیرساخت کاملاً مدیریت شده که برای خدمات کمهزینه ساخته شده است، استفاده کنید. تأخیر و عملکرد بالا. مربیگری امروز، در Google I/O 2023، ما مشتاق هستیم که با باز کردن پشتیبانی از هوش مصنوعی مولد در Vertex AI برای مشتریان بیشتر و معرفی ویژگیها و قالبهای جدید، بر روی این پیشنهادات بسازیم.
تحریریه Techpowerup