گرند تتون متا انویدیا هاپر را به مراکز داده خود می آورد


متا امروز پلتفرم هوش مصنوعی نسل بعدی خود، Grand Teton، از جمله همکاری طراحی NVIDIA را معرفی کرد. الکسیس بیورلین، معاون سخت‌افزار زیرساخت متا، در جریان کنفرانس OCP World Summit 2022، گفت: در مقایسه با پلت‌فرم نسل قبلی Zion EX، سیستم Grand Teton حافظه، پهنای باند شبکه و ظرفیت محاسباتی بیشتری دارد.

مدل‌های هوش مصنوعی به طور گسترده در فیس‌بوک برای خدماتی مانند اخبار، توصیه‌های محتوا، و شناسایی سخنان مشوق عداوت و تنفر و بسیاری از برنامه‌های کاربردی دیگر استفاده می‌شوند. بیورلین در سخنان آماده شده برای کنفرانس گفت: «ما بسیار هیجان زده هستیم که این عضو جدید خانواده را اینجا در راس معرفی می کنیم.

برای مقیاس مرکز داده طراحی شده است

گراند تتون که از نام کوه 13000 فوتی که یکی از دو پارک ملی وایومینگ را تاج می‌گذارد، از پردازنده‌های گرافیکی NVIDIA H100 Tensor Core برای آموزش و اجرای مدل‌های هوش مصنوعی استفاده می‌کند که به سرعت از نظر اندازه و قابلیت رشد می‌کنند و نیاز به محاسبه بزرگ‌تری دارند.

معماری NVIDIA Hopper، که H100 بر اساس آن ساخته شده است، شامل یک موتور ترانسفورماتور برای سرعت بخشیدن به کار بر روی این شبکه های عصبی است، که اغلب به عنوان مدل های پایه شناخته می شوند، زیرا می توانند مجموعه رو به رشدی از برنامه های کاربردی را از جمله مراقبت های بهداشتی پردازش زبان طبیعی، رباتیک انجام دهند. و بیشتر.

NVIDIA H100 برای عملکرد و همچنین بهره وری انرژی طراحی شده است. سرورهای شتاب‌دهنده H100، هنگامی که به شبکه NVIDIA در هزاران سرور در مراکز داده در مقیاس بزرگ متصل می‌شوند، می‌توانند 300 برابر بیشتر از سرورهای فقط CPU کارآمد انرژی داشته باشند.

ایان باک، معاون رئیس بخش هایپر مقیاس و محاسبات با کارایی بالا در NVIDIA، گفت: «GPUهای NVIDIA Hopper برای حل چالش‌های سخت دنیا طراحی شده‌اند، محاسباتی سریع را با راندمان انرژی بیشتر و عملکرد بهتر ارائه می‌دهند و در عین حال هزینه‌ها را افزایش داده و کاهش می‌دهند. با به اشتراک گذاری متا از پلتفرم گرند تتون مجهز به H100، سازندگان سیستم در سراسر جهان به زودی به یک طرح باز برای زیرساخت های محاسباتی مرکز داده در مقیاس بزرگ دسترسی خواهند داشت تا هوش مصنوعی را در تمام بخش ها افزایش دهد.

کوه یک ماشین
متا گفت که گرند تتون 2 برابر پهنای باند شبکه و 4 برابر پهنای باند بین CPU های میزبان و شتاب دهنده های GPU در مقایسه با سیستم قبلی متا Zion دارد.

بجورلین گفت: پهنای باند شبکه اضافه شده به Meta اجازه می دهد تا خوشه های بزرگتری از سیستم ها را برای آموزش مدل های هوش مصنوعی ایجاد کند. همچنین حافظه بیشتری نسبت به Zion برای ذخیره و اجرای مدل های هوش مصنوعی بزرگتر دارد.

استقرار ساده، افزایش قابلیت اطمینان
Bjorlin گفت، ادغام همه این عملکردها در یک سرور یکپارچه واحد “به طور چشمگیری استقرار سیستم ها را ساده می کند و به ما امکان می دهد ناوگان خود را بسیار سریعتر نصب و ارائه دهیم و قابلیت اطمینان را افزایش دهیم.”



مرجع اخبار سخت افزار کامپیوترایران