پردازنده‌های گرافیکی NVIDIA H100 استاندارد هوش مصنوعی را در اولین معیار MLPerf تنظیم می‌کنند.

اهمیت بهره وری انرژی
با افزایش تقاضای عملکرد هوش مصنوعی، افزایش کارایی نحوه دستیابی به عملکرد ضروری است. این همان کاری است که محاسبات شتاب انجام می دهد.

داستان گروه
این تجربیات کاربر منعکس کننده عملکرد نشان داده شده در معیارهای MLPerf است که امروز اعلام شد.

بهره وری انرژی همچنین هزینه ها را کاهش می دهد زیرا مراکز داده با پردازنده های گرافیکی NVIDIA شتاب می گیرند از گره های سرور کمتری استفاده می کنند. در واقع، NVIDIA قدرت 22 ابرکامپیوتر از 30 ابرکامپیوتر برتر آخرین لیست Green500 را دارد.

نتایج MLPerf امروز در پلتفرم‌های H100، L4 و NVIDIA Jetson برای آموزش هوش مصنوعی، استنتاج و معیارهای HPC در دسترس است. همچنین در چرخه‌های MLPerf آینده، سیستم‌های NVIDIA Grace Hopper را پیشنهاد می‌کنیم.

بهره وری انرژی نیز برای سیاره زمین و تجارت خوب است. افزایش کارایی می تواند زمان را برای بازاریابی سرعت بخشد و به شرکت ها اجازه دهد تا برنامه های پیشرفته تری بسازند.

معیارها شامل حجم کاری است که کاربران به آن علاقه مند هستند: بینایی کامپیوتر، ترجمه و یادگیری تقویتی، علاوه بر هوش مصنوعی مولد و سیستم های توصیه کننده.

پردازنده‌های گرافیکی H100 بالاترین عملکرد را در هر معیاری از جمله مدل‌های زبان بزرگ، توصیه‌کننده‌ها، بینایی کامپیوتر، تصویربرداری پزشکی و تشخیص گفتار ارائه کردند. آنها تنها تراشه‌هایی هستند که هر هشت آزمایش را اجرا می‌کنند و تطبیق‌پذیری پلتفرم هوش مصنوعی NVIDIA را نشان می‌دهند.

یک اکوسیستم در حال رشد NVIDIA AI
نزدیک به دوازده شرکت در این دور نتایج را بر روی پلتفرم NVIDIA ارائه کردند. کار آنها نشان می دهد که NVIDIA AI توسط بزرگترین اکوسیستم یادگیری ماشینی صنعت پشتیبانی می شود.

در این چرخه، MLPerf همچنین معیار خود را برای سیستم های توصیه گر به روز کرد.

کاربران می توانند برای تصمیم گیری آگاهانه خرید به نتایج MLPerf اعتماد کنند زیرا آزمایش ها شفاف و عینی هستند. منابع از پشتیبانی گروه بزرگی از جمله Arm، Baidu، Facebook AI، Google، Harvard، Intel، Microsoft، Stanford و دانشگاه تورنتو برخوردار هستند.

علاوه بر این، CoreWeave عملکردی مشابه عملکرد NVIDIA از یک ابررایانه هوش مصنوعی که در یک مرکز داده محلی اجرا می‌شود، از ابر ارائه کرد. این گواهی بر شبکه سازی کم تاخیر شبکه انویدیا Quantum-2 InfiniBand است که CoreWeave از آن استفاده می کند.

پردازنده‌های گرافیکی H100 در آخرین معیارهای آموزشی MLPerf که امروز منتشر شده‌اند، رکوردهای جدیدی را در هر هشت آزمایش ثبت کردند و در تست جدید MLPerf برای هوش مصنوعی مولد برتری داشتند. این برتری هم در هر شتاب دهنده و هم در مقیاس در سرورهای عظیم ارائه می شود. به عنوان مثال، روی یک خوشه تجاری از 3584 پردازنده گرافیکی H100 که توسط استارت‌آپ Inflection AI توسعه یافته و توسط CoreWeave، یک ارائه‌دهنده خدمات ابری متخصص در بارهای کاری شتاب‌دهی شده توسط GPU، اداره می‌شود، این سیستم معیار آموزشی عظیم مبتنی بر GPT-3 را در کمتر از یازده مورد تکمیل کرد. دقایق.

برایان ونتورو، یکی از بنیانگذاران و مدیر ارشد فناوری CoreWeave، می گوید: «مشتریان ما امروز در حال ساخت AI و LLM های مولد پیشرفته هستند که توسط هزاران پردازنده گرافیکی H100 ما در شبکه های InfiniBand سریع و کم تأخیر پشتیبانی می شود. “ارسال MLPerf مشترک ما با NVIDIA به وضوح عملکرد عالی مشتریان ما را نشان می دهد.”

در یک معیار جدید استاندارد صنعتی، مجموعه‌ای از 3584 پردازنده گرافیکی H100 از ارائه‌دهنده خدمات ابری CoreWeave یک مدل عظیم مبتنی بر GPT-3 را تنها در 11 دقیقه آموزش دادند. کاربران اصلی و معیارهای استاندارد صنعت موافق هستند: پردازنده‌های گرافیکی NVIDIA H100 Tensor Core بهترین عملکرد هوش مصنوعی را ارائه می‌کنند، به‌ویژه در مدل‌های زبان بزرگ (LLM) که به هوش مصنوعی مولد نیرو می‌دهند.

هوش مصنوعی Inflection که در اوایل سال 2022 توسط مصطفی و کارن سیمونیان از DeepMind و رید هافمن تأسیس شد، قصد دارد با CoreWeave برای ایجاد یکی از بزرگترین کلاسترهای محاسباتی در جهان با استفاده از پردازنده‌های گرافیکی NVIDIA همکاری کند.

بهترین عملکرد موجود امروز
هوش مصنوعی Inflection از این عملکرد برای ایجاد LLM پیشرفته در پشت اولین هوش مصنوعی شخصی خود، Pi، که مخفف هوش شخصی است، استفاده کرد. این شرکت به عنوان یک استودیوی هوش مصنوعی عمل می کند و هوش مصنوعی شخصی ایجاد می کند که کاربران می توانند به روشی ساده و طبیعی با آنها تعامل داشته باشند.

عملکرد در تمامی حجم های کاری
شرکای اکوسیستم NVIDIA در MLPerf شرکت می کنند زیرا می دانند که این ابزار ارزشمندی برای مشتریانی است که پلتفرم ها و فروشندگان هوش مصنوعی را ارزیابی می کنند.

بهینه‌سازی‌ها به‌طور پیوسته در کانتینرهای موجود در NGC، کاتالوگ NVIDIA برای نرم‌افزارهای شتاب‌دهنده GPU تا می‌شوند.



مرجع اخبار سخت افزار کامپیوترایران

برتری در مقیاس
آموزش معمولاً یک کار در مقیاس بزرگ است که توسط بسیاری از GPUهایی که پشت سر هم کار می کنند انجام می شود. با هر آزمایش MLPerf، پردازنده‌های گرافیکی H100 رکوردهای عملکردی در مقیاس بزرگ جدیدی را برای آموزش هوش مصنوعی ثبت می‌کنند.

مصطفی سلیمان، مدیر عامل Inflection AI گفت: «امروزه، هر کسی می تواند قدرت هوش مصنوعی شخصی را بر اساس پیشرفته ترین مدل زبان بزرگ ما که بر روی آرایه پردازنده گرافیکی قدرتمند CoreWeave H100 آموزش دیده است، تجربه کند.

نرم افزار قابل دسترس برای همه
NVIDIA AI Enterprise، لایه نرم افزاری پلت فرم NVIDIA AI، به بهینه سازی عملکرد در زیرساخت های محاسباتی شتاب یافته پیشرو کمک می کند. این نرم افزار دارای پشتیبانی، امنیت و قابلیت اطمینان در سطح سازمانی است که برای اجرای هوش مصنوعی در مرکز داده سازمانی لازم است.

موارد ارسالی از سوی سازندگان بزرگ سیستم از جمله ASUS، Dell Technologies، گیگابایت، Lenovo و QCT ارائه شده است. بیش از 30 ارسال بر روی پردازنده گرافیکی H100 اجرا شد.

بهینه‌سازی‌ها در پشته فناوری، مقیاس‌بندی عملکرد تقریباً خطی را در آزمون سخت‌گیرانه LLM، با افزایش ارسال‌ها از صدها به هزاران GPU H100، امکان‌پذیر کرد.

آزمایش جدید از مجموعه داده بزرگتر و یک مدل هوش مصنوعی مدرن تر استفاده می کند تا چالش های پیش روی ارائه دهندگان خدمات ابری را بهتر منعکس کند. انویدیا تنها شرکتی بود که نتایج را در معیار بهبودیافته ارائه کرد.

این سطح مشارکت به کاربران این امکان را می دهد که بدانند می توانند با هوش مصنوعی NVIDIA هم در فضای ابری و هم در سرورهایی که در مراکز داده خودشان کار می کنند به عملکرد عالی دست پیدا کنند.

تمام نرم افزارهای مورد استفاده برای این تست ها در مخزن MLPerf موجود است، بنابراین تقریباً هر کسی می تواند به این نتایج در سطح جهانی دست یابد.

مراکز داده شتاب‌دهی شده با پردازنده‌های گرافیکی NVIDIA از گره‌های سرور کمتری استفاده می‌کنند، بنابراین از فضای رک و قدرت کمتری استفاده می‌کنند. علاوه بر این، شبکه‌سازی سریع کارایی و عملکرد را بهبود می‌بخشد و بهینه‌سازی‌های نرم‌افزاری مداوم، دستاوردهای فاکتور ایکس را روی همان سخت‌افزار ارائه می‌کنند.