اهمیت بهره وری انرژی
با افزایش تقاضای عملکرد هوش مصنوعی، افزایش کارایی نحوه دستیابی به عملکرد ضروری است. این همان کاری است که محاسبات شتاب انجام می دهد.
داستان گروه
این تجربیات کاربر منعکس کننده عملکرد نشان داده شده در معیارهای MLPerf است که امروز اعلام شد.
بهره وری انرژی همچنین هزینه ها را کاهش می دهد زیرا مراکز داده با پردازنده های گرافیکی NVIDIA شتاب می گیرند از گره های سرور کمتری استفاده می کنند. در واقع، NVIDIA قدرت 22 ابرکامپیوتر از 30 ابرکامپیوتر برتر آخرین لیست Green500 را دارد.
نتایج MLPerf امروز در پلتفرمهای H100، L4 و NVIDIA Jetson برای آموزش هوش مصنوعی، استنتاج و معیارهای HPC در دسترس است. همچنین در چرخههای MLPerf آینده، سیستمهای NVIDIA Grace Hopper را پیشنهاد میکنیم.
بهره وری انرژی نیز برای سیاره زمین و تجارت خوب است. افزایش کارایی می تواند زمان را برای بازاریابی سرعت بخشد و به شرکت ها اجازه دهد تا برنامه های پیشرفته تری بسازند.
معیارها شامل حجم کاری است که کاربران به آن علاقه مند هستند: بینایی کامپیوتر، ترجمه و یادگیری تقویتی، علاوه بر هوش مصنوعی مولد و سیستم های توصیه کننده.
پردازندههای گرافیکی H100 بالاترین عملکرد را در هر معیاری از جمله مدلهای زبان بزرگ، توصیهکنندهها، بینایی کامپیوتر، تصویربرداری پزشکی و تشخیص گفتار ارائه کردند. آنها تنها تراشههایی هستند که هر هشت آزمایش را اجرا میکنند و تطبیقپذیری پلتفرم هوش مصنوعی NVIDIA را نشان میدهند.
یک اکوسیستم در حال رشد NVIDIA AI
نزدیک به دوازده شرکت در این دور نتایج را بر روی پلتفرم NVIDIA ارائه کردند. کار آنها نشان می دهد که NVIDIA AI توسط بزرگترین اکوسیستم یادگیری ماشینی صنعت پشتیبانی می شود.
در این چرخه، MLPerf همچنین معیار خود را برای سیستم های توصیه گر به روز کرد.
کاربران می توانند برای تصمیم گیری آگاهانه خرید به نتایج MLPerf اعتماد کنند زیرا آزمایش ها شفاف و عینی هستند. منابع از پشتیبانی گروه بزرگی از جمله Arm، Baidu، Facebook AI، Google، Harvard، Intel، Microsoft، Stanford و دانشگاه تورنتو برخوردار هستند.
علاوه بر این، CoreWeave عملکردی مشابه عملکرد NVIDIA از یک ابررایانه هوش مصنوعی که در یک مرکز داده محلی اجرا میشود، از ابر ارائه کرد. این گواهی بر شبکه سازی کم تاخیر شبکه انویدیا Quantum-2 InfiniBand است که CoreWeave از آن استفاده می کند.
پردازندههای گرافیکی H100 در آخرین معیارهای آموزشی MLPerf که امروز منتشر شدهاند، رکوردهای جدیدی را در هر هشت آزمایش ثبت کردند و در تست جدید MLPerf برای هوش مصنوعی مولد برتری داشتند. این برتری هم در هر شتاب دهنده و هم در مقیاس در سرورهای عظیم ارائه می شود. به عنوان مثال، روی یک خوشه تجاری از 3584 پردازنده گرافیکی H100 که توسط استارتآپ Inflection AI توسعه یافته و توسط CoreWeave، یک ارائهدهنده خدمات ابری متخصص در بارهای کاری شتابدهی شده توسط GPU، اداره میشود، این سیستم معیار آموزشی عظیم مبتنی بر GPT-3 را در کمتر از یازده مورد تکمیل کرد. دقایق.
برایان ونتورو، یکی از بنیانگذاران و مدیر ارشد فناوری CoreWeave، می گوید: «مشتریان ما امروز در حال ساخت AI و LLM های مولد پیشرفته هستند که توسط هزاران پردازنده گرافیکی H100 ما در شبکه های InfiniBand سریع و کم تأخیر پشتیبانی می شود. “ارسال MLPerf مشترک ما با NVIDIA به وضوح عملکرد عالی مشتریان ما را نشان می دهد.”
هوش مصنوعی Inflection که در اوایل سال 2022 توسط مصطفی و کارن سیمونیان از DeepMind و رید هافمن تأسیس شد، قصد دارد با CoreWeave برای ایجاد یکی از بزرگترین کلاسترهای محاسباتی در جهان با استفاده از پردازندههای گرافیکی NVIDIA همکاری کند.
بهترین عملکرد موجود امروز
هوش مصنوعی Inflection از این عملکرد برای ایجاد LLM پیشرفته در پشت اولین هوش مصنوعی شخصی خود، Pi، که مخفف هوش شخصی است، استفاده کرد. این شرکت به عنوان یک استودیوی هوش مصنوعی عمل می کند و هوش مصنوعی شخصی ایجاد می کند که کاربران می توانند به روشی ساده و طبیعی با آنها تعامل داشته باشند.
عملکرد در تمامی حجم های کاری
شرکای اکوسیستم NVIDIA در MLPerf شرکت می کنند زیرا می دانند که این ابزار ارزشمندی برای مشتریانی است که پلتفرم ها و فروشندگان هوش مصنوعی را ارزیابی می کنند.
بهینهسازیها بهطور پیوسته در کانتینرهای موجود در NGC، کاتالوگ NVIDIA برای نرمافزارهای شتابدهنده GPU تا میشوند.
مرجع اخبار سخت افزار کامپیوترایران
برتری در مقیاس
آموزش معمولاً یک کار در مقیاس بزرگ است که توسط بسیاری از GPUهایی که پشت سر هم کار می کنند انجام می شود. با هر آزمایش MLPerf، پردازندههای گرافیکی H100 رکوردهای عملکردی در مقیاس بزرگ جدیدی را برای آموزش هوش مصنوعی ثبت میکنند.
مصطفی سلیمان، مدیر عامل Inflection AI گفت: «امروزه، هر کسی می تواند قدرت هوش مصنوعی شخصی را بر اساس پیشرفته ترین مدل زبان بزرگ ما که بر روی آرایه پردازنده گرافیکی قدرتمند CoreWeave H100 آموزش دیده است، تجربه کند.
نرم افزار قابل دسترس برای همه
NVIDIA AI Enterprise، لایه نرم افزاری پلت فرم NVIDIA AI، به بهینه سازی عملکرد در زیرساخت های محاسباتی شتاب یافته پیشرو کمک می کند. این نرم افزار دارای پشتیبانی، امنیت و قابلیت اطمینان در سطح سازمانی است که برای اجرای هوش مصنوعی در مرکز داده سازمانی لازم است.
موارد ارسالی از سوی سازندگان بزرگ سیستم از جمله ASUS، Dell Technologies، گیگابایت، Lenovo و QCT ارائه شده است. بیش از 30 ارسال بر روی پردازنده گرافیکی H100 اجرا شد.
بهینهسازیها در پشته فناوری، مقیاسبندی عملکرد تقریباً خطی را در آزمون سختگیرانه LLM، با افزایش ارسالها از صدها به هزاران GPU H100، امکانپذیر کرد.
آزمایش جدید از مجموعه داده بزرگتر و یک مدل هوش مصنوعی مدرن تر استفاده می کند تا چالش های پیش روی ارائه دهندگان خدمات ابری را بهتر منعکس کند. انویدیا تنها شرکتی بود که نتایج را در معیار بهبودیافته ارائه کرد.
این سطح مشارکت به کاربران این امکان را می دهد که بدانند می توانند با هوش مصنوعی NVIDIA هم در فضای ابری و هم در سرورهایی که در مراکز داده خودشان کار می کنند به عملکرد عالی دست پیدا کنند.
تمام نرم افزارهای مورد استفاده برای این تست ها در مخزن MLPerf موجود است، بنابراین تقریباً هر کسی می تواند به این نتایج در سطح جهانی دست یابد.
مراکز داده شتابدهی شده با پردازندههای گرافیکی NVIDIA از گرههای سرور کمتری استفاده میکنند، بنابراین از فضای رک و قدرت کمتری استفاده میکنند. علاوه بر این، شبکهسازی سریع کارایی و عملکرد را بهبود میبخشد و بهینهسازیهای نرمافزاری مداوم، دستاوردهای فاکتور ایکس را روی همان سختافزار ارائه میکنند.