نکته جالب این است که ارسال NVIDIA کمی تغییر کرده است. دسته های باز و بسته ای وجود دارد که فروشندگان باید در آنها رقابت کنند، که در آن بسته معادل ریاضی یک شبکه عصبی است. در مقابل، دسته باز انعطاف پذیر است و به فروشندگان اجازه می دهد تا نتایج را بر اساس بهینه سازی برای سخت افزار خود ارسال کنند. ارسال دردار به منظور ارائه یک مقایسه “سیب به سیب” در نظر گرفته شده است. از آنجایی که NVIDIA استفاده از دسته بسته را انتخاب کرده است، بهینه سازی عملکرد از سایر فروشندگان مانند Intel و Qualcomm در اینجا در نظر گرفته نمی شود. با این وجود، جالب است بدانید که بهینه سازی می تواند منجر به افزایش عملکرد تا 54 درصد در مورد NVIDIA با GPU H100 شود. یافته جالب دیگر این است که برخی از سخت افزارهای مشابه، مانند Qualcomm Cloud AI 100، Intel Xeon Platinum 8480+ و NeuChips ReccAccel N3000 نتوانستند همه بارهای کاری را تکمیل کنند. این با “X” در اسلایدهای ساخته شده توسط NVIDIA نشان داده می شود و بر نیاز به پشتیبانی نرم افزاری مناسب برای سیستم ML تاکید می کند، که نقطه قوت NVIDIA و یک ادعای بازاریابی گسترده است.
عملکرد NVIDIA H100 AI با بهینه سازی ها تا 54 درصد بهبود می یابد
روز چهارشنبه، تیم MLCommons ارقام استنتاج MLPerf 3.0 را منتشر کرد و یک ارسال هیجان انگیز از NVIDIA وجود داشت. به نظر میرسد NVIDIA از بهینهسازی نرمافزاری برای بهبود عملکرد خیرهکننده آخرین GPU H100 خود تا 54% استفاده کرده است. برای مرجع، پردازنده گرافیکی H100 NVIDIA برای اولین بار در سپتامبر 2022 در MLPerf 2.1 ظاهر شد. مهندسان NVIDIA تنها در شش ماه روی بهینهسازیهای هوش مصنوعی برای نسخه MLPerf 3.0 کار کردند تا متوجه شوند که بهینهسازی نرمافزار میتواند باعث افزایش عملکرد از 7 تا 54 درصد شود. حجم کاری برای اندازه گیری مجموعه سرعت استنتاج شامل تشخیص گفتار RNN-T، تصویربرداری پزشکی سه بعدی U-Net، تشخیص اشیاء RetinaNet، طبقه بندی شی ResNet-50، توصیه DLRM و پردازش زبان طبیعی BERT 99/99.9٪ بود.