اینتل OpenVINO 2022.1 را برای پیشبرد استنتاج هوش مصنوعی برای توسعه دهندگان منتشر کرد

اینتل OpenVINO 2022.1 را برای پیشبرد استنتاج هوش مصنوعی برای توسعه دهندگان منتشر کرد

“آخرین نسخه OpenVINO 2022.1 مبتنی بر بیش از سه سال یادگیری از صدها هزار توسعه‌دهنده برای ساده‌سازی و خودکارسازی بهینه‌سازی‌ها است. آخرین به‌روزرسانی، کشف خودکار سخت‌افزار و بهینه‌سازی خودکار را اضافه می‌کند، به طوری که توسعه‌دهندگان نرم‌افزار می‌توانند به عملکرد مطلوب در هر پلتفرمی دست یابند. آدام برنز، معاون OpenVINO Developer Tools در گروه شبکه و Edge، گفت: این نرم افزار، همراه با سیلیکون اینتل، مزیت قابل توجهی در AI ROI ارائه می دهد و به راحتی در راه حل های مبتنی بر اینتل در شبکه شما مستقر می شود.

Intel Distribution of OpenVINO Toolkit – که بر اساس OneAPI ساخته شده است – مجموعه ای از ابزارها برای یادگیری عمیق با کارایی بالا است که نتایج واقعی سریعتر و دقیق تری را هدف قرار می دهد که در تولید بر روی پلتفرم های مختلف اینتل، از لبه تا ابر، به کار گرفته شده است. . OpenVINO استقرار برنامه‌ها و الگوریتم‌های با کارایی بالا را در دنیای واقعی با یک گردش کار توسعه کارآمد امکان‌پذیر می‌سازد.

API به روز شده و تمیزتر

  • تغییرات کد کمتر هنگام انتقال از چارچوب‌ها: قالب‌های دقیق اکنون با تبدیل کمتری حفظ می‌شوند و الگوها دیگر نیازی به تبدیل طرح‌بندی ندارند.
  • یک مسیر ساده‌تر برای AI سریع‌تر: پارامترهای Model Optimizer API برای به حداقل رساندن پیچیدگی کاهش یافته‌اند.
  • آموزش با استنباط در ذهن: برنامه‌های افزودنی آموزشی OpenVINO و چارچوب فشرده‌سازی شبکه عصبی (NNCF) الگوهای آموزشی مدل اختیاری را ارائه می‌دهند که بهبود عملکرد بیشتری را با دقت حفظ شده برای تشخیص عمل، طبقه‌بندی تصویر، تشخیص گفتار، پاسخ به سؤال و ترجمه ارائه می‌کنند.

پشتیبانی مدل گسترده تر

  • پشتیبانی گسترده تر از مدل های برنامه نویسی زبان طبیعی و موارد استفاده مانند تشخیص متن به گفتار و گفتار: پشتیبانی از اشکال پویا خانواده BERT و ترانسفورماتورهای Hugging Face را بهتر فعال می کند.
  • بهینه سازی و پشتیبانی از دید کامپیوتری پیشرفته: خانواده ماسک R-CNN اکنون بهینه تر شده است و پشتیبانی از مدل های با دقت دوگانه (FP64) معرفی شده است.
  • پشتیبانی مستقیم از مدل‌های PaddlePaddle: Model Optimizer اکنون می‌تواند مستقیماً مدل‌های PaddlePaddle را بدون تبدیل به چارچوب دیگری وارد کند.

قابلیت حمل و کارایی

  • استفاده هوشمندانه‌تر از دستگاه‌ها بدون تغییر کد: حالت دستگاه خودکار به‌طور خودکار قابلیت استنتاج سیستم موجود را بر اساس نیازهای مدل کشف می‌کند، بنابراین برنامه‌ها دیگر نیازی به دانستن محیط محاسباتی خود به طور همزمان ندارند.
  • بهینه‌سازی تخصصی درون جعبه ابزار: با ویژگی دسته‌بندی خودکار، عملکرد دستگاه با تنظیم خودکار و سفارشی‌سازی تنظیمات توان عملیاتی مناسب برای پیکربندی سیستم توسعه‌دهندگان و مدل برنامه افزایش می‌یابد. یادگیری عمیق. نتیجه موازی مقیاس پذیر و استفاده بهینه از حافظه است.
  • طراحی شده برای نسل دوازدهم Intel Core: از معماری هیبریدی برای ارائه بهبودهایی برای استنتاج با کارایی بالا در CPU و GPU یکپارچه پشتیبانی می کند.



مرجع اخبار سخت افزار کامپیوترایران

از زمان راه‌اندازی OpenVINO در سال 2018، اینتل به صدها هزار توسعه‌دهنده قدرت داده است تا عملکرد استنتاج هوش مصنوعی را به‌طور چشمگیری تسریع کنند، که از لبه‌ها شروع می‌شود و به شرکت و مشتری گسترش می‌یابد. امروز، قبل از MWC Barcelona 2022، این شرکت نسخه جدیدی از توزیع OpenVINO Toolkit اینتل را منتشر کرد. ویژگی‌های جدید مبتنی بر بازخورد سه سال و نیم توسعه‌دهندگان است و شامل انتخاب بیشتر مدل‌های یادگیری عمیق، انتخاب‌های بیشتر قابلیت حمل دستگاه و عملکرد استنتاج بالاتر با تغییرات کد کمتر است.

در همان زمان، حجم کاری توسعه دهندگان همچنان در حال رشد و تغییر است. بنابراین، آنها نیازمند فرآیندها و ابزارهای ساده و خودکارتر با قابلیت های هوشمند و جامع برای عملکرد بهینه از ساخت تا استقرار هستند.

ویژگی‌های جدید به توسعه‌دهندگان این امکان را می‌دهد تا به راحتی کد را در طیف گسترده‌ای از مدل‌های یادگیری عمیق بکار گیرند، حفظ کنند، بهینه‌سازی کنند و به کار گیرند. نکات برجسته عبارتند از:

هوش مصنوعی Edge در حال تغییر هر بازاری است و موارد استفاده جدید و بهبود یافته را در هر صنعت، از تولید گرفته تا برنامه‌های کاربردی مراقبت‌های بهداشتی و علوم زیستی تا خرده‌فروشی، ایمنی و امنیت را ممکن می‌سازد. طبق تحقیقات Omdia، درآمد جهانی چیپست های هوش مصنوعی لبه تا سال 2025 به 51.9 میلیارد دلار خواهد رسید که ناشی از نیاز روزافزون به استنتاج هوش مصنوعی در لبه است. استنتاج لبه تأخیر و پهنای باند را کاهش می‌دهد و عملکرد را برای برآورده کردن نیازهای پردازش فوری دستگاه‌ها و برنامه‌های کاربردی اینترنت اشیا (IoT) بهبود می‌بخشد.