Micron تمام منابع HBM3E را برای سال 2024، بیشتر سال 2025 به فروش می رساند

Micron تمام منابع HBM3E را برای سال 2024، بیشتر سال 2025 به فروش می رساند

اولین شرکتی که حافظه‌های HBM3E را عرضه می‌کند مزایای خود را برای Micron دارد، زیرا این شرکت فاش کرده است که توانسته است کل عرضه حافظه با پهنای باند پیشرفته خود را برای سال 2024 بفروشد، در حالی که بیشتر تولید سال 2025 آنها به عنوان تخصیص داده شده است. خوب. حافظه HBM3E Micron (یا همان طور که Micron آن را HBM3 Gen2 می نامد) یکی از اولین حافظه هایی بود که برای شتاب دهنده های H200/GH200 به روز شده NVIDIA واجد شرایط بود، بنابراین به نظر می رسد که سازنده DRAM تامین کننده کلیدی شرکت سبز خواهد بود.

Sanjay Mehrotra، مدیر اجرایی Micron، در اظهارات آماده شده برای فراخوان درآمد شرکت در این هفته گفت: “HBM ما برای تقویم 2024 فروخته شده است، و اکثریت قریب به اتفاق عرضه 2025 ما قبلاً تخصیص یافته است.” ما همچنان انتظار داریم سهم بیت HBM معادل سهم کلی بیت DRAM ما در تقویم 2025 باشد.”

اولین محصول HBM3E میکرون یک پشته 24 گیگابایتی 8-Hi با رابط 1024 بیتی، سرعت انتقال داده 9.2 GT/s و پهنای باند کل 1.2 ترابایت بر ثانیه است. شتاب‌دهنده H200 NVIDIA برای هوش مصنوعی و محاسبات با کارایی بالا از 6 عدد از این مکعب‌ها استفاده می‌کند که در مجموع 141 گیگابایت حافظه با پهنای باند بالا در دسترس را ارائه می‌کند.

مهروترا گفت: «ما در مسیر تولید چند صد میلیون دلار درآمد از HBM در سال مالی 2024 هستیم و انتظار داریم درآمدهای HBM نسبت به DRAM و حاشیه ناخالص کلی ما از سه ماهه سوم مالی افزایش یابد.»

این شرکت همچنین نمونه برداری از پشته های 12-Hi 36 گیگابایتی خود را آغاز کرده است که 50 درصد ظرفیت بیشتری را ارائه می دهند. این KGSD ها در سال 2025 افزایش خواهند یافت و برای نسل های بعدی محصولات هوش مصنوعی مورد استفاده قرار خواهند گرفت. در همین حال، به نظر نمی رسد که B100 و B200 انویدیا حداقل در ابتدا از پشته های 36 گیگابایتی HBM3E استفاده کنند.

تقاضا برای سرورهای هوش مصنوعی در سال گذشته رکوردهایی را ثبت کرد و به نظر می رسد امسال نیز بالا خواهد ماند. برخی از تحلیلگران بر این باورند که پردازنده های A100 و H100 انویدیا (و همچنین مشتقات مختلف آنها) 80 درصد از کل بازار پردازنده های هوش مصنوعی را در سال 2023 در اختیار داشتند. و در حالی که امسال انویدیا با رقابت سخت تری از سوی AMD، AWS، D-Matrix مواجه خواهد شد. اینتل، تنستورنت و دیگر شرکت‌هایی که در جبهه استنتاج هستند، به نظر می‌رسد H200 انویدیا همچنان پردازنده انتخابی برای آموزش هوش مصنوعی خواهد بود، به‌ویژه برای بازیکنان بزرگی مانند متا و مایکروسافت که قبلاً ناوگانی متشکل از صدها هزار شتاب‌دهنده NVIDIA را اجرا می‌کنند. با در نظر گرفتن این موضوع، تامین‌کننده اصلی HBM3E برای H200 NVIDIA برای Micron یک معامله بزرگ است، زیرا به آن امکان می‌دهد تا در نهایت بخش قابل توجهی از بازار HBM را که در حال حاضر تحت تسلط SK Hynix و سامسونگ است و تنها در آن Micron کنترل می‌شود، تصاحب کند. حدود 10 درصد تا سال گذشته

در همین حال، از آنجایی که هر دستگاه DRAM در پشته HBM دارای یک رابط گسترده است، از نظر فیزیکی بزرگتر از آی سی های معمولی DDR4 یا DDR5 است. به گفته این شرکت، در نتیجه، رمپ حافظه HBM3E بر عرضه بیتی DRAM های کالا از Micron تأثیر می گذارد.

مهروترا گفت: «رشد تولید HBM رشد عرضه را در محصولات غیر HBM محدود خواهد کرد. در سرتاسر صنعت، HBM3E تقریباً سه برابر منبع ویفر DDR5 برای تولید تعداد معینی بیت در همان گره فناوری مصرف می‌کند.

مرجع اخبار سخت افزار کامپیوترایران