میکرون با TSMC برای ارائه HBM4E تا سال 2027 همکاری می‌کند

میکرون تأیید کرده است که با TSMC برای تولید دای منطقی پایه حافظه نسل بعدی HBM4E خود همکاری خواهد کرد، با هدف تولید در سال 2027. این اعلامیه که در جریان تماس درآمد سه ماهه چهارم مالی شرکت در 23 سپتامبر انجام شد، جزئیات بیشتری را به نقشه راه پرکار این شرکت اضافه می‌کند.

میکرون در حال ارسال نمونه‌های اولیه HBM4 با سرعت‌های بیش از 11 گیگابیت بر ثانیه در هر پین است که پهنای باند تا 2.8 ترابایت بر ثانیه را فراهم می‌کند و بیشتر توافق‌نامه‌های عرضه HBM3E خود را برای سال 2026 نهایی کرده است. اما نکته اصلی این است که میکرون وظیفه ساخت دای‌های منطقی استاندارد و سفارشی HBM4E را به TSMC واگذار خواهد کرد و راه را برای راه‌حل‌های حافظه سفارشی برای بارهای کاری هوش مصنوعی باز می‌کند.

این تصمیم همچنین میکرون را دقیقاً در مرکز موج بعدی طراحی سیستم‌های هوش مصنوعی قرار می‌دهد، که با گزارش‌های قبلی در مورد نقشه‌های راه HBM در میکرون، SK hynix و سامسونگ و با تحلیل‌های قبلی در مورد اینکه چگونه میکرون HBM4E را به عنوان بستری برای سفارشی‌سازی می‌بیند، همسو است.

یک زیرسیستم نیمه‌قابل تنظیم

SK hynix HBM4 s'mores

صنعت از قبل با چرخه HBM آشنا است: HBM3E امروز، HBM4 در سال‌های 2025-2026 و HBM4E حدود سال 2027، و هر نسل جدید نرخ داده بالاتر در هر پین و پشته‌های بلندتر را به ارمغان می‌آورد. SK hynix قبلاً HBM4 12-Hi با رابط کامل 2048 بیتی با سرعت 10 گیگاترانسفر بر ثانیه را تأیید کرده است، در حالی که سامسونگ ظرفیت‌های مشابهی را با فرآیندهای منطقی خود برنامه‌ریزی می‌کند. میکرون در حال ارسال پشته‌های HBM4 خود است و ادعا می‌کند که بیش از 20% کارایی بهتری نسبت به HBM3E دارد.

HBM4E ادامه آن نقشه راه است، اما میکرون آن را چیزی فراتر می‌بیند. این شرکت تأکید کرد که دای پایه در TSMC و نه در داخل شرکت ساخته خواهد شد و طرح‌های دای منطقی سفارشی به مشتریانی که مایل به پرداخت هزینه اضافی هستند، ارائه خواهد شد. با باز کردن دای پایه برای سفارشی‌سازی، میکرون عملاً HBM را به یک زیرسیستم نیمه‌قابل تنظیم تبدیل می‌کند. به جای یک لایه رابط یکپارچه، فروشندگان GPU می‌توانند SRAM اضافی، موتورهای فشرده‌سازی اختصاصی یا مسیرهای سیگنال تنظیم‌شده را درخواست کنند.

این رویکرد منعکس‌کننده چیزی است که از SK hynix دیده‌ایم، که قبلاً دای‌های پایه قابل سفارشی‌سازی را به عنوان بخشی از استراتژی HBM4 خود توصیف کرده است. با توجه به اینکه حافظه سفارشی‌شده پایدارتر، سودآورتر و برای مشتریانی که سعی در استخراج حداکثر توان و چرخه از یک شتاب‌دهنده هوش مصنوعی دارند، مهم‌تر است، این بخش احتمالاً به یک بخش پرسود از بازار تبدیل خواهد شد.

اهمیت هوش مصنوعی

زمان‌بندی برنامه‌های میکرون برای HBM4E تصادفی به نظر نمی‌رسد. انویدیا و AMD هر دو پردازنده‌های گرافیکی نسل بعدی مراکز داده را برای سال 2026 در نظر گرفته‌اند که HBM4 را معرفی خواهند کرد، و HBM4E کاملاً با جانشینان آن‌ها همسو به نظر می‌رسد.

معماری روبین انویدیا، که انتظار می‌رود پس از بلک‌ول در سال 2026 عرضه شود، بر پایه HBM4 ساخته شده است. پردازنده‌های گرافیکی کلاس روبین پیش‌بینی می‌شود حدود 13 ترابایت بر ثانیه پهنای باند حافظه و تا 288 گیگابایت ظرفیت ارائه دهند، که جهشی از سقف 8 ترابایت بر ثانیه در هاپر با HBM3E است. یک پلتفرم بعدی، روبین اولترا، از قبل در نقشه راه انویدیا برای سال 2027 قرار دارد. این پلتفرم به طور خاص به HBM4E نیاز دارد، به طوری که هر GPU تا یک ترابایت حافظه و پهنای باند کلی در سطح رک که با پتابایت بر ثانیه اندازه‌گیری می‌شود، پشتیبانی می‌کند.

مسیر AMD نیز به همان اندازه تهاجمی است. خانواده Instinct MI400 آن، که تقریباً همزمان با روبین انتظار می‌رود، نیز به HBM4 روی می‌آورد. نشت اطلاعات حاکی از 432 گیگابایت HBM4 و 19.6 ترابایت بر ثانیه پهنای باند است که بیش از دو برابر آنچه MI350 AMD امروز ارائه می‌دهد. مانند روبین، MI400 از طراحی چیپلت استفاده می‌کند که توسط باس‌های حافظه فوق‌عریض محدود شده و HBM4 را به یک ضرورت تبدیل می‌کند. پس از آن HBM4E قرار دارد که برای سال 2027 یا 2028 برنامه‌ریزی شده است، بسته به بازدهی و آمادگی اکوسیستم.

این چرخه، همکاری میکرون با TSMC را به ویژه مهم می‌کند. با انتقال دای پایه به یک فرآیند منطقی پیشرفته و ارائه سفارشی‌سازی، میکرون می‌تواند نقشه راه خود را با نیازهای روبین اولترا، جانشینان MI400 و هر آنچه در آینده در فضای شتاب‌دهنده‌ها می‌آید، همگام سازد.

با نگاهی به تصویر بزرگتر، همکاری میکرون با TSMC سوالاتی را در مورد چگونگی گسترش گسترده HBM4E در مراکز داده هوش مصنوعی مطرح می‌کند. در حال حاضر، تنها پیشرفته‌ترین GPUها و TPUها از HBM استفاده می‌کنند، در حالی که اکثر سرورها همچنان به DDR5 یا LPDDR متکی هستند. این وضعیت می‌تواند به طور چشمگیری تغییر کند زیرا حجم بارهای کاری همچنان در حال افزایش است.

میکرون قبلاً اعلام کرده است که پایگاه مشتریان HBM آن به شش شرکت افزایش یافته است که انویدیا نیز در میان آنهاست. این شرکت همچنین با انویدیا برای استقرار LPDDR در سرورها همکاری می‌کند. همکاری با TSMC نشان می‌دهد که میکرون قصد دارد HBM4E را به بخشی گسترده از زیرساخت‌های هوش مصنوعی تبدیل کند و به طور بالقوه HBM4E را به سطح استاندارد حافظه برای گره‌های هوش مصنوعی در نیمه دوم دهه تبدیل کند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

جستجو در سایت

سبد خرید

درحال بارگذاری ...
بستن
مقایسه
مقایسه محصولات
لیست مقایسه محصولات شما خالی می باشد!