میکرون با TSMC برای ارائه HBM4E تا سال 2027 همکاری میکند
میکرون تأیید کرده است که با TSMC برای تولید دای منطقی پایه حافظه نسل بعدی HBM4E خود همکاری خواهد کرد، با هدف تولید در سال 2027. این اعلامیه که در جریان تماس درآمد سه ماهه چهارم مالی شرکت در 23 سپتامبر انجام شد، جزئیات بیشتری را به نقشه راه پرکار این شرکت اضافه میکند.
میکرون در حال ارسال نمونههای اولیه HBM4 با سرعتهای بیش از 11 گیگابیت بر ثانیه در هر پین است که پهنای باند تا 2.8 ترابایت بر ثانیه را فراهم میکند و بیشتر توافقنامههای عرضه HBM3E خود را برای سال 2026 نهایی کرده است. اما نکته اصلی این است که میکرون وظیفه ساخت دایهای منطقی استاندارد و سفارشی HBM4E را به TSMC واگذار خواهد کرد و راه را برای راهحلهای حافظه سفارشی برای بارهای کاری هوش مصنوعی باز میکند.
این تصمیم همچنین میکرون را دقیقاً در مرکز موج بعدی طراحی سیستمهای هوش مصنوعی قرار میدهد، که با گزارشهای قبلی در مورد نقشههای راه HBM در میکرون، SK hynix و سامسونگ و با تحلیلهای قبلی در مورد اینکه چگونه میکرون HBM4E را به عنوان بستری برای سفارشیسازی میبیند، همسو است.
یک زیرسیستم نیمهقابل تنظیم
صنعت از قبل با چرخه HBM آشنا است: HBM3E امروز، HBM4 در سالهای 2025-2026 و HBM4E حدود سال 2027، و هر نسل جدید نرخ داده بالاتر در هر پین و پشتههای بلندتر را به ارمغان میآورد. SK hynix قبلاً HBM4 12-Hi با رابط کامل 2048 بیتی با سرعت 10 گیگاترانسفر بر ثانیه را تأیید کرده است، در حالی که سامسونگ ظرفیتهای مشابهی را با فرآیندهای منطقی خود برنامهریزی میکند. میکرون در حال ارسال پشتههای HBM4 خود است و ادعا میکند که بیش از 20% کارایی بهتری نسبت به HBM3E دارد.
HBM4E ادامه آن نقشه راه است، اما میکرون آن را چیزی فراتر میبیند. این شرکت تأکید کرد که دای پایه در TSMC و نه در داخل شرکت ساخته خواهد شد و طرحهای دای منطقی سفارشی به مشتریانی که مایل به پرداخت هزینه اضافی هستند، ارائه خواهد شد. با باز کردن دای پایه برای سفارشیسازی، میکرون عملاً HBM را به یک زیرسیستم نیمهقابل تنظیم تبدیل میکند. به جای یک لایه رابط یکپارچه، فروشندگان GPU میتوانند SRAM اضافی، موتورهای فشردهسازی اختصاصی یا مسیرهای سیگنال تنظیمشده را درخواست کنند.
این رویکرد منعکسکننده چیزی است که از SK hynix دیدهایم، که قبلاً دایهای پایه قابل سفارشیسازی را به عنوان بخشی از استراتژی HBM4 خود توصیف کرده است. با توجه به اینکه حافظه سفارشیشده پایدارتر، سودآورتر و برای مشتریانی که سعی در استخراج حداکثر توان و چرخه از یک شتابدهنده هوش مصنوعی دارند، مهمتر است، این بخش احتمالاً به یک بخش پرسود از بازار تبدیل خواهد شد.
اهمیت هوش مصنوعی
زمانبندی برنامههای میکرون برای HBM4E تصادفی به نظر نمیرسد. انویدیا و AMD هر دو پردازندههای گرافیکی نسل بعدی مراکز داده را برای سال 2026 در نظر گرفتهاند که HBM4 را معرفی خواهند کرد، و HBM4E کاملاً با جانشینان آنها همسو به نظر میرسد.
معماری روبین انویدیا، که انتظار میرود پس از بلکول در سال 2026 عرضه شود، بر پایه HBM4 ساخته شده است. پردازندههای گرافیکی کلاس روبین پیشبینی میشود حدود 13 ترابایت بر ثانیه پهنای باند حافظه و تا 288 گیگابایت ظرفیت ارائه دهند، که جهشی از سقف 8 ترابایت بر ثانیه در هاپر با HBM3E است. یک پلتفرم بعدی، روبین اولترا، از قبل در نقشه راه انویدیا برای سال 2027 قرار دارد. این پلتفرم به طور خاص به HBM4E نیاز دارد، به طوری که هر GPU تا یک ترابایت حافظه و پهنای باند کلی در سطح رک که با پتابایت بر ثانیه اندازهگیری میشود، پشتیبانی میکند.
مسیر AMD نیز به همان اندازه تهاجمی است. خانواده Instinct MI400 آن، که تقریباً همزمان با روبین انتظار میرود، نیز به HBM4 روی میآورد. نشت اطلاعات حاکی از 432 گیگابایت HBM4 و 19.6 ترابایت بر ثانیه پهنای باند است که بیش از دو برابر آنچه MI350 AMD امروز ارائه میدهد. مانند روبین، MI400 از طراحی چیپلت استفاده میکند که توسط باسهای حافظه فوقعریض محدود شده و HBM4 را به یک ضرورت تبدیل میکند. پس از آن HBM4E قرار دارد که برای سال 2027 یا 2028 برنامهریزی شده است، بسته به بازدهی و آمادگی اکوسیستم.
این چرخه، همکاری میکرون با TSMC را به ویژه مهم میکند. با انتقال دای پایه به یک فرآیند منطقی پیشرفته و ارائه سفارشیسازی، میکرون میتواند نقشه راه خود را با نیازهای روبین اولترا، جانشینان MI400 و هر آنچه در آینده در فضای شتابدهندهها میآید، همگام سازد.
با نگاهی به تصویر بزرگتر، همکاری میکرون با TSMC سوالاتی را در مورد چگونگی گسترش گسترده HBM4E در مراکز داده هوش مصنوعی مطرح میکند. در حال حاضر، تنها پیشرفتهترین GPUها و TPUها از HBM استفاده میکنند، در حالی که اکثر سرورها همچنان به DDR5 یا LPDDR متکی هستند. این وضعیت میتواند به طور چشمگیری تغییر کند زیرا حجم بارهای کاری همچنان در حال افزایش است.
میکرون قبلاً اعلام کرده است که پایگاه مشتریان HBM آن به شش شرکت افزایش یافته است که انویدیا نیز در میان آنهاست. این شرکت همچنین با انویدیا برای استقرار LPDDR در سرورها همکاری میکند. همکاری با TSMC نشان میدهد که میکرون قصد دارد HBM4E را به بخشی گسترده از زیرساختهای هوش مصنوعی تبدیل کند و به طور بالقوه HBM4E را به سطح استاندارد حافظه برای گرههای هوش مصنوعی در نیمه دوم دهه تبدیل کند.
- کولبات
- مهر 3, 1404
- 45 بازدید






