اینتل فاندری قرارداد ساخت پردازنده هوش مصنوعی نسل بعدی Maia 2 مایکروسافت را بر روی گره 18A/18A-P تضمین کرد، گزارشی ادعا میکند
هنگامی که اینتل و مایکروسافت در اوایل سال ۲۰۲۴ برنامه خود را برای ساخت یک ‘پردازنده سفارشی’ بر روی فرآیند ساخت ۱۸A اینتل اعلام کردند، هیچ یک از شرکتها حتی به هدف آن سیلیکون اشارهای نکردند و فضای زیادی را برای حدس و گمان و تفسیر توسط ناظران صنعت باقی گذاشتند. امروز، SemiAccurate طبق گزارشها سکوت را شکست و درباره مشتریان فاندری ۱۸A اینتل فاندری گزارش داد که اینتل فاندری (IF) در مسیر تولید یک پردازنده هوش مصنوعی بر روی ۱۸A یا ۱۸A-P برای مایکروسافت است.
تاکنون، اینتل فاندری تنها یک مشتری خارجی بزرگ برای فناوری ساخت ۱۸A خود، یعنی مایکروسافت، به طور رسمی جذب کرده است. اما در حالی که ما تمایل داریم مایکروسافت را به عنوان یک غول ابری و نرمافزاری در نظر بگیریم، این شرکت دارای یک تیم توسعه سختافزاری (یا حداقل تعریف سختافزاری) بسیار قدرتمند است که سیلیکونهای سفارشی را برای کاربردهای مختلف دیتاسنتر، از جمله پردازندههای Cobalt، DPUs و شتابدهندههای هوش مصنوعی Maia، میسازد. همانطور که مشخص شد، یکی از پردازندههای هوش مصنوعی نسل بعدی مایکروسافت طبق گزارشها توسط اینتل فاندری ساخته خواهد شد.
اگر این خبر صحت داشته باشد، این معامله به مایکروسافت امکان دسترسی به یک زنجیره تامین تراشه مستقر در ایالات متحده را میدهد که به اندازه محدودیتهای ظرفیتی که در ساخت تراشه و بستهبندی پیشرفته در TSMC مشاهده میکنیم، در معرض خطر نیست. علاوه بر این، با توجه به سرمایهگذاری دولت ایالات متحده در اینتل، این معامله میتواند از جهات دیگری نیز برای مایکروسافت مطلوب تلقی شود.
به دلیل کمبود جزئیات، ما فقط میتوانیم حدس بزنیم که کدام یک از پردازندههای Maia نسل بعدی توسط IF تولید خواهد شد، اما این یک پیشرفت بزرگ برای اینتل خواهد بود. از آنجایی که ما با سیلیکونهای مخصوص دیتاسنتر سروکار داریم، صحبت از پردازندههایی با اندازه دای نسبتاً بزرگ است. از این رو، اگر آنها در مسیر تولید در اینتل فاندری باشند، فرآیند ساخت ۱۸A (یا ۱۸A-P با ۸٪ عملکرد بالاتر) این شرکت پیشبینی میشود که نه تنها برای خود اینتل (که در مسیر افزایش تولید Xeon 6+ ‘Clearwater Forest’ در سال ۲۰۲۶ است) بلکه برای مشتریان فاندری آن نیز به اندازه کافی خوب باشد. این قرارداد میتواند نشانهای از بازدهی خوب در گره اینتل باشد: بازدهی تأثیر قابل توجهی بر یک پردازنده بزرگ مانند Maia خواهد داشت، به این معنی که اگر مشکلات بازدهی با گره اینتل وجود داشت، مایکروسافت احتمالاً به جای آن محصولی مبتنی بر دای کوچکتر را انتخاب میکرد.
پردازنده اصلی Maia 100 مایکروسافت یک قطعه سیلیکونی عظیم ۸۲۰ میلیمتر مربعی است که ۱۰۵ میلیارد ترانزیستور را در خود جای داده و از H100 انویدیا (۸۱۴ میلیمتر مربع) یا چیپلتهای محاسباتی B200/B300 (۷۵۰ میلیمتر مربع) بزرگتر است. در حالی که بخش عمدهای از خدمات Azure مایکروسافت برای هوش مصنوعی بر روی شتابدهندههای هوش مصنوعی انویدیا اجرا میشود، این شرکت سرمایهگذاری زیادی برای بهینهسازی مشترک سختافزار و نرمافزار خود انجام میدهد تا به عملکرد بالاتر دست یابد و در عین حال کارایی را افزایش داده و در نتیجه هزینه کل مالکیت را کاهش دهد. به این ترتیب، Maia یک پروژه مهم برای مایکروسافت است.
با فرض اینکه پردازندههای هوش مصنوعی مایکروسافت، که قرار است توسط اینتل فاندری ساخته شوند، همچنان از دایهای محاسباتی نزدیک به اندازه رتیکل استفاده کنند، فرآیند ساخت ۱۸A اینتل در مسیر دستیابی به چگالی نقص کافی پایین برای تولید چنین تراشههایی با بازدهی مناسب است. البته، مایکروسافت میتواند پردازنده هوش مصنوعی نسل بعدی خود را به چندین چیپلت محاسباتی کوچکتر که از طریق فناوریهای EMIB یا Foveros اینتل به هم متصل شدهاند، تقسیم کند، اما این میتواند بر کارایی عملکرد تأثیر بگذارد، بنابراین به احتمال زیاد ما در مورد یک دای بزرگ یا دایهایی نزدیک به اندازه رتیکل ابزارهای EUV، که ۸۵۸ میلیمتر مربع است، صحبت میکنیم.
برای کاهش ریسک چنین قطعه بزرگی، اینتل و مایکروسافت تقریباً به طور قطع حلقههای DTCO را اجرا میکنند، جایی که اینتل پارامترهای ترانزیستور و پشته فلزی را برای بارهای کاری و اهداف عملکردی Maia تنظیم میکند. علاوه بر این، مایکروسافت میتواند آرایههای محاسباتی یدکی یا بلوکهای MAC اضافی را در طرحبندی Maia نسل بعدی جاسازی کند تا امکان فیوزینگ یا تعمیر پس از ساخت را فراهم کند، کاری که شرکتهایی مانند انویدیا با طرحهای خود انجام میدهند.
در همین حال، سوال بزرگ این است که اینتل فاندری دقیقاً چه چیزی را برای مایکروسافت و چه زمانی تولید خواهد کرد. بر اساس آخرین شایعات، مایکروسافت در حال حاضر بر روی پردازنده نسل بعدی خود با کدنام Braga (Maia 200؟) کار میکند که از گره ۳ نانومتری TSMC و حافظه HBM4 استفاده خواهد کرد و قرار است در سال ۲۰۲۶ عرضه شود، و همچنین Clea (Maia 300؟) که بعداً عرضه خواهد شد.

- کولبات
- مهر 25, 1404
- 34 بازدید






