سامسونگ گواهینامه انویدیا را برای تراشههای ۱۲ لایه HBM3E خود، که برای شتابدهندههای هوش مصنوعی پیشرفته حیاتی هستند، با موفقیت کسب کرد. این خبر باعث جهش بیش از ۵ درصدی سهام سامسونگ شد و نشاندهنده رسیدن این شرکت به رقبای اصلی خود، SK hynix و Micron، در بازار حافظههای HBM3E است. فروش انبوه HBM3E سامسونگ به انویدیا تا سال ۲۰۲۶ آغاز نخواهد شد، اما حافظه HBM3 آن در کارتهای Nvidia DGX B300 و AMD Instinct MI350 استفاده میشود.
صنعت به سرعت به سمت نسل بعدی، HBM4، حرکت میکند که پهنای باند ۲ ترابایت بر ثانیه، ظرفیت ۶۴ گیگابایت و کاهش مصرف انرژی را نوید میدهد. سامسونگ برای دریافت گواهینامه زودهنگام HBM4 و آغاز تولید انبوه در نیمه اول ۲۰۲۶ تلاش میکند. اگرچه SK hynix در توسعه HBM4 پیشتاز است، اما جهش سهام سامسونگ نشاندهنده اعتماد سرمایهگذاران به توانایی این شرکت برای رقابت است.
مراکز داده مدرن با چالش گرمای فزاینده پردازندههای هوش مصنوعی (مانند GPUهای انویدیا) روبرو هستند. در حالی که خنکسازی مایع مستقیم به تراشه (D2C) راهحل کنونی است، GPUهای آینده با مصرف برق بالاتر (مانند Feynman با 4.4 کیلووات) به خنکسازی غوطهوری نیاز خواهند داشت. این فناوری، که شامل قرار دادن تجهیزات در مایع دیالکتریک است، مزایایی چون کارایی و چگالی بالا را ارائه میدهد.
با این حال، خنکسازی غوطهوری با موانعی نظیر عدم اطمینان از قابلیت اطمینان قطعات، نبود زیرساختهای استاندارد و گران بودن مایعات تخصصی (مانند جایگزینهای 3M Novec) مواجه است. استقرارهای گسترده محدود بوده، اما همکاریهای اخیر اینتل، شل، سوپرمیکرو و سابمر برای راهحلهای تکفاز گواهیشده، پیشرفت را نشان میدهد. برای آمادهسازی اکوسیستم خنکسازی غوطهوری جهت نیازهای آینده مراکز داده هوش مصنوعی تا سالهای 2028-2029، اقدامات گستردهتری از سوی صنعت ضروری است.
مارک زاکربرگ، مدیرعامل متا، چشمانداز جدید خود را برای «ابر هوش شخصی» معرفی کرده است، رویکردی که هوش مصنوعی را به عنوان امتدادی از خود فرد میبیند، نه صرفاً ابزاری برای خودکارسازی کامل کارها. این دیدگاه در تضاد با استراتژیهای متمرکز هوش مصنوعی رقبایی مانند اوپنایآی و گوگل قرار میگیرد که بیشتر بر جایگزینی انبوه تمرکز دارند. زاکربرگ تأکید میکند که هدف توانمندسازی افراد با هوشی است که متناسب با زندگی آنها باشد.
برای تحقق این چشمانداز، متا سرمایهگذاریهای عظیمی در تحقیق و توسعه هوش مصنوعی انجام داده است. این شرکت میلیاردها دلار به این بخش اختصاص داده و استعدادهای برتر را از شرکتهایی مانند اوپنایآی و گوگل دیپمایند جذب کرده است. آزمایشگاههای جدید «ابر هوش متا» مسئول توسعه مدلهای بنیادی مانند لاما و همچنین تحقیقات عمیقتر در معماری و استنتاج هوش مصنوعی خواهند بود. این مقیاس از عملیات نیازمند زیرساختهای محاسباتی بسیار قدرتمندی است.
در بخش سختافزار، متا در حال استقرار شتابدهندههای سفارشی خود (MTIA) در کنار پردازندههای گرافیکی سنتی NVIDIA H100 و A100 است. گمانهزنیهایی نیز در مورد توسعه سیلیکون هوش مصنوعی داخلی توسط متا برای مدلهای آینده لاما وجود دارد که یادآور استراتژی TPU گوگل است. هدف نهایی ارائه همراهان هوش مصنوعی خصوصی و بلادرنگ در دستگاههای لبه یا واقعیت مجازی است که نیازمند سختافزاری فوقالعاده سریع و کارآمد است.
زاکربرگ این چشمانداز را با درسهایی از تجربه متاورس مقایسه میکند. در حالی که بخش Reality Labs متا با ضررهای هنگفت ۶۰ میلیارد دلاری در پروژههایی مانند هدستهای Quest مواجه شده، هوش مصنوعی تناسب فوری با بازار دارد و مدلهای زبان بزرگ (LLM) و چتباتها در حال حاضر در حال تغییر بهرهوری، آموزش و سرگرمی هستند. متا قصد دارد نه تنها در زمینه الگوریتمها، بلکه در زمینه سختافزار نیز بنیاد هوش مصنوعی را خود بسازد و صرفاً یک مستاجر در مراکز داده هوش مصنوعی نباشد. این ایده فلسفی به سرعت در حال تبدیل شدن به یک واقعیت مادی با تمام چالشهای مربوط به گرما، سیلیکون و فشار زنجیره تامین است.
ایلان ماسک، مدیرعامل xAI، از برنامههای جاهطلبانه این شرکت برای استقرار ۵۰ میلیون پردازنده گرافیکی هوش مصنوعی «معادل H100» طی پنج سال آینده خبر داده است. این هدف، که معادل ۵۰ اگزافلاپس قدرت محاسباتی برای آموزش هوش مصنوعی تا سال ۲۰۳۰ است، مقیاسی بیسابقه در صنعت هوش مصنوعی محسوب میشود.
xAI در حال حاضر با ابرخوشه Colossus 1 خود که شامل ۲۰۰ هزار H100/H200 و ۳۰ هزار GB200 است، پیشرو در استقرار شتابدهندههای هوش مصنوعی است. این شرکت همچنین قصد دارد خوشه Colossus 2 را با ۵۵۰ هزار گره GB200/GB300 (بیش از یک میلیون پردازنده گرافیکی) راهاندازی کند. با توجه به پیشرفتهای مداوم انویدیا در معماریهای جدید مانند Blackwell، Rubin و Feynman، دستیابی به هدف ۵۰ اگزافلاپس ممکن است با تعداد فیزیکی کمتری از پردازندههای گرافیکی (حدود ۶۵۰ هزار Feynman Ultra تا سال ۲۰۲۹) محقق شود.
با این حال، چالش اصلی این طرح عظیم، تامین انرژی مورد نیاز است. ۵۰ میلیون پردازنده گرافیکی H100 به تنهایی ۳۵ گیگاوات برق مصرف میکنند که معادل توان تولیدی ۳۵ نیروگاه هستهای است و در حال حاضر غیرواقعی به نظر میرسد. حتی با فرض بهرهوری انرژی بالاتر در نسلهای آینده پردازندههای گرافیکی، یک خوشه ۵۰ اگزافلاپس همچنان به حدود ۴.۶۸۵ گیگاوات برق نیاز خواهد داشت. این میزان مصرف برق، سوالات جدی را در مورد امکانپذیری تامین زیرساختهای انرژی لازم برای چنین مقیاس عظیمی از محاسبات هوش مصنوعی در سالهای آینده مطرح میکند.