سامسونگ گواهینامه انویدیا را برای حافظه HBM3 خود کسب کرد

سامسونگ گواهینامه انویدیا را برای تراشه‌های ۱۲ لایه HBM3E خود، که برای شتاب‌دهنده‌های هوش مصنوعی پیشرفته حیاتی هستند، با موفقیت کسب کرد. این خبر باعث جهش بیش از ۵ درصدی سهام سامسونگ شد و نشان‌دهنده رسیدن این شرکت به رقبای اصلی خود، SK hynix و Micron، در بازار حافظه‌های HBM3E است. فروش انبوه HBM3E سامسونگ به انویدیا تا سال ۲۰۲۶ آغاز نخواهد شد، اما حافظه HBM3 آن در کارت‌های Nvidia DGX B300 و AMD Instinct MI350 استفاده می‌شود.

صنعت به سرعت به سمت نسل بعدی، HBM4، حرکت می‌کند که پهنای باند ۲ ترابایت بر ثانیه، ظرفیت ۶۴ گیگابایت و کاهش مصرف انرژی را نوید می‌دهد. سامسونگ برای دریافت گواهینامه زودهنگام HBM4 و آغاز تولید انبوه در نیمه اول ۲۰۲۶ تلاش می‌کند. اگرچه SK hynix در توسعه HBM4 پیشتاز است، اما جهش سهام سامسونگ نشان‌دهنده اعتماد سرمایه‌گذاران به توانایی این شرکت برای رقابت است.

خنک‌سازی غوطه‌وری برای مراکز داده: یک اجتناب‌ناپذیری عجیب؟

مراکز داده مدرن با چالش گرمای فزاینده پردازنده‌های هوش مصنوعی (مانند GPUهای انویدیا) روبرو هستند. در حالی که خنک‌سازی مایع مستقیم به تراشه (D2C) راه‌حل کنونی است، GPUهای آینده با مصرف برق بالاتر (مانند Feynman با 4.4 کیلووات) به خنک‌سازی غوطه‌وری نیاز خواهند داشت. این فناوری، که شامل قرار دادن تجهیزات در مایع دی‌الکتریک است، مزایایی چون کارایی و چگالی بالا را ارائه می‌دهد.

با این حال، خنک‌سازی غوطه‌وری با موانعی نظیر عدم اطمینان از قابلیت اطمینان قطعات، نبود زیرساخت‌های استاندارد و گران بودن مایعات تخصصی (مانند جایگزین‌های 3M Novec) مواجه است. استقرارهای گسترده محدود بوده، اما همکاری‌های اخیر اینتل، شل، سوپرمیکرو و سابمر برای راه‌حل‌های تک‌فاز گواهی‌شده، پیشرفت را نشان می‌دهد. برای آماده‌سازی اکوسیستم خنک‌سازی غوطه‌وری جهت نیازهای آینده مراکز داده هوش مصنوعی تا سال‌های 2028-2029، اقدامات گسترده‌تری از سوی صنعت ضروری است.

مارک زاکربرگ از متا در نامه‌ای چشم‌انداز خود را برای «ابر هوش شخصی» تشریح می‌کند

مارک زاکربرگ، مدیرعامل متا، چشم‌انداز جدید خود را برای «ابر هوش شخصی» معرفی کرده است، رویکردی که هوش مصنوعی را به عنوان امتدادی از خود فرد می‌بیند، نه صرفاً ابزاری برای خودکارسازی کامل کارها. این دیدگاه در تضاد با استراتژی‌های متمرکز هوش مصنوعی رقبایی مانند اوپن‌ای‌آی و گوگل قرار می‌گیرد که بیشتر بر جایگزینی انبوه تمرکز دارند. زاکربرگ تأکید می‌کند که هدف توانمندسازی افراد با هوشی است که متناسب با زندگی آنها باشد.

برای تحقق این چشم‌انداز، متا سرمایه‌گذاری‌های عظیمی در تحقیق و توسعه هوش مصنوعی انجام داده است. این شرکت میلیاردها دلار به این بخش اختصاص داده و استعدادهای برتر را از شرکت‌هایی مانند اوپن‌ای‌آی و گوگل دیپ‌مایند جذب کرده است. آزمایشگاه‌های جدید «ابر هوش متا» مسئول توسعه مدل‌های بنیادی مانند لاما و همچنین تحقیقات عمیق‌تر در معماری و استنتاج هوش مصنوعی خواهند بود. این مقیاس از عملیات نیازمند زیرساخت‌های محاسباتی بسیار قدرتمندی است.

در بخش سخت‌افزار، متا در حال استقرار شتاب‌دهنده‌های سفارشی خود (MTIA) در کنار پردازنده‌های گرافیکی سنتی NVIDIA H100 و A100 است. گمانه‌زنی‌هایی نیز در مورد توسعه سیلیکون هوش مصنوعی داخلی توسط متا برای مدل‌های آینده لاما وجود دارد که یادآور استراتژی TPU گوگل است. هدف نهایی ارائه همراهان هوش مصنوعی خصوصی و بلادرنگ در دستگاه‌های لبه یا واقعیت مجازی است که نیازمند سخت‌افزاری فوق‌العاده سریع و کارآمد است.

زاکربرگ این چشم‌انداز را با درس‌هایی از تجربه متاورس مقایسه می‌کند. در حالی که بخش Reality Labs متا با ضررهای هنگفت ۶۰ میلیارد دلاری در پروژه‌هایی مانند هدست‌های Quest مواجه شده، هوش مصنوعی تناسب فوری با بازار دارد و مدل‌های زبان بزرگ (LLM) و چت‌بات‌ها در حال حاضر در حال تغییر بهره‌وری، آموزش و سرگرمی هستند. متا قصد دارد نه تنها در زمینه الگوریتم‌ها، بلکه در زمینه سخت‌افزار نیز بنیاد هوش مصنوعی را خود بسازد و صرفاً یک مستاجر در مراکز داده هوش مصنوعی نباشد. این ایده فلسفی به سرعت در حال تبدیل شدن به یک واقعیت مادی با تمام چالش‌های مربوط به گرما، سیلیکون و فشار زنجیره تامین است.

ایلان ماسک می‌گوید xAI در پنج سال آینده ۵۰ میلیون پردازنده گرافیکی هوش مصنوعی «معادل H100» را هدف قرار داده است — ۲۳۰ هزار پردازنده گرافیکی، شامل ۳۰ هزار GB200، قبلاً برای آموزش Grok عملیاتی شده‌اند.

ایلان ماسک، مدیرعامل xAI، از برنامه‌های جاه‌طلبانه این شرکت برای استقرار ۵۰ میلیون پردازنده گرافیکی هوش مصنوعی «معادل H100» طی پنج سال آینده خبر داده است. این هدف، که معادل ۵۰ اگزافلاپس قدرت محاسباتی برای آموزش هوش مصنوعی تا سال ۲۰۳۰ است، مقیاسی بی‌سابقه در صنعت هوش مصنوعی محسوب می‌شود.

xAI در حال حاضر با ابرخوشه Colossus 1 خود که شامل ۲۰۰ هزار H100/H200 و ۳۰ هزار GB200 است، پیشرو در استقرار شتاب‌دهنده‌های هوش مصنوعی است. این شرکت همچنین قصد دارد خوشه Colossus 2 را با ۵۵۰ هزار گره GB200/GB300 (بیش از یک میلیون پردازنده گرافیکی) راه‌اندازی کند. با توجه به پیشرفت‌های مداوم انویدیا در معماری‌های جدید مانند Blackwell، Rubin و Feynman، دستیابی به هدف ۵۰ اگزافلاپس ممکن است با تعداد فیزیکی کمتری از پردازنده‌های گرافیکی (حدود ۶۵۰ هزار Feynman Ultra تا سال ۲۰۲۹) محقق شود.

با این حال، چالش اصلی این طرح عظیم، تامین انرژی مورد نیاز است. ۵۰ میلیون پردازنده گرافیکی H100 به تنهایی ۳۵ گیگاوات برق مصرف می‌کنند که معادل توان تولیدی ۳۵ نیروگاه هسته‌ای است و در حال حاضر غیرواقعی به نظر می‌رسد. حتی با فرض بهره‌وری انرژی بالاتر در نسل‌های آینده پردازنده‌های گرافیکی، یک خوشه ۵۰ اگزافلاپس همچنان به حدود ۴.۶۸۵ گیگاوات برق نیاز خواهد داشت. این میزان مصرف برق، سوالات جدی را در مورد امکان‌پذیری تامین زیرساخت‌های انرژی لازم برای چنین مقیاس عظیمی از محاسبات هوش مصنوعی در سال‌های آینده مطرح می‌کند.

جستجو در سایت

سبد خرید

درحال بارگذاری ...
بستن
مقایسه
مقایسه محصولات
لیست مقایسه محصولات شما خالی می باشد!