ساختارهای هوش مصنوعی برای حفظ رشد به ۲ تریلیون دلار درآمد سالانه نیاز دارند، اما کمبود نقدینگی عظیمی در راه است
اشتهای سیریناپذیر هوش مصنوعی برای انرژی هم پرهزینه است و هم ناپایدار. این نکته اصلی یک گزارش جدید از Bain & Company است که رقمی سرسامآور را برای هزینههای لازم جهت تامین نیازهای محاسباتی هوش مصنوعی ارائه میدهد — بیش از ۵۰۰ میلیارد دلار در سال برای سرمایهگذاری جهانی در مراکز داده تا سال ۲۰۳۰، با ۲ تریلیون دلار درآمد سالانه مورد نیاز برای توجیه این هزینههای سرمایهای. حتی با فرضهای سخاوتمندانه، بین تخمین میزند که صنعت هوش مصنوعی با کسری ۸۰۰ میلیارد دلاری مواجه خواهد شد.
این یک بررسی واقعبینانه و هوشیارکننده برای روایت کنونی پیرامون هوش مصنوعی است، روایتی که از چرخههای تبلیغاتی تریلیون پارامتری عبور کرده و مستقیماً به فیزیک و اقتصاد زیرساختها میپردازد. اگر بین درست میگوید، این صنعت به سمت دیواری در حرکت است که در آن محدودیتهای انرژی، دسترسی محدود به GPU و تنگناهای سرمایهای همگرا میشوند.
نکته اصلی استدلال بین این است که تقاضای محاسباتی سریعتر از ابزارهایی که آن را تامین میکنند، در حال افزایش است. در حالی که قانون مور به کندی پیش میرود، حجم کاری هوش مصنوعی اینگونه نیست. بین تخمین میزند که الزامات استنتاج و آموزش با بیش از دو برابر سرعت چگالی ترانزیستور رشد کردهاند و اپراتورهای مراکز داده را مجبور به مقیاسبندی با نیروی خام به جای تکیه بر افزایش کارایی هر تراشه میکند. نتیجه یک ردپای محاسباتی جهانی هوش مصنوعی است که میتواند تا سال ۲۰۳۰ به ۲۰۰ گیگاوات برسد که نیمی از آن تنها در ایالات متحده خواهد بود.
این نوع چالش نیازمند ارتقاءهای عظیم و تقریباً غیرقابل تصور در شبکههای محلی، زمانهای طولانی برای تجهیزات الکتریکی و هزاران تن سیستم خنککننده پیشرفته خواهد بود. بدتر اینکه، بسیاری از سیلیکونهای اصلی فعالکننده، مانند HBM و CoWoS، در حال حاضر با محدودیت عرضه مواجه هستند. اظهارات خود انویدیا در سال جاری، که در گزارش بین نیز منعکس شده است، نشان میدهد که تقاضا از توانایی صنعت برای تامین در هر محور به جز قیمتگذاری پیشی گرفته است.
اگر سرمایه خشک شود یا ثابت بماند، هایپراسکیلرها بر روی سیستمهایی تمرکز خواهند کرد که بهترین بازده را به ازای هر وات و هر فوت مربع ارائه میدهند. این امر پلتفرمهای GPU کامل رک مانند Nvidia GB200 NVL72 یا پادهای AMD Instinct MI300X را ارتقا میدهد، جایی که چگالی حرارتی و کارایی اتصال متقابل بر لیست مواد (BOM) غالب است. همچنین پیکربندیهای با حجم کمتر، به ویژه آنهایی که بر اساس قطعات اصلی ایستگاه کاری هستند، اولویت کمتری پیدا میکنند و به تبع آن، عرضه تراشههایی که میتوانستند به دسکتاپهای رده بالا راه پیدا کنند، کاهش مییابد.
همچنین پیامدهایی در بخش کامپیوترهای شخصی وجود دارد. اگر آموزش محدود به هزینه باقی بماند و استنتاج مراکز داده به سقفهای انرژی برخورد کند، بخش بیشتری از بار کاری به سمت لبه (Edge) منتقل میشود. این امر مستقیماً به نفع تولیدکنندگان لپتاپ و دسکتاپ است که اکنون NPUs در محدوده ۴۰ تا ۶۰ TOPS را عرضه میکنند، و چارچوببندی بین به توضیح دلیل آن کمک میکند: استنتاج در لبه نه تنها سریعتر است، بلکه ارزانتر و با سرمایه کمتر نیز انجام میشود.
در همین حال، رقابت ادامه دارد. مایکروسافت اخیراً هزینه مرکز داده هوش مصنوعی ویسکانسین خود را به بیش از ۷ میلیارد دلار افزایش داده است. آمازون، متا و گوگل هر کدام میلیاردها دلار دیگر متعهد شدهاند، همانطور که xAI نیز همینطور است، اما بیشتر این بودجه از قبل برای تخصیص GPU و توسعه مدلها در نظر گرفته شده است. همانطور که بین اشاره میکند، حتی این ارقام تهاجمی نیز ممکن است برای پر کردن شکاف هزینه به درآمد کافی نباشند.
در هر صورت، این گزارش تنش موجود در قلب چرخه فعلی هوش مصنوعی را تقویت میکند. از یک سو، زیرساختی دارید که ساخت، تامین نیروی انسانی و انرژی آن سالها طول میکشد. از سوی دیگر، مدلهایی دارید که هر شش ماه یکبار اندازه و هزینه آنها دو برابر میشود، که به ترس از یک حباب هوش مصنوعی اعتبار میبخشد که اگر به رشد خود ادامه دهد، به این معنی خواهد بود که سیلیکونهای رده بالا و حافظه و خنککنندههای همراه با آن میتوانند تا دهه آینده هم کمیاب و هم گران باقی بمانند.
برای دریافت اخبار، تحلیلها و بررسیهای بهروز ما، در Google News دنبال کنید یا ما را به عنوان منبع ترجیحی خود اضافه کنید. حتماً روی دکمه دنبال کردن کلیک کنید!
- کولبات
- مهر 1, 1404
- 50 بازدید






