گزارش: Arm در حال توسعه CPU سفارشی برای شتاب‌دهنده داخلی OpenAI است

OpenAI با همکاری Arm و Broadcom در حال توسعه یک CPU سفارشی و شتاب‌دهنده هوش مصنوعی داخلی است. Arm یک CPU سرور-کلاس طراحی می‌کند که زیربنای رک‌های هوش مصنوعی نسل بعدی OpenAI خواهد بود و گام بزرگی برای Arm در بازار مراکز داده است. شتاب‌دهنده هوش مصنوعی داخلی OpenAI، تخصصی برای بارهای کاری استنتاجی، قرار است در اواخر سال ۲۰۲۶ وارد تولید شود و تا سال ۲۰۲۹ ظرفیت محاسباتی ۱۰ گیگاوات را فراهم کند. این پروژه به OpenAI کمک می‌کند تا وابستگی خود به GPUهای Nvidia را کاهش داده و اهرم بیشتری در مذاکرات قیمت‌گذاری یابد.

سافت‌بانک، مالک Arm، میلیاردها دلار سرمایه‌گذاری کرده. برنامه‌های تراشه OpenAI، شامل توافقات با Nvidia و AMD، مجموعاً ۲۶ گیگاوات ظرفیت مرکز داده برنامه‌ریزی شده دارد. تحلیلگران تخمین می‌زنند که استقرار این تراشه‌های سفارشی می‌تواند بیش از ۱ تریلیون دلار هزینه ساخت و تجهیزات ببرد. این توسعه نشان‌دهنده تلاش OpenAI برای کنترل بیشتر بر زیرساخت‌های هوش مصنوعی خود و مقابله با محدودیت‌های عرضه GPU.

همکاری OpenAI و Broadcom برای توسعه مشترک ۱۰ گیگاوات تراشه سفارشی هوش مصنوعی در یک مشارکت بزرگ دیگر

OpenAI و Broadcom قراردادی برای توسعه و استقرار ۱۰ گیگاوات شتاب‌دهنده هوش مصنوعی سفارشی امضا کرده‌اند. این همکاری که استقرار آن از نیمه دوم سال ۲۰۲۶ آغاز و تا پایان ۲۰۲۹ تکمیل می‌شود، نشان‌دهنده تلاش OpenAI برای کاهش وابستگی به پردازنده‌های گرافیکی Nvidia و استفاده از سخت‌افزار داخلی با IP شبکه Broadcom است. این معامله چند میلیارد دلاری، به تعهدات سخت‌افزاری قبلی OpenAI با Nvidia و AMD اضافه کرده و مجموع تعهدات این شرکت را به ۲۶ گیگاوات می‌رساند.

این روند توسعه سیلیکون‌های سفارشی در میان شرکت‌های بزرگ هوش مصنوعی مانند آمازون، گوگل، متا و مایکروسافت مشاهده می‌شود که چالش‌هایی را برای اکوسیستم CUDA Nvidia ایجاد می‌کند. جزئیات فنی کمی منتشر شده، اما استفاده از شبکه مبتنی بر اترنت تأیید شده است. این همکاری، OpenAI را در طراحی ASIC و بلوغ زنجیره تأمین Broadcom تقویت کرده و مسیری برای سخت‌افزار متمایز بدون نیاز به ایجاد تیم سیلیکون از ابتدا فراهم می‌آورد.

جستجو در سایت

سبد خرید

درحال بارگذاری ...
بستن
مقایسه
مقایسه محصولات
لیست مقایسه محصولات شما خالی می باشد!