MLPerf Client 1.0 AI benchmark released — new testing toolkit sports a GUI, covers more models and tasks, and supports more hardware acceleration paths | Tom's Hardware

بنچمارک هوش مصنوعی MLPerf Client 1.0 منتشر شد

انقلاب هوش مصنوعی فرا رسیده است، اما برخلاف تغییرات گذشته در محاسبات، اکثر ما با پیشرفته‌ترین نسخه‌های مدل‌های هوش مصنوعی در فضای ابری تعامل داریم. سرویس‌های پیشرو مانند ChatGPT، Claude و Gemini همگی مبتنی بر ابر باقی مانده‌اند. با این حال، به دلایلی از جمله حریم خصوصی، تحقیق و کنترل، مدل‌های هوش مصنوعی که به صورت محلی اجرا می‌شوند همچنان مورد توجه هستند و مهم است که بتوان عملکرد هوش مصنوعی سیستم‌های کلاینت مجهز به GPU و NPU را به طور قابل اعتماد و بی‌طرفانه اندازه‌گیری کرد.

هوش مصنوعی کلاینت همچنان یک فضای بسیار پویا است، زیرا فروشندگان سخت‌افزار و نرم‌افزار در تلاشند تا انواع بارهای کاری مناسب برای اجرای محلی و بهترین منابع محاسباتی برای اجرای آن‌ها را تعریف کنند. برای کمک به پیمایش در این محیط به سرعت در حال تغییر، کنسرسیوم MLCommons و گروه کاری MLPerf Client آن، یک بنچمارک کلاینت را نگهداری می‌کنند که با همکاری فروشندگان اصلی سخت‌افزار و نرم‌افزار توسعه یافته است.

MLPerf Client 1.0 به تازگی با بهبودهای بزرگی نسبت به نسخه قبلی 0.6 منتشر شده است. این ابزار جدید شامل مدل‌های هوش مصنوعی بیشتری است، از شتاب‌دهی سخت‌افزاری در دستگاه‌های بیشتری از فروشندگان بیشتر پشتیبانی می‌کند و طیف وسیع‌تری از تعاملات کاربری ممکن با مدل‌های زبان بزرگ را آزمایش می‌کند. همچنین دارای یک رابط کاربری گرافیکی کاربرپسند است که باید جذابیت این تست را برای کاربران عادی‌تر افزایش دهد.

MLPerf Client 1.0 اکنون می‌تواند عملکرد را با مدل‌های Llama 2 7B Chat و Llama 3.1 8B Instruct از متا، و همچنین Phi 3.5 Mini Instruct از مایکروسافت آزمایش کند. همچنین از مدل آزمایشی Phi 4 Reasoning 14B به عنوان نمونه‌ای احتمالی از عملکرد با یک مدل زبان نسل بعدی با مجموعه پارامترهای بزرگ‌تر و قابلیت‌های بیشتر از قبل پشتیبانی می‌کند.

MLPerf Client 1.0 همچنین عملکرد را در طیف وسیع‌تری از انواع پرامپت‌ها بررسی می‌کند. اکنون عملکرد را برای تحلیل کد، همانطور که توسعه‌دهندگان ممکن است امروزه معمولاً درخواست کنند، بررسی می‌کند. همچنین می‌تواند عملکرد خلاصه‌سازی محتوا را با پنجره‌های متنی بزرگ 4000 یا 8000 توکن به عنوان یک ویژگی آزمایشی اندازه‌گیری کند.

این طیف از مدل‌ها و اندازه‌های متن، به تست‌کنندگان سخت‌افزار مانند خود من، مجموعه‌ای از بارهای کاری با مقیاس‌پذیری گسترده‌تر را در دستگاه‌های بیشتر ارائه می‌دهد. به عنوان مثال، برخی از بارهای کاری آزمایشی در این نسخه برای اجرا به یک GPU با 16 گیگابایت VRAM نیاز دارند، بنابراین می‌توانیم سخت‌افزارهای رده بالا را تحت فشار قرار دهیم، نه فقط گرافیک‌های یکپارچه و NPUها را.

پشته‌های سخت‌افزاری و نرم‌افزاری هوش مصنوعی کلاینت پویا هستند و روش‌های مختلفی که می‌توان بارهای کاری هوش مصنوعی را به صورت محلی شتاب داد، صراحتاً گیج‌کننده است. MLPerf Client 1.0 مسیرهای شتاب‌دهی بیشتری را در سخت‌افزارهای بیشتری نسبت به قبل پوشش می‌دهد، به ویژه برای دستگاه‌های کوالکام و اپل. در اینجا لیستی از مسیرهای پشتیبانی شده آمده است:

  • پشتیبانی هیبریدی AMD NPU و GPU از طریق ONNX Runtime GenAI و Ryzen AI SDK
  • پشتیبانی AMD، Intel و NVIDIA GPU از طریق ONNX Runtime GenAI-DirectML
  • پشتیبانی Intel NPU و GPU از طریق OpenVINO
  • پشتیبانی هیبریدی Qualcomm Technologies NPU و CPU از طریق Qualcomm Genie و QAIRT SDK
  • پشتیبانی Apple Mac GPU از طریق MLX

نسخه 1.0 این بنچمارک همچنین از مسیرهای اجرای سخت‌افزاری آزمایشی زیر پشتیبانی می‌کند:

  • پشتیبانی Intel NPU و GPU از طریق Microsoft Windows ML و OpenVINO execution provider
  • پشتیبانی NVIDIA GPU از طریق Llama.cpp-CUDA
  • پشتیبانی Apple Mac GPU از طریق Llama.cpp-Metal

آخرین اما نه کم‌اهمیت‌ترین، MLPerf Client 1.0 اکنون دارای یک رابط کاربری گرافیکی در دسترس است که به کاربران امکان می‌دهد طیف کاملی از بنچمارک‌ها را که می‌توانند روی سخت‌افزار خود اجرا کنند، درک کرده و به راحتی از بین آن‌ها انتخاب کنند.

The user interface of the MLPerf Client 1.0 benchmark

نسخه GUI همچنین نظارت بلادرنگ بر منابع سخت‌افزاری مختلف یک سیستم را فراهم می‌کند تا بتوانید در یک نگاه ببینید که آیا مسیر اجرای انتخابی شما GPU یا NPU مورد انتظار را به کار می‌گیرد یا خیر.

نسخه‌های قبلی MLPerf Client فقط ابزارهای خط فرمان بودند، بنابراین این رابط کاربری جدید باید جذابیت بنچمارک را هم برای کاربران عادی که فقط می‌خواهند هوش مصنوعی را روی GPU یا NPU (یا هر دو) خود امتحان کنند و هم برای تست‌کنندگان حرفه‌ای سخت‌افزار که نیاز به جمع‌آوری و مقایسه نتایج در پیکربندی‌های مختلف سخت‌افزاری و نرم‌افزاری دارند، افزایش دهد.

MLPerf Client 1.0 اکنون به صورت دانلود رایگان برای همه از GitHub در دسترس است. اگر علاقه‌مند به درک عملکرد سیستم خود در طیف وسیعی از بارهای کاری هوش مصنوعی هستید، آن را امتحان کنید. ما قبلاً مدتی را با نسخه 1.0 گذرانده‌ایم و مشتاقیم که با بررسی عملکرد هوش مصنوعی در طیف وسیعی از سخت‌افزارها، به کاوش در آن ادامه دهیم.

برچسب‌ها:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

جستجو در سایت

سبد خرید

درحال بارگذاری ...
بستن
مقایسه
مقایسه محصولات
لیست مقایسه محصولات شما خالی می باشد!