بنچمارک هوش مصنوعی MLPerf Client 1.0 به تازگی منتشر شده است، ابزاری حیاتی برای اندازهگیری عملکرد مدلهای هوش مصنوعی که به صورت محلی روی سیستمهای کلاینت اجرا میشوند. در حالی که بسیاری از مدلهای پیشرفته هوش مصنوعی مانند ChatGPT در فضای ابری فعالیت میکنند، نیاز به اجرای محلی هوش مصنوعی به دلایل حریم خصوصی، تحقیق و کنترل رو به افزایش است. این بنچمارک که توسط کنسرسیوم MLCommons و با همکاری فروشندگان اصلی سختافزار و نرمافزار توسعه یافته، به کاربران امکان میدهد تا عملکرد GPUها و NPUهای خود را در بارهای کاری هوش مصنوعی ارزیابی کنند.
نسخه 1.0 MLPerf Client بهبودهای قابل توجهی نسبت به نسخه قبلی 0.6 دارد. این نسخه جدید از مدلهای هوش مصنوعی بیشتری از جمله Llama 2 7B Chat، Llama 3.1 8B Instruct و Microsoft Phi 3.5 Mini Instruct پشتیبانی میکند و حتی مدل آزمایشی Phi 4 Reasoning 14B را نیز شامل میشود. همچنین، این بنچمارک طیف وسیعتری از وظایف هوش مصنوعی مانند تحلیل کد و خلاصهسازی محتوا را پوشش میدهد. یکی از مهمترین ویژگیهای اضافه شده، رابط کاربری گرافیکی (GUI) کاربرپسند آن است که استفاده از این ابزار را برای کاربران عادی و حرفهای آسانتر میکند.
MLPerf Client 1.0 از مسیرهای شتابدهی سختافزاری گستردهتری پشتیبانی میکند که شامل دستگاههای AMD، Intel، NVIDIA، Qualcomm و Apple میشود. این پشتیبانی جامع به تستکنندگان سختافزار اجازه میدهد تا عملکرد هوش مصنوعی را در پیکربندیهای مختلف، از جمله سختافزارهای رده بالا با VRAM بالا، ارزیابی کنند. این ابزار به صورت رایگان از GitHub قابل دانلود است و به کاربران و متخصصان کمک میکند تا درک عمیقتری از قابلیتهای هوش مصنوعی سیستمهای خود به دست آورند و عملکرد آنها را در برابر بارهای کاری متنوع هوش مصنوعی مقایسه کنند.
- کولبات
- مرداد 10, 1404






