The first AI-powered ransomware has been discovered — "PromptLock" uses local AI to foil heuristic detection and evade API tracking | Tom's Hardware

اولین باج‌افزار مبتنی بر هوش مصنوعی کشف شد

ESET امروز از کشف «اولین باج‌افزار شناخته‌شده مبتنی بر هوش مصنوعی» خبر داد. باج‌افزار مورد بحث «پرامپت‌لاک» نامگذاری شده است، احتمالاً به این دلیل که به نظر می‌رسد هر چیزی مرتبط با هوش مصنوعی مولد باید با پیشوند «پرامپت» همراه باشد.

ESET اعلام کرد که این بدافزار از یک مدل زبان بزرگ با وزن باز که توسط OpenAI توسعه یافته است، برای تولید اسکریپت‌هایی استفاده می‌کند که می‌توانند عملکردهای مختلفی را در سیستم‌های ویندوز، macOS و لینوکس انجام دهند، در حالی که با نمایش رفتارهای کمی متفاوت در هر بار، ابزارهای دفاعی را گیج می‌کنند.

ESET در پستی در ماستودون درباره این بدافزار گفت: «پرامپت‌لاک از اسکریپت‌های Lua تولید شده از پرامپت‌های سخت‌کد شده برای شمارش سیستم فایل محلی، بازرسی فایل‌های هدف، استخراج داده‌های انتخاب شده و انجام رمزگذاری استفاده می‌کند.» «بر اساس فایل‌های کاربری شناسایی شده، بدافزار ممکن است داده‌ها را استخراج، رمزگذاری یا به طور بالقوه از بین ببرد. اگرچه به نظر می‌رسد قابلیت تخریب هنوز پیاده‌سازی نشده است.»

Cybersecurity AI The Google logo on a background of circles

Lua ممکن است انتخاب عجیبی برای زبان برنامه‌نویسی باج‌افزار به نظر برسد؛ این زبان بیشتر به خاطر استفاده در توسعه بازی‌ها در Roblox یا پلاگین‌ها برای ویرایشگر متن NeoVim شناخته شده است. اما در واقع یک زبان عمومی است که مزایای مختلفی را برای اپراتورهای باج‌افزار ارائه می‌دهد – از جمله عملکرد خوب، پشتیبانی بین پلتفرمی و تمرکز بر سادگی که آن را برای «کدنویسی حسی» بسیار مناسب می‌سازد.

مهم است به یاد داشته باشید که LLM‌ها غیرقطعی هستند؛ خروجی آن‌ها حتی اگر ورودی یکسان با پرامپت یکسان را به مدل یکسان در دستگاه یکسان ارائه دهید، تغییر خواهد کرد. این موضوع اگر انتظار داشته باشید که آن‌ها در طول زمان رفتار کاملاً یکسانی از خود نشان دهند، آزاردهنده است، اما اپراتورهای باج‌افزار لزوماً این را نمی‌خواهند، زیرا این امر باعث می‌شود ابزارهای دفاعی راحت‌تر الگوهای رفتاری را با بدافزارهای شناخته شده مرتبط کنند.

پرامپت‌لاک «از مدل gpt-oss:20b از OpenAI به صورت محلی از طریق API Ollama برای تولید اسکریپت‌های مخرب Lua در لحظه استفاده می‌کند» که به آن کمک می‌کند تا از شناسایی فرار کند. این واقعیت که مدل به صورت محلی اجرا می‌شود، همچنین باعث می‌شود که OpenAI نتواند اپراتورهای باج‌افزار را لو دهد – اگر آن‌ها مجبور بودند هر بار که یکی از این اسکریپت‌ها را تولید می‌کنند، یک API را در سرورهای آن فراخوانی کنند، کارشان لو می‌رفت. مشکلات کدنویسی حسی نیز واقعاً اعمال نمی‌شود، زیرا اسکریپت‌ها روی سیستم شخص دیگری اجرا می‌شوند.

شاید این یک جایزه تسلی‌بخش مناسب برای شرکت‌های هوش مصنوعی باشد. بله، آن‌ها با پرونده‌های قضایی عظیمی روبرو هستند. مطمئناً، اساساً هیچ‌کس سودی ندیده است از پذیرش خدمات آن‌ها. خب، پس حتی متا هم در حال کاهش هزینه‌های مربوط به هوش مصنوعی خود است. اما هیچ‌کس نمی‌تواند بگوید که هوش مصنوعی بی‌فایده است – حداقل برخی از اپراتورهای باج‌افزار را متقاعد کرده است که از مدل‌های محلی در بدافزارهای خود استفاده کنند! این هم خودش چیزی است، درست است؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

جستجو در سایت

سبد خرید

درحال بارگذاری ...
بستن
مقایسه
مقایسه محصولات
لیست مقایسه محصولات شما خالی می باشد!