محققان دریافتند که معاملهگران مالی خودکار از طریق ترکیبی از «هوش مصنوعی» و «حماقت مصنوعی» با یکدیگر تبانی خواهند کرد.
اگر چیزی شبیه اردک به نظر برسد، مثل اردک شنا کند و مثل اردک قدقد کند، آیا منصفانه است که آن را اردک بنامیم؟ یا، در مورد یک مقاله کاری از محققان وارتون و دانشگاه علم و فناوری هنگ کنگ، رفتار «معاملات مبتنی بر هوش مصنوعی» چقدر باید شبیه تبانی باشد تا برای تنظیمکنندههای مالی منصفانه باشد که با آن به همین شکل برخورد کنند؟
این مقاله کاری (PDF) با عنوان «معاملات مبتنی بر هوش مصنوعی، تبانی الگوریتمی و کارایی قیمت» توسط دفتر ملی تحقیقات اقتصادی منتشر شده است. این مقاله به طور موثر به دنبال پاسخ به سوال مطرح شده در بالا با انجام آزمایشهایی با عوامل معاملاتی الگوریتمی است که از یادگیری تقویتی برای تعیین زمان خرید و فروش داراییها بر اساس تاریخچه، روندها و پیشبینی بازار گستردهتر استفاده میکنند.
نویسندگان، وینستون وی دو، ایتای گلدشتاین و یان جی، دریافتند که «تبانی هوش مصنوعی در معاملات اوراق بهادار میتواند به طور قوی از طریق دو مکانیسم الگوریتمی متمایز پدیدار شود: یکی بر اساس استراتژیهای تحریک قیمت، و دیگری ناشی از سوگیری هرس بیش از حد در یادگیری» — که آنها به ترتیب آن را «تبانی هوش مصنوعی ناشی از ‘هوش مصنوعی’ [… و] تبانی هوش مصنوعی ناشی از ‘حماقت مصنوعی’» نامیدند.
این مقاله شامل تعداد کافی از اسامی خاص تعریف نشده و نمادهای ریاضی است که من را وادار میکند تا بگویم که در اینجا عمدتاً به مقدمه و نتیجهگیری نویسندگان تکیه میکنم. استراتژی سرمایهگذاری من — و ببینید، من به شما اعتماد دارم، پس لطفاً این را با هیچ کس دیگری به اشتراک نگذارید — این بوده که آنقدر فقیر باشم که نگران تأثیر الگوریتم یک صندوق پوشش ریسک بر دارایی خالصم نباشم. (البته الگوریتمهای گوگل…)
اما من به اندازه کافی با نحوه «تصمیمگیری» الگوریتمهایی از این دست — اگر بتوان آن را چنین نامید — آشنا هستم که از یافتههای مقاله شگفتزده نشوم. ابزارهایی از این دست برای یافتن بهترین راه برای به حداکثر رساندن احتمال افزایش یک عدد و به حداقل رساندن احتمال کاهش آن عدد طراحی شدهاند. نتیجه آن مجموعهای از الگوریتمها است که به طور مستقل بر روی پاسخهای تقریباً مشابه به شرایط خاص توافق میکنند.
نویسندگان نوشتند: «این یک بینش اساسی در مورد هوش مصنوعی را برجسته میکند: الگوریتمهایی که صرفاً بر تشخیص الگو تکیه میکنند، میتوانند رفتاری از خود نشان دهند که شباهت زیادی به استدلال منطقی و استراتژیک دارد»، و افزودند که سوگیری هرس بیش از حدی که آنها یافتند «نتیجه فرضیات یا محدودیتهای الگوریتمی خاص و غیر استاندارد نیست، بلکه یک ویژگی عمومی [یادگیری تقویتی] است که حتی در تنظیمات پیچیده نیز پابرجا میماند.»
آنها توضیح دادند که مشکل این است که تنظیمکنندگانی که تلاش میکنند مشکل «هوش مصنوعی» را حل کنند، ممکن است مشکل «حماقت مصنوعی» را در این فرآیند تشدید کنند. اولی گهگاه معاملهگران الگوریتمی را به انجام حرکات بالقوه پرخطر سوق میدهد؛ دومی بیشتر آنها را به اتخاذ استراتژیهای معاملاتی محافظهکارانه وادار میکند. چگونه میتوان بدون تشویق بیشتر به بزدلی، از پرخاشگری جلوگیری کرد؟
مثال مورد علاقه من از این موضوع از یک مقاله 12 ساله (PDF) میآید که رباتی را توصیف میکند که به آن آموزش داده شده بود چگونه بازیها را در سیستم سرگرمی نینتندو انجام دهد. این ربات در «سوپر ماریو بروس» عالی بود اما در «تتریس» وحشتناک — بنابراین در نهایت تصمیم گرفت بهترین راه برای «برنده شدن» در بازی، که از نظر فنی فقط زمانی به پایان میرسد که بازیکن ببازد و بنابراین فاقد یک شرط برد واقعی است، این بود که بازی را قبل از باخت متوقف کند.
سریعترین راه برای جلوگیری از ظاهر تبانی، نظارت نظارتی و جریمههای احتمالی ناشی از مجموعهای از الگوریتمها که معاملات تهاجمی انجام میدهند چیست؟ آموزش دادن به آنها برای انجام ندادن معاملات تهاجمی، که همان رفتاری است که توسط «حماقت مصنوعی» تشویق میشود. این یک مشکل آسان برای شرکتهایی که این معاملهگران الگوریتمی را توسعه میدهند یا تنظیمکنندههای مالی که بر بازار نظارت میکنند، نخواهد بود.
توجه داشته باشید که این مقاله ثابت نمیکند که تبانی هوش مصنوعی از طریق هوش مصنوعی یا حماقت در بازارهای مالی در حال حاضر رخ میدهد؛ یافتهها بر اساس نحوه رفتار معاملهگران الگوریتمی مختلف در بازارهای شبیهسازی شدهای بود که به عنوان بخشی از این تحقیق ایجاد شده بودند. اما اگر در یک برکه شبیهسازی شده شبیه اردک به نظر برسد، مثل اردک شنا کند و مثل اردک قدقد کند…
Follow on Google News
- کولبات
- مرداد 10, 1404
- 19 بازدید






