آموزش, وبلاگ صفحه اصلی

یادگیری ماشین در بازی های ویدیویی

هوش مصنوعی و بازی های ویدئویی

در بازی‌های ویدیویی، تکنیک‌های مختلف هوش مصنوعی به روش‌های مختلف، از کنترل شخصیت‌های غیربازیکن (NPC) تا تولید محتوای رویه‌ای (PCG) استفاده شده است. یادگیری ماشینی زیرمجموعه‌ای از هوش مصنوعی است که بر استفاده از الگوریتم‌ها و مدل‌های آماری برای وادار کردن ماشین‌ها بدون برنامه‌نویسی خاص تمرکز دارد. این در تضاد شدید با روش های سنتی هوش مصنوعی مانند درختان جستجو و سیستم های خبره است.

اطلاعات مربوط به تکنیک‌های یادگیری ماشین در زمینه بازی‌ها عمدتاً از طریق پروژه‌های تحقیقاتی برای عموم شناخته می‌شود، زیرا اکثر شرکت‌های بازی تصمیم می‌گیرند اطلاعات خاصی در مورد مالکیت معنوی خود منتشر نکنند. شناخته شده ترین کاربرد عمومی یادگیری ماشین در بازی ها احتمالاً استفاده از عوامل یادگیری عمیق است که با بازیکنان انسانی حرفه ای در بازی های استراتژی پیچیده رقابت می کنند. کاربرد قابل توجهی از یادگیری ماشین در بازی هایی مانند Atari/ALE، Doom، Minecraft، StarCraft و اتومبیل رانی وجود داشته است.[1] بازی‌های دیگری که در ابتدا به عنوان بازی‌های ویدیویی وجود نداشتند، مانند شطرنج و Go نیز تحت تأثیر یادگیری ماشینی قرار گرفته‌اند.[2]

فست پریلند

مروری بر تکنیک های یادگیری ماشین مربوطه


یادگیری عمیق

یادگیری عمیق زیرمجموعه ای از یادگیری ماشینی است که به شدت بر استفاده از شبکه های عصبی مصنوعی (ANN) تمرکز دارد که حل وظایف پیچیده را یاد می گیرند. یادگیری عمیق از چندین لایه ANN و تکنیک های دیگر برای استخراج تدریجی اطلاعات از یک ورودی استفاده می کند. با توجه به این رویکرد لایه‌ای پیچیده، مدل‌های یادگیری عمیق اغلب به ماشین‌های قدرتمندی برای آموزش و اجرا نیاز دارند.

پریلند


شبکه های عصبی کانولوشنال

شبکه های عصبی کانولوشنال (CNN) شبکه های عصبی مصنوعی تخصصی هستند که اغلب برای تجزیه و تحلیل داده های تصویر استفاده می شوند. این نوع شبکه ها قادر به یادگیری الگوهای تغییر ناپذیر ترجمه هستند که الگوهایی هستند که وابسته به مکان نیستند. CNN ها می توانند این الگوها را در یک سلسله مراتب بیاموزند، به این معنی که لایه های کانولوشنال قبلی الگوهای محلی کوچک تری را یاد می گیرند در حالی که لایه های بعدی الگوهای بزرگتر را بر اساس الگوهای قبلی می آموزند.[3] توانایی CNN برای یادگیری داده های بصری، آن را به ابزاری رایج برای یادگیری عمیق در بازی ها تبدیل کرده است.[4][5]


شبکه عصبی مکرر

شبکه‌های عصبی مکرر نوعی ANN هستند که برای پردازش دنباله‌ای از داده‌ها به ترتیب، یک قسمت در یک زمان و نه همه در یک زمان طراحی شده‌اند. یک RNN روی هر قسمت از یک دنباله اجرا می شود و از قسمت فعلی دنباله همراه با حافظه قسمت های قبلی دنباله جاری برای تولید خروجی استفاده می کند. این نوع از ANN در کارهایی مانند تشخیص گفتار و سایر مشکلاتی که به شدت به ترتیب زمانی بستگی دارد بسیار موثر هستند. انواع مختلفی از RNN با تنظیمات داخلی مختلف وجود دارد. پیاده سازی اصلی به دلیل مشکل گرادیان ناپدید شدن از کمبود حافظه بلند مدت رنج می برد، بنابراین به ندرت در اجرای جدیدتر استفاده می شود.[3]


حافظه کوتاه مدت طولانی

یک شبکه حافظه کوتاه مدت طولانی (LSTM) یک پیاده سازی خاص از یک RNN است که برای مقابله با مشکل گرادیان محو مشاهده شده در RNN های ساده طراحی شده است، که منجر به فراموشی تدریجی آنها در مورد قسمت های قبلی یک دنباله ورودی در هنگام محاسبه می شود. خروجی یک قطعه فعلی LSTM ها این مشکل را با افزودن یک سیستم پیچیده که از یک ورودی/خروجی اضافی برای پیگیری داده های بلند مدت استفاده می کند، حل می کند.[3] LSTM به نتایج بسیار قوی در زمینه های مختلف دست یافته است و توسط چندین عامل یادگیری عمیق در بازی ها استفاده می شود.[6][4]


یادگیری تقویتی

یادگیری تقویتی فرآیند آموزش یک عامل با استفاده از پاداش و/یا تنبیه است. نحوه پاداش یا تنبیه یک مامور به شدت به مشکل بستگی دارد. مانند دادن پاداش مثبت به یک نماینده برای برنده شدن در یک بازی یا یک جایزه منفی برای باخت. یادگیری تقویتی به شدت در زمینه یادگیری ماشین استفاده می شود و می توان آن را در روش هایی مانند یادگیری Q، جستجوی خط مشی، شبکه های Deep Q و موارد دیگر مشاهده کرد. هم در زمینه بازی و هم در زمینه رباتیک عملکرد قوی داشته است.[7]


تکامل عصبی

Neuroevolution شامل استفاده از شبکه های عصبی و الگوریتم های تکاملی است. مدل‌های تکامل عصبی به جای استفاده از شیب نزولی مانند اکثر شبکه‌های عصبی، از الگوریتم‌های تکاملی برای به‌روزرسانی نورون‌ها در شبکه استفاده می‌کنند. محققان ادعا می‌کنند که این فرآیند کمتر در حداقل محلی گیر می‌کند و به طور بالقوه سریع‌تر از تکنیک‌های جدید یادگیری عمیق است.[8]


عوامل یادگیری عمیق

عوامل یادگیری ماشینی به جای عملکرد به عنوان NPCها، که به عمد به عنوان بخشی از گیم پلی طراحی شده به بازی های ویدیویی اضافه می شوند، برای جایگزین کردن یک بازیکن انسانی استفاده شده است. عوامل یادگیری عمیق زمانی که در رقابت با انسان ها و سایر عوامل هوش مصنوعی استفاده می شوند به نتایج چشمگیری دست یافته اند.[2][9]


شطرنج

شطرنج یک بازی استراتژی نوبتی است که به دلیل پیچیدگی محاسباتی فضای تخته آن، یک مشکل هوش مصنوعی دشوار در نظر گرفته می شود. بازی های استراتژی مشابه اغلب با نوعی جستجوی درختی Minimax حل می شوند. این نوع از عوامل هوش مصنوعی برای شکست دادن بازیکنان حرفه ای شناخته شده اند، مانند مسابقه تاریخی Deep Blue در سال 1997 در مقابل گری کاسپاروف. از آن زمان، عوامل یادگیری ماشینی موفقیت بیشتری نسبت به عوامل قبلی هوش مصنوعی نشان داده‌اند.

Go

Go یکی دیگر از بازی های استراتژی نوبتی است که مشکل هوش مصنوعی حتی دشوارتر از شطرنج در نظر گرفته می شود. فضای حالت is Go حدود 10^170 حالت تخته ممکن است در مقایسه با 10^120 حالت تخته شطرنج. قبل از مدل‌های یادگیری عمیق اخیر، عوامل AI Go فقط می‌توانستند در سطح یک انسان آماتور بازی کنند.[5]


AlphaGo

AlphaGo 2015 گوگل اولین عامل هوش مصنوعی بود که یک بازیکن حرفه ای Go را شکست داد.[5] AlphaGo از یک مدل یادگیری عمیق برای آموزش وزن های جستجوی درخت مونت کارلو (MCTS) استفاده کرد. مدل یادگیری عمیق شامل 2 ANN، یک شبکه سیاست برای پیش‌بینی احتمالات حرکات بالقوه توسط مخالفان، و یک شبکه ارزش برای پیش‌بینی شانس پیروزی در یک وضعیت معین بود. مدل یادگیری عمیق به عامل اجازه می دهد تا حالت های بالقوه بازی را به طور موثرتری نسبت به MCTS وانیلی کشف کند. این شبکه در ابتدا بر روی بازی‌های بازیکنان انسان آموزش داده شد و سپس توسط بازی‌هایی که علیه خود بازی می‌کردند بیشتر آموزش دیدند.


AlphaGo Zero

AlphaGo Zero، یکی دیگر از پیاده سازی های AlphaGo، توانست به طور کامل با بازی در برابر خودش تمرین کند. توانست به سرعت توانایی های عامل قبلی را آموزش دهد.[10]


سری StarCraft

StarCraft و دنباله آن StarCraft II بازی های ویدیویی استراتژی زمان واقعی (RTS) هستند که به محیط های محبوبی برای تحقیقات هوش مصنوعی تبدیل شده اند. بلیزارد و دیپ مایند با هم کار کرده اند تا محیط عمومی StarCraft 2 را برای تحقیقات هوش مصنوعی منتشر کنند.[11] روش‌های یادگیری عمیق مختلف روی هر دو بازی آزمایش شده‌اند، اگرچه اکثر عوامل معمولاً در عملکرد بهتر از هوش مصنوعی پیش‌فرض با تقلب‌ها یا بازیکنان ماهر بازی مشکل دارند.[1]


آلفاستار

Alphastar اولین عامل هوش مصنوعی بود که بازیکنان حرفه ای StarCraft 2 را بدون هیچ مزیتی در بازی شکست داد. شبکه یادگیری عمیق عامل در ابتدا ورودی را از یک نسخه کوچک‌نمایی شده ساده‌شده از گیم‌استیت دریافت می‌کرد، اما بعداً برای بازی با دوربین مانند سایر بازیکنان انسانی به‌روزرسانی شد. توسعه دهندگان کد یا معماری مدل خود را به صورت عمومی منتشر نکرده اند، اما چندین تکنیک پیشرفته یادگیری ماشین مانند یادگیری تقویتی عمیق رابطه ای، حافظه کوتاه مدت طولانی، خط مشی های رگرسیون خودکار، شبکه های اشاره گر و ارزش متمرکز را فهرست کرده اند. خط مبنا.[4] Alphastar در ابتدا با یادگیری نظارت شده آموزش دیده بود، آن را به تماشای بازپخش بسیاری از بازی های انسانی به منظور یادگیری استراتژی های اساسی. سپس در برابر نسخه های مختلف خود آموزش دید و از طریق یادگیری تقویتی بهبود یافت. نسخه نهایی بسیار موفقیت آمیز بود، اما فقط برای بازی بر روی یک نقشه خاص در یک تطبیق آینه پروتوس آموزش دید.


دوتا 2

Dota 2 یک بازی چند نفره آنلاین عرصه نبرد (MOBA) است. مانند سایر بازی‌های پیچیده، عوامل هوش مصنوعی سنتی نتوانسته‌اند در سطح یک بازیکن حرفه‌ای انسان رقابت کنند. تنها اطلاعات گسترده منتشر شده در مورد عوامل هوش مصنوعی که در Dota 2 تلاش شده است، عامل پنج یادگیری عمیق OpenAI است.


OpenAI Five

OpenAI Five از شبکه های LSTM جداگانه برای یادگیری هر قهرمان استفاده کرد. این سیستم با استفاده از تکنیک یادگیری تقویتی معروف به آموزش سیاست پروگزیمال که روی سیستمی حاوی 256 GPU و 128000 هسته CPU اجرا می‌شود، آموزش دید.[6] پنج نفر برای ماه ها تمرین کردند و 180 سال تجربه بازی را هر روز جمع کردند، قبل از رویارویی با بازیکنان حرفه ای.[12][13] در نهایت توانست در یک سری بازی در سال 2019 تیم قهرمان مسابقات الکترونیکی Dota 2 2018 را شکست دهد.


نابودی سیاره ای

Planetary Annihilation یک بازی استراتژیک بلادرنگ است که بر جنگ در مقیاس عظیم تمرکز دارد. توسعه دهندگان از ANN در عامل پیش فرض هوش مصنوعی خود استفاده می کنند.[14]


Supreme Commander 2

Supreme Commander 2 یک بازی ویدیویی استراتژی زمان واقعی (RTS) است. این بازی از پرسپترون های چندلایه (MLPs) برای کنترل واکنش جوخه به واحدهای دشمن استفاده می کند. در مجموع از چهار MLP استفاده می شود، یکی برای هر دسته جوخه: زمینی، دریایی، بمب افکن و جنگنده. [15]


بازی های تعمیم یافته

تلاش هایی برای ساخت عوامل یادگیری ماشینی صورت گرفته است که قادر به انجام بیش از یک بازی هستند. این عوامل بازی “عمومی” برای درک بازی ها بر اساس ویژگی های مشترک بین آنها آموزش دیده اند.


AlphaZero

AlphaZero یک نسخه تغییر یافته از AlphaGo Zero است که قادر به بازی Shogi، شطرنج و Go است. عامل تغییر یافته تنها با قوانین اساسی بازی شروع می کند و همچنین به طور کامل از طریق خودآموزی آموزش می بیند. DeepMind توانست این عامل تعمیم یافته را برای رقابت با نسخه های قبلی خود در Go و همچنین عوامل برتر در دو بازی دیگر آموزش دهد.[2]


نقاط قوت و ضعف عوامل یادگیری عمیق

عوامل یادگیری ماشین اغلب در بسیاری از دوره های طراحی بازی پوشش داده نمی شوند. استفاده قبلی از عوامل یادگیری ماشین در بازی‌ها ممکن است چندان کاربردی نبوده باشد، زیرا حتی نسخه 2015 AlphaGo صدها CPU و GPU را برای آموزش به سطح قوی نیاز داشت.[2] این امر به طور بالقوه ایجاد عوامل یادگیری عمیق بسیار موثر را به شرکت های بزرگ یا افراد بسیار ثروتمند محدود می کند. زمان آموزش گسترده رویکردهای مبتنی بر شبکه عصبی نیز می تواند هفته ها در این ماشین های قدرتمند طول بکشد.[4]

مشکل آموزش موثر مدل های مبتنی بر ANN فراتر از محیط های سخت افزاری قدرتمند است. یافتن یک راه خوب برای نمایش داده ها و یادگیری چیزهای معنی دار از آن نیز اغلب یک مشکل دشوار است. مدل‌های ANN اغلب برای داده‌های بسیار خاص بیش از حد مناسب هستند و در موارد تعمیم‌یافته‌تر عملکرد ضعیفی دارند. AlphaStar این ضعف را نشان می‌دهد، علی‌رغم اینکه می‌تواند بازیکنان حرفه‌ای را شکست دهد، اما فقط می‌تواند این کار را در یک نقشه تنها در هنگام بازی mirror protoss matchup انجام دهد.[4] OpenAI Five نیز این ضعف را نشان می‌دهد، تنها زمانی که با یک استخر قهرمان بسیار محدود از کل بازی روبرو می‌شد، توانست بازیکن حرفه‌ای را شکست دهد.[13] این مثال نشان می‌دهد که آموزش یک عامل یادگیری عمیق برای عملکرد در موقعیت‌های کلی‌تر چقدر می‌تواند دشوار باشد.

عوامل یادگیری ماشین موفقیت زیادی در بازی‌های مختلف نشان داده‌اند.[12][2][4] با این حال، عواملی که بیش از حد صلاحیت دارند نیز خطر می کنند که بازی ها را برای بازیکنان جدید یا معمولی بسیار دشوار کنند. تحقیقات نشان داده است که چالش بسیار بالاتر از سطح مهارت بازیکن، لذت کمتر بازیکن را از بین می برد.[16] این عوامل بسیار آموزش دیده احتمالاً فقط در برابر بازیکنان انسانی بسیار ماهری که چندین ساعت تجربه در یک بازی خاص دارند، مطلوب هستند. با توجه به این عوامل، عوامل یادگیری عمیق بسیار مؤثر احتمالاً تنها در بازی‌هایی که صحنه رقابتی بزرگی دارند، انتخاب مطلوبی هستند، جایی که می‌توانند به عنوان یک گزینه تمرین جایگزین برای یک بازیکن انسانی ماهر عمل کنند.


بازیکنان مبتنی بر بینایی کامپیوتری

بینایی کامپیوتر بر آموزش کامپیوترها برای به دست آوردن درک سطح بالایی از تصاویر یا فیلم های دیجیتال تمرکز دارد. بسیاری از تکنیک‌های بینایی کامپیوتری اشکالی از یادگیری ماشینی را در خود جای داده‌اند و در بازی‌های ویدیویی مختلف به کار رفته‌اند. این برنامه بینایی کامپیوتری بر تفسیر رویدادهای بازی با استفاده از داده های بصری تمرکز دارد. در برخی موارد، عوامل هوش مصنوعی از تکنیک‌های بدون مدل برای یادگیری انجام بازی‌ها بدون ارتباط مستقیم با منطق داخلی بازی استفاده می‌کنند و صرفاً از داده‌های ویدیویی به عنوان ورودی استفاده می‌کنند.


پنگ

آندری کارپاتی نشان داده است که شبکه عصبی نسبتاً پیش پاافتاده با تنها یک لایه پنهان قادر به آموزش بازی پونگ تنها بر اساس داده های صفحه نمایش است.[17][18]


بازی های آتاری

در سال 2013، تیمی در DeepMind استفاده از یادگیری عمیق Q را برای اجرای انواع بازی‌های ویدیویی آتاری – Beamrider، Breakout، Enduro، Pong، Q*bert، Seaquest، و Space Invaders – از داده‌های صفحه نمایش نشان دادند.[19] این تیم کار خود را برای ایجاد یک الگوریتم یادگیری به نام MuZero گسترش داد که قادر به “یادگیری” قوانین و توسعه استراتژی های برنده برای بیش از 50 بازی مختلف Atari بر اساس داده های صفحه نمایش بود.[20][21]


Doom

Doom (1993) یک بازی تیراندازی اول شخص (FPS) است. محققان دانشجویی از دانشگاه کارنگی ملون از تکنیک‌های بینایی کامپیوتری برای ایجاد عاملی استفاده کردند که بتواند بازی را تنها با استفاده از ورودی پیکسل تصویر از بازی انجام دهد. دانش‌آموزان از لایه‌های شبکه عصبی کانولوشن (CNN) برای تفسیر داده‌های تصویر ورودی و خروجی اطلاعات معتبر به یک شبکه عصبی مکرر که مسئول خروجی‌گیری حرکات بازی بود، استفاده کردند.[22]


سوپر ماریو

سایر استفاده‌های تکنیک‌های یادگیری عمیق مبتنی بر بینایی برای انجام بازی‌ها شامل بازی Super Mario Bros فقط با استفاده از ورودی تصویر، استفاده از یادگیری عمیق Q برای آموزش است.[17]


ماین کرافت

محققان با OpenAI حدود 2000 ساعت پخش ویدئویی از Minecraft با ورودی‌های انسانی لازم را ایجاد کردند و سپس یک مدل یادگیری ماشینی را برای درک بازخورد ویدیویی از ورودی آموزش دادند. سپس محققان از آن مدل با 70000 ساعت بازی Minecraft که در یوتیوب ارائه شده بود استفاده کردند تا ببینند این مدل چقدر می‌تواند ورودی را برای مطابقت با آن رفتار ایجاد کند و از آن بیشتر بیاموزد، مانند توانایی یادگیری مراحل و فرآیند ایجاد یک ابزار کلنگ الماس. [23][24]

یادگیری ماشینی برای تولید محتوای رویه ای در بازی ها

یادگیری ماشینی تحقیقاتی را برای استفاده در توصیه و تولید محتوا انجام داده است. تولید محتوای رویه ای فرآیند ایجاد داده ها به صورت الگوریتمی و نه دستی است. این نوع محتوا برای افزودن قابلیت پخش مجدد به بازی ها بدون تکیه بر افزودن های مداوم توسط توسعه دهندگان انسانی استفاده می شود. PCG در بازی‌های مختلف برای انواع مختلف تولید محتوا استفاده شده است، نمونه‌هایی از آن‌ها شامل سلاح‌ها در Borderlands 2، [25] همه طرح‌بندی‌های جهان در Minecraft [26] و کل جهان‌ها در No Man’s Sky است.[27] رویکردهای رایج PCG شامل تکنیک هایی است که شامل دستور زبان، الگوریتم های مبتنی بر جستجو و برنامه نویسی منطقی می شود.[28] این رویکردها از انسان ها می خواهند که به صورت دستی محدوده محتوای ممکن را تعریف کنند، به این معنی که یک توسعه دهنده انسانی تصمیم می گیرد که چه ویژگی هایی یک قطعه معتبر از محتوای تولید شده را تشکیل می دهد. یادگیری ماشینی از نظر تئوری قادر به یادگیری این ویژگی‌ها است که مثال‌هایی برای آموزش داده شود، بنابراین مرحله پیچیده توسعه‌دهندگان برای تعیین جزئیات طراحی محتوا تا حد زیادی کاهش می‌یابد.[29] تکنیک‌های یادگیری ماشینی که برای تولید محتوا استفاده می‌شوند عبارتند از: حافظه کوتاه‌مدت (LSTM)، شبکه‌های عصبی تکراری (RNN)، شبکه‌های متخاصم مولد (GAN)، و خوشه‌بندی K-means. همه این تکنیک‌ها از شبکه‌های عصبی مصنوعی استفاده نمی‌کنند، اما توسعه سریع یادگیری عمیق، پتانسیل تکنیک‌هایی را که این کار را انجام می‌دهند بسیار افزایش داده است.[29]


مسابقه تسلیحاتی کهکشانی

مسابقه تسلیحاتی کهکشانی یک بازی ویدئویی تیراندازی فضایی است که از PCG مبتنی بر تکامل عصبی برای تولید سلاح های منحصر به فرد برای بازیکن استفاده می کند. این بازی در سال 2010 فینالیست بازی Indie Challenge بود و مقاله تحقیقاتی مرتبط با آن برنده جایزه بهترین مقاله در کنفرانس IEEE در سال 2009 در زمینه هوش محاسباتی و بازی ها شد. توسعه دهندگان از نوعی تکامل عصبی به نام cgNEAT برای تولید محتوای جدید بر اساس ترجیحات شخصی هر بازیکن استفاده می کنند.[30]

هر آیتم تولید شده توسط یک ANN خاص که به عنوان شبکه تولید الگوی ترکیبی (CPPN) شناخته می شود، نشان داده می شود. در طول مرحله تکاملی بازی، cgNEAT تناسب آیتم‌های فعلی را بر اساس میزان استفاده بازیکن و سایر معیارهای گیم‌پلی محاسبه می‌کند، سپس از این امتیاز تناسب اندام استفاده می‌شود تا تصمیم بگیرید کدام CPPN برای ایجاد یک آیتم جدید بازتولید شود. نتیجه نهایی تولید افکت های سلاح جدید بر اساس ترجیح بازیکن است.


برادران سوپر ماریو

Super Mario Bros توسط چندین محقق برای شبیه سازی ایجاد سطح PCG استفاده شده است. تلاش های مختلف با استفاده از روش های مختلف. نسخه ای در سال 2014 از n-gram برای تولید سطوحی مشابه سطوحی که در آن آموزش دیده بود استفاده کرد که بعداً با استفاده از MCTS برای هدایت تولید بهبود یافت.[31] این نسل‌ها اغلب هنگام در نظر گرفتن معیارهای گیم‌پلی مانند حرکت بازیکن بهینه نبودند، یک پروژه تحقیقاتی جداگانه در سال 2017 سعی کرد این مشکل را با ایجاد سطوح بر اساس حرکت بازیکن با استفاده از زنجیره‌های مارکوف حل کند.[32] این پروژه ها تحت آزمایش انسانی قرار نگرفته اند و ممکن است استانداردهای بازی پذیری انسانی را رعایت نکنند.


افسانه ی زلدا

ایجاد سطح PCG برای The Legend of Zelda توسط محققان دانشگاه کالیفرنیا، سانتا کروز انجام شده است. این تلاش از شبکه بیزی برای یادگیری دانش سطح بالا از سطوح موجود استفاده کرد، در حالی که تجزیه و تحلیل مؤلفه اصلی (PCA) برای نشان دادن ویژگی‌های سطح پایین مختلف این سطوح استفاده شد.[33] محققان از PCA برای مقایسه سطوح تولید شده با سطوح ساخته شده توسط انسان استفاده کردند و دریافتند که آنها بسیار مشابه در نظر گرفته می شوند. این تست شامل قابلیت پخش یا آزمایش انسانی سطوح تولید شده نمی‌شود.


نسل موسیقی

موسیقی اغلب در بازی‌های ویدیویی دیده می‌شود و می‌تواند عنصری حیاتی برای تأثیرگذاری بر خلق و خوی موقعیت‌ها و نکات داستانی مختلف باشد. یادگیری ماشینی در زمینه تجربی تولید موسیقی کاربرد داشته است. این به طور منحصر به فرد برای پردازش داده های بدون ساختار خام و تشکیل نمایش های سطح بالا که می تواند در زمینه های متنوع موسیقی اعمال شود، مناسب است.[34] بیشتر روش های تلاش شده شامل استفاده از ANN به شکلی بوده است. روش‌ها شامل استفاده از شبکه‌های عصبی پیش‌خور اولیه، رمزگذارهای خودکار، ماشین‌های بولتزمن محدود، شبکه‌های عصبی تکراری، شبکه‌های عصبی کانولوشنال، شبکه‌های متخاصم مولد (GAN) و معماری‌های ترکیبی است که از روش‌های متعدد استفاده می‌کنند.[34]


سیستم تولید موسیقی نمادین ملودی بازی ویدیویی VRAE

مقاله تحقیقاتی در سال 2014 در مورد “رمزگذارهای خودکار تکراری متغیر” تلاش کرد تا موسیقی را بر اساس آهنگ های 8 بازی ویدیویی مختلف تولید کند. این پروژه یکی از معدود پروژه هایی است که صرفاً بر روی موسیقی بازی های ویدیویی انجام شده است. شبکه عصبی در این پروژه قادر به تولید داده‌هایی بود که بسیار شبیه به داده‌های بازی‌هایی بود که در آنها آموزش دیده بود.[35] داده های تولید شده به موسیقی با کیفیت خوب ترجمه نشد.

منابع

  1. Justesen, Niels; Bontrager, Philip; Togelius, Julian; Risi, Sebastian (2019). “Deep Learning for Video Game Playing”. IEEE Transactions on Games. 12: 1–20. arXiv:1708.07902. doi:10.1109/tg.2019.2896986. ISSN2475-1502. S2CID37941741. Silver, David; Hubert, Thomas; Schrittwieser, Julian; Antonoglou, Ioannis; Lai, Matthew; Guez, Arthur; Lanctot, Marc; Sifre, Laurent; Kumaran, Dharshan (2018-12-06). “A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play” (PDF). Science. 362 (6419): 1140–1144. Bibcode:2018Sci…362.1140S. doi:10.1126/science.aar6404. ISSN0036-8075. PMID30523106. S2CID54457125. Chollet, Francois (2017-10-28). Deep learning with Python. ISBN9781617294433. OCLC1019988472. “AlphaStar: Mastering the Real-Time Strategy Game StarCraft II”. DeepMind. Retrieved 2019-06-04. Silver, David; Huang, Aja; Maddison, Chris J.; Guez, Arthur; Sifre, Laurent; van den Driessche, George; Schrittwieser, Julian; Antonoglou, Ioannis; Panneershelvam, Veda (January 2016). “Mastering the game of Go with deep neural networks and tree search”. Nature. 529 (7587): 484–489. Bibcode:2016Natur.529..484S. doi:10.1038/nature16961. ISSN0028-0836. PMID26819042. S2CID515925. “OpenAI Five”. OpenAI. 2018-06-25. Retrieved 2019-06-04. Russell, Stuart J. (Stuart Jonathan) (2015). Artificial intelligence : a modern approach. Norvig, Peter (Third Indian ed.). Noida, India. ISBN9789332543515. OCLC928841872. Clune, Jeff; Stanley, Kenneth O.; Lehman, Joel; Conti, Edoardo; Madhavan, Vashisht; Such, Felipe Petroski (2017-12-18). “Deep Neuroevolution: Genetic Algorithms Are a Competitive Alternative for Training Deep Neural Networks for Reinforcement Learning”. arXiv:1712.06567 [cs.NE]. Zhen, Jacky Shunjie; Watson, Ian (2013), “Neuroevolution for Micromanagement in the Real-Time Strategy Game Starcraft: Brood War”, Lecture Notes in Computer Science, Springer International Publishing, pp. 259–270, CiteSeerX10.1.1.703.5110, doi:10.1007/978-3-319-03680-9_28, ISBN9783319036793 Silver, David; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew (October 2017). “Mastering the game of Go without human knowledge” (PDF). Nature. 550 (7676): 354–359. Bibcode:2017Natur.550..354S. doi:10.1038/nature24270. ISSN0028-0836. PMID29052630. S2CID205261034. Tsing, Rodney; Repp, Jacob; Ekermo, Anders; Lawrence, David; Brunasso, Anthony; Keet, Paul; Calderone, Kevin; Lillicrap, Timothy; Silver, David (2017-08-16). “StarCraft II: A New Challenge for Reinforcement Learning”. arXiv:1708.04782 [cs.LG]. “OpenAI Five”. OpenAI. Retrieved 2019-06-04. “How to Train Your OpenAI Five”. OpenAI. 2019-04-15. Retrieved 2019-06-04. xavdematos. “Meet the computer that’s learning to kill and the man who programmed the chaos”. Engadget. Retrieved 2019-06-04. http://www.gameaipro.com/GameAIPro/GameAIPro_Chapter30_Using_Neural_Networks_to_Control_Agent_Threat_Response.pdf[bare URL PDF] Sweetser, Penelope; Wyeth, Peta (2005-07-01). “GameFlow”. Computers in Entertainment. 3 (3): 3. doi:10.1145/1077246.1077253. ISSN1544-3574. S2CID2669730. Jones, M. Tim (June 7, 2019). “Machine learning and gaming”. IBM Developer. Retrieved 2020-02-03. “Deep Reinforcement Learning: Pong from Pixels”. karpathy.github.io. Retrieved 2020-02-03. Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Graves, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martin (2013-12-19). “Playing Atari with Deep Reinforcement Learning”. arXiv:1312.5602 [cs.LG]. Bonifacic, Igor (December 23, 2020). “DeepMind’s latest AI can master games without being told their rules”. Engadget. Retrieved December 23, 2020. Schrittwieser, Julian; Antonoglou, Ioannis; Hubert, Thomas; Simonyan, Karen; Sifre, Laurent; Schmitt, Simon; Guez, Arthur; Lockhart, Edward; Hassabis, Demis; Graepel, Thore; Lillicrap, Timothy; Silver, David (2020). “Mastering Atari, Go, chess and shogi by planning with a learned model”. Nature. 588 (7839): 604–609. arXiv:1911.08265. Bibcode:2020Natur.588..604S. doi:10.1038/s41586-020-03051-4. PMID33361790. S2CID208158225. Lample, Guillaume; Chaplot, Devendra Singh (2017). “Playing FPS Games with Deep Reinforcement Learning”. Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence. AAAI’17. San Francisco, California, USA: AAAI Press: 2140–2146. arXiv:1609.05521. Bibcode:2016arXiv160905521L. Matthews, David (June 27, 2022). “An AI Was Trained To Play Minecraft With 70,000 Hours Of YouTube Videos”. IGN. Retrieved July 8, 2022. Baker, Bowen; Akkaya, Ilge; Zhokhov, Peter; Huizinga, Joost; Tang, Jie; Ecoffet, Adrien; Houghton, Brandon; Sampedro, Raul; Clune, Jeff (2022). “Video PreTraining (VPT): Learning to Act by Watching Unlabeled Online Videos”. arXiv:2206.11795 [cs.LG]. Yin-Poole, Wesley (2012-07-16). “How many weapons are in Borderlands 2?”. Eurogamer. Retrieved 2019-06-04. “Terrain generation, Part 1”. The Word of Notch. Retrieved 2019-06-04. Parkin, Simon. “A Science Fictional Universe Created by Algorithms”. MIT Technology Review. Retrieved 2019-06-04. Togelius, Julian; Shaker, Noor; Nelson, Mark J. (2016), “Introduction”, Procedural Content Generation in Games, Springer International Publishing, pp. 1–15, doi:10.1007/978-3-319-42716-4_1, ISBN9783319427140 Summerville, Adam; Snodgrass, Sam; Guzdial, Matthew; Holmgard, Christoffer; Hoover, Amy K.; Isaksen, Aaron; Nealen, Andy; Togelius, Julian (September 2018). “Procedural Content Generation via Machine Learning (PCGML)”. IEEE Transactions on Games. 10 (3): 257–270. arXiv:1702.00539. doi:10.1109/tg.2018.2846639. ISSN2475-1502. S2CID9950600. Hastings, Erin J.; Guha, Ratan K.; Stanley, Kenneth O. (September 2009). “Evolving content in the Galactic Arms Race video game” (PDF). 2009 IEEE Symposium on Computational Intelligence and Games. IEEE: 241–248. doi:10.1109/cig.2009.5286468. ISBN9781424448142. S2CID16598064. Summerville, Adam. “MCMCTS PCG 4 SMB: Monte Carlo Tree Search to Guide Platformer Level Generation”. www.aaai.org. Retrieved 2019-06-04. Snodgrass, Sam; Ontañón, Santiago (August 2017). “Player Movement Models for Video Game Level Generation”. Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence. California: International Joint Conferences on Artificial Intelligence Organization: 757–763. doi:10.24963/ijcai.2017/105. ISBN9780999241103. Summerville, James. “Sampling Hyrule: Multi-Technique Probabilistic Level Generation for Action Role Playing Games”. www.aaai.org. Retrieved 2019-06-04. Pachet, François-David; Hadjeres, Gaëtan; Briot, Jean-Pierre (2017-09-05). “Deep Learning Techniques for Music Generation – A Survey”. arXiv:1709.01620 [cs.SD]. van Amersfoort, Joost R.; Fabius, Otto (2014-12-20). “Variational Recurrent Auto-Encoders”. arXiv:1412.6581 [stat.ML].

برای دانلود پروژه نمونه استفاده از تولید محتوای رویه ای از طریق یادگیری ماشین به عنوان مکانیک بازی به همراه شبیه سازی، اینجا کلیک کنید.

پروژه مشابه دارید؟

برای ثبت سفارش در سیمیا می توانید از طریق اپلیکیشن سیمیا، یا فرم ثبت سفارش در سایت اقدام کرده و یا از طریق ایمیل، واتساپ، تلگرام و اینستاگرام اقدام نمایید.

اپلیکیشن سیمیا را از بازار و مایکت دانلود کنید.

سریع ترین راه پاسخگویی سیمیا، واتساپ و سروش می باشد. لینک واتساپ، اینستاگرام و تلگرام در پایین سایت وجود دارد.

 09392265610

پشتیبانی واتساپ سیمیا

نشانی ایمیل سیمیا simiya_ht@yahoo.com می باشد.

از برقراری تماس برای هماهنگی پروژه خودداری کنید، حجم بالای سفارشات به ما اجازه نمی دهد تا از طریق تلفن پاسخگوی شما عزیزان باشیم، حتما درخواست خود را به صورت مکتوب و از طریق یکی از راه های ذکر شده فوق ارسال نمایید، درخواست خود را به طور کامل و با تمام فایل ها و توضیحات لازم ارسال نمایید تا مدت زمان بررسی آن به حداقل برسد. پس از تعیین کارشناس، در اسرع وقت به شما پاسخ می دهیم.

author-avatar

درباره simiya

simiya_ht@yahoo.com www.simiyacn.ir linkedin.com/in/zahra-aghajani-79655a16a 09392265610 تلگرام- لاین- واتس آپ- ایمو لطفاً فقط از طریق نرم افزارهای فوق و یا ایمیل تماس حاصل فرمایید.

بازگشت به لیست

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *