Корисник:Marijajacimovic/песак

Машинско учење у видео играма изузетно је заступљено у контексту машинског учења као подскупа вјештачке интелигенције који користи историјске податке за израду предиктивних и аналитичких модела. Ово се значајно разликује од традиционалних метода вјештачке интелигенције, као што су стабла претраге и експертски системи. Вјештачка интелигенција и технике машинског учења користе се у видео играма за широк спектар примјена, попут управљања ликовима који нису играчи (NPC) и процедуралног генерисања садржаја (PCG).

Информације о техникама машинског учења у области игара углавном су доступне јавности кроз истраживачке пројекте, јер већина компанија за игре не жели да објављује специфичне информације о свом интелектуалном власништву. Најпознатија јавна примјена машинског учења у играма вјероватно је употреба агената дубоког учења који се такмиче с професионалним људским играчима у сложеним стратешким играма. Значајна примјена машинског учења забиљежена је у играма као што су Аtari/ALE, Doom, Minecraft, StarCraft и аутомобилске трке.[1] Друге игре које првобитно нису настале као видео игре, попут шаха и Го-а, такође су биле под утицајем машинског учења.[2]

Преглед релевантних техника машинског учења

уреди

Дубоко учење

уреди

Дубоко учење је подскуп машинског учења који се интензивно фокусира на коришћење вјештачких неуронских мрежа (АNN) које уче да рјешавају сложене задатке. Дубоко учење користи више слојева вјештачких неуронских мрежа и друге технике за постепено извлачење информација из улазних података. Због овог сложеног слојевитог приступа, модели дубоког учења често захтјевају снажне машине за обуку и покретање.

Конволуцијске неуронске мреже

уреди

Конволуцијске неуронске мреже (CNN) су специјализоване вјештачке неуронске мреже (АNN) које се често користе за анализу сликовних података. Ове врсте мрежа могу да уче обрасце који су независни од њихове позиције, познате као транслационо инваријантни обрасци.[3]CNN-ови уче ове обрасце хијерархијски, што значи да ранији конволуциони слојеви уче мање локалне обрасце, док каснији слојеви уче веће обрасце на основу претходних. Способност CNN-ова да уче визуелне податке учинила их је уобичајеним алатом за дубоко учење у играма.[4][5]

Рекурентне неуронске мреже

уреди

Рекурентне неуронске мреже (RNN) су тип вјештачких неуронских мрежа (АNN) дизајнираних за обраду секвенци података редом, дио по дио, умјесто свих одједном. RNN обрађује сваки дио секвенце користећи тренутни дио секвенце заједно са сјећањем на претходне дијелове исте секвенце како би произвео излаз. Ове врсте неуронских мрежа су веома ефикасне за задатке попут препознавања говора и других проблема који у великој мјери зависе од временског редослиједа. Постоји неколико врста RNN-а са различитим унутрашњим конфигурацијама; основна имплементација пати од недостатка дугорочне меморије због проблема нестајућег градијента, те се стога ријетко користи у односу на новије имплементације.[3]

Дуга краткорочна меморија

уреди

Мрежа са дугом краткорочном меморијом (LSTM) је специфична имплементација RNN-а која је осмишљена да рјешава проблем нестајућег градијента присутан у једноставним RNN-овима, гдје би мрежа постепено "заборављала" претходне дијелове улазне секвенце приликом израчунавања излаза за тренутни дио.[3] LSTM рјешава овај проблем додатним сложеним системом који користи додатни улаз/излаз за праћење дугорочних података. LSTM је постигао изузетно добре резултате у различитим областима и коришћен је у неколико значајних агената дубоког учења у играма. [4][6]

Подржано учење

уреди

Подржано учење је процес обучавања агента помоћу награда и/или казни. Начин на који се агент награђује или кажњава у великој мјери зависи од проблема, на примјер, давањем позитивне награде агенту за побједу у игри или негативне за губитак. Учење појачањем се интензивно користи у области машинског учења и може се примијетити у методама попут Q-учења, дубоких Q-мрежа и других. Овај приступ је показао снажне резултате како у области игара, тако и у роботици.[7]

Неуроеволуција

уреди

Неуроеволуција подразумијева коришћење и неуронских мрежа и еволутивних алгоритама. Умјесто да користи градијентни спуст као већина неуронских мрежа, модели неуроеволуције користе еволутивне алгоритме за ажурирање неурона у мрежи. Истраживачи тврде да је овај процес мање склон заглављивању у локалном минимуму и потенцијално бржи од савремених техника дубоког учења.[8]

Агенти дубоког учења

уреди

Агенти машинског учења коришћени су да замијене људске играче, умјесто да функционишу као NPC-ови, који се намјерно додају у видео игре као дио дизајнираног играња. Агенти дубоког учења постигли су импресивне резултате када су коришћени у такмичењу са људима и другим агентима вештачке интелигенције.[2][9]

Шах је стратешка игра са потезима која се сматра тежим проблемом за вјештачку интелигенцију због рачунарске сложености њеног простора на табли. Сличне стратешке игре често се рјешавају неким обликом претраге Минимакс стабла. Ови типови АИ агената познати су по томе што су побиједили професионалне људске играче, попут историјског меча 1997. године између Deep Blue-a и Герија Каспарова. Од тада, агенти машинског учења су постигли још већи успјех у односу на претходне агенте вјештачке интелигенције.

Го је још једна стратешка игра са потезима која се сматра још тежим проблемом за вјештачку интелигенцију од шаха. Простор стања у Го има око 10^170 могућих стања табле, у поређењу са 10^120 стања табле у шаху. Прије него што су развијени савремени модели дубоког учења, АИ агенти за Го су могли да играју само на нивоу људских аматера.[5]

АlphaGo

уреди

Google-ов AlphaGo из 2015. године био је први АИ агент који је побиједио професионалног играча Го-а.[5] АlphaGo је користио модел дубоког учења за обуку тежина претраге Монте Карло стабла (МCTS). Модел дубоког учења се састојао од двије неуронске мреже: мреже политике која предвиђа вјероватноће могућих потеза од стране противника и мреже вриједности која предвиђа шансе за побједу у датом стању. Модел дубоког учења омогућава агенту да ефикасније истражује потенцијална стања игре него обичан MCTS. Мреже су иницијално обучене на играма људских играча, а затим су даље обучаване играма против самог себе.

AlphaGo Zero

уреди

AlphaGo Zero, још једна имплементација AlphaGo игре, био је у могућности да се потпуно обучи играјући против самог себе и био је у стању да брзо достигне способности претходног агента.[10]

Alpha Zero

уреди

AlphaZero је модификована верзија AlphaGo Zero која је способна да игра Shogi, шах и Го. Модификовани агент почиње само са основним правилима игре и такође се потпуно тренира кроз самостално учење. DeepMind је успио да обучи овог генерализованог агента да буде конкурентан претходним верзијама самог себе у Го-у, као и најбољим агентима у друге две игре.[2]

StarCraft

уреди

StarCraft и његов наставак StarCraft 2 су видео игре стратешког типа у реалном времену (RTS) које су постале популарна окружења за истраживање вјештачке интелигенције. Blizzard и DeepMind су сарађивали како би објавили јавно доступно StarCraft 2 окружење за истраживање АИ.[11] Различите методе дубоког учења тестиране су на обе игре, иако већина агената обично има проблема да надмаши подразумијевани АИ са омогућеном употребом превара или вјеште играче игре.[1]

Аlphastar

уреди

Alphastar је био први АИ агент који је побиједио професионалне StarCraft 2 играче без било каквих предности у игри. Дубока неуронска мрежа агента је иницијално примала улаз са поједностављене верзије стања игре која је била увећана, али је касније ажурирана да игра користећи камеру, као и други људски играчи. Програмери нису јавно објавили код или архитектуру свог модела, али су навели неколико најсавременијих техника машинског учења, као што су дугa краткорочна меморија, ауто-регресивни policy head-ови, показивачке мреже и централизована вриједност као основна линија.[4]Alphastar је иницијално обучен помоћу надгледаног учења, гледајући репризе многих људских игара како би научио основне стратегије. Затим се обучавао против различитих верзија самог себе и унапређиван кроз учење појачања. Коначна верзија је била изузетно успјешна, али је била обучена само да игра на специфичној мапи у огледном мечу протоса.

Дота 2

уреди

Дота 2 је multiplayer online battle arena (МОBA) игра. Као и друге комплексне игре, традиционални АИ агенти нису могли да се такмиче на истом нивоу као професионални људски играчи. Једина широко објављена информација о АИ агентима који су покушавали да играју Дота 2 је OpenAI-ов агент дубоког учења, Five.

OpenAI Five

уреди

OpenAI Five је користио одвојене LSTM мреже за учење сваког хероја. Тренирано је користећи технику учења појачања познату као Proximal Policy Learning, која је радила на систему са 256 ГПУ-ова и 128.000 ЦПУ језгара.[6] Five је тренирао мјесецима, акумулирајући 180 година искуства у игри сваког дана, прије него што се суочио са професионалним играчима.[12] На крају је био у могућности да побиједи шампионски тим из 2018. године у Дота 2 еспортсу у серији игара 2019. године.

Planetary Annihilation

уреди

Planetary Annihilation је игра стратешког типа у реалном времену која се фокусира на ратове на масивној скали. Програмери користе неуронске мреже (ANNA) у свом подразумијеваном АИ агенту.[13]

Supreme Commander 2

уреди

Supreme Commander 2 је видео игра стратешког типа у реалном времену. Игра користи Multilayer Perceptron (MLPs) за контролу реакције вода на сусрет са непријатељским јединицама. Укупно се користи четири MLP-а, по један за сваки тип вода: копнени, поморски, бомбардер и ловац.[14]

Генерализоване игре

уреди

Било је покушаја да се направе агенти засновани на машинском учењу који су способни да играју више од једне игре. Ови "генерални" гејминг агенти обучени су да разумију игре на основу заједничких особина између њих.

Снаге и слабости агената заснованих на дубоком учењу

уреди

Агентима заснованим на машинском учењу често се не посвећује пажња у многим курсевима дизајна игара. Претходна употреба агената заснованих на машинском учењу у играма можда није била врло практична, јер је чак и верзија AlphaGo из 2015. године захтијевала стотине ЦПУ-а и ГПУ-а да би достигла висок ниво обуке.[2] Ово потенцијално ограничава стварање врло ефикасних агената заснованих на дубоком учењу на велике корпорације или изузетно богате појединце. Опсежно вријеме обуке модела заснованих на неуронским мрежама такође може трајати недељама на овим моћним машинама.[4]

Проблем ефикасног тренирања модела заснованих на ANN превазилази моћна хардверска окружења; проналажење доброг начина за представљање података и учење значења из њих је такође често тежак проблем. Модели ANN често се превише прилагођавају врло специфичним подацима и лоше се понашају у општијим случајевима. АlphaStar показује ову слабост, упркос томе што је могао да побиједи професионалне играче, он то може да учини само на једном мапу играјући mirror protoss меч.[4] OpenAI Five такође показује ову слабост, могао је да побиједи професионалног играча само када је био суочен са веома ограниченим избором хероја из цијеле игре.[13] Овај примјер показује колико може бити тешко обучити агента заснованог на дубоком учењу да се понаша у општијим ситуацијама.

Агенти засновани на машинском учењу показали су велики успјех у различитим играма.[2][4][12] Међутим, агенти који су превише компетентни такође ризикују да игре учине превише тешким за нове или повремене играче. Истраживања су показала да изазов који је превише изнад вјештине играча уништава уживање нижих играча.[15] Ови високо обучени агенти вјероватно су пожељни само против врло вјештих људских играча који имају много сати искуства у одређеној игри. С обзиром на ове факторе, врло ефикасни агенти засновани на дубоком учењу вјероватно су пожељни само у играма које имају велику конкурентну сцену, гдје могу да функционишу као алтернативна опција за вјежбање са вјештим људским играчима.

Играчи засновани на рачунарском виду

уреди

Рачунарски вид се фокусира на обучавање рачунара да стекну висок ниво разумијевања дигиталних слика или видео записа. Многе технике рачунарског вида такође укључују облике машинског учења и примјењују се на различите видео игре. Ова примјена рачунарског вида фокусира се на тумачење догађаја у игри користећи визуелне податке. У неким случајевима, агенти вјештачке интелигенције користе технике које нису засноване на моделима да би научили да играју игре, без директне повезаности са интерном логиком игре, користећи искључиво видео податке као улаз.

Понг

уреди

Андреј Карпати је демонстрирао да релативно једноставна неуронска мрежа са само једним скривеним слојем може бити обучена да игра Понг користећи само податке са екрана.[16]

Атари игре

уреди

2013. године, тим из DeepMind-a је демонстрирао употребу дубоког Q-учења за играње различитих Атари видео игара — Beamrider, Breakout, Enduro, Pong, Q*bert, Seaquest, and Space Invaders, — користећи само податке са екрана.[17] Тим је проширио свој рад и створио алгоритам за учење под називом MuZero, који је био у стању да "научи" правила и развије побједничке стратегије за више од 50 различитих Атари игара, базираних на подацима са екрана.[18][19]

Doom (1993) је игра из првог лица (FPC). Истраживачи са универзитета Kaрнеги Мелон користили су технике рачунарског вида како би створили агента који може да игра игру користећи само улазне пикселе са слике из игре. Студенти су користили слојеве конволуцијских неуронских мрежа (CNN) за интерпретацију долазних података са слика и за генерисање валидних информација које су се просљеђивале рекурентној неуронској мрежи, која је била одговорна за генерисање потеза у игри.[20]

Супер Марио

уреди

Остале примјене техника дубоког учења заснованих на визији за играње игара укључују играње Супер Марио Брос. игре користећи само улазне слике, уз употребу дубоког Q-учења за обуку.[16]

Мinecraft

уреди

Истраживачи из OpenAI су креирали око 2000 сати видео снимака играња Minecraft-а кодираних са потребним људским улазима, а затим су обучавали модел машинског учења да разумије видео повратне информације из тих улаза. Истраживачи су потом користили тај модел са 70.000 сати Мinecraft играња доступних на YouTube-у да виде како модел може да створи улаз који одговара том понашању и да даље учи из њега, као што је способност да научи кораке и процес креирања дијамантске "пијук" алатке.[21][22]

Машинско учење за процедурално генерисање садржаја у играма

уреди

Машинско учење је истраживано за употребу у препоруци и генерисању садржаја. Процедурално генерисање садржаја (PCG) је процес креирања података алгоритамски, умјесто ручно. Овај тип садржаја се користи за повећање поновљивости игара, без потребе за константним додацима од стране људских програмера. PCG је коришћен у различитим играма за генерисање различитих врста садржаја, примјери укључују оружја у Borderlands 2,[23] све распореде свијета у Мinecraft-у и читаве универзуме у No Man's Sky.[24] Заједнички приступи PCG укључују технике које користе граматике, алгоритме засноване на претрази и логичко програмирање.[25] Ови приступи захтијевају да људи ручно дефинишу опсег могућег садржаја, што значи да људски програмер одлучује које карактеристике чине валидан дио генерисаног садржаја. Машинско учење је теоријски способно да научи ове карактеристике када су му дати примјери за обуку, чиме се значајно смањује сложен корак у којем програмери наводе детаље дизајна садржаја.[26] Технике машинског учења које се користе за генерисање садржаја укључују дугу краткорочну меморију (LSTM), рекурентну неуронску мрежу (RNN), Generative Adversarial networks (GAN) и K-means кластеринг. Нису све ове технике утемељене на вјештачким неуронским мрежама, али брзо развијање дубоког учења је значајно повећало потенцијал техника које то користе.[26]

Galactic Arms Race

уреди

Galactic Arms Race је видео игра у жанру свемирског пуцача која користи неуроеволуцију за генерисање јединствених оружја за играча. Ова игра је била финалиста на Indie Game Challenge-у 2010. године, а њен истраживачки рад је освојио награду за најбољи рад на ИЕЕЕ конференцији о рачунарској интелигенцији и играма 2009. године. Програмери користе облик неуроеволуције назван cgNEAT за генерисање новог садржаја на основу личних преференција сваког играча.[27]

Сваки генерисани предмет је представљен посебном вјештачком неуронском мрежом познатом као Compositional Pattern Producing Network (CPPNs). Током фазе еволуције игре, cgNEAT израчунава ефикасност тренутних предмета на основу употребе од стране играча и других метрика игре, а ова ефикасност се користи да одлучи који ће CPPN-ови репродуковати и створити нови предмет. Крајњи резултат је генерисање нових ефеката оружја на основу преференција играча.

Супер Марио Брос.

уреди

Супер Марио Брос. је коришћен од стране неколико истраживача за симулацију генерисања нивоа кроз процедуралну генерацију садржаја (PCG). Различити покушаји су користили различите методе. Верзија из 2014. године користила је н-грама за генерисање нивоа сличних онима на којима је тренирала, што је касније унапређено коришћењем МCTS за усмјеравање генерације.[28] Ова генерација често није била оптимална када су у обзир узети метрички подаци о игри, као што је кретање играча, а засебан истраживачки пројекат из 2017. године покушао је ријешити овај проблем генерисањем нивоа на основу кретања играча користећи Марковљев ланац.[29] Ови пројекти нису били тестирани на људима и можда не задовољавају стандарде играња за људе.

Тhe Legend of Zelda

уреди

Истраживачи са Универзитета Калифорнија у Санта Крузу покушали су генерисање нивоа кроз процедуралну генерацију садржаја (PCG) за игру Тhe Legend of Zelda. Овај покушај користио је Бајесову мрежу за учење високог нивоа знања са постојећих нивоа, док је анализа главних компоненти (PCA) коришћена за представљање различитих ниских карактеристика тих нивоа.[30] Истраживачи су користили PCA за упоређивање генерисаних нивоа са нивоима које су креирали људи и утврдили да су ти нивои сматрани врло сличнима. Овај тест није укључивао тестирање "игривости" или људске тестове генерисаних нивоа.

Генерисање музике

уреди

Музика је често присутна у видео играма и може бити кључни елемент за утицање на расположење у различитим ситуацијама и дијеловима приче. Машинско учење је коришћено у експерименталном пољу генерисања музике; оно је погодно за обраду сирових неструктурираних података и формирање високих репрезентација које се могу примијенити на различита поља музике.[31] Већина покушајних метода укључивала је употребу АNN у некој форми. Методе укључују коришћење основних feedforward неуронских мрежа, аутоенкодера, рестриктивних Болцманових машина, рекурентних неуронских мрежа, конволуционих неуронских мрежа, генеративних адверсаријалних мрежа (GANs), и сложених архитектура које користе више метода.[31]

ВРАЕ систем за симболично генерисање музике из мелодија видео игара

уреди

Истраживачки рад из 2014. године на тему "Варијационални рекурентни ауто-енкодери" покушао је да генерише музику на основу пјесама из 8 различитих видео игара. Овај пројекат је један од ријетких који је спроведен искључиво на музици из видео игара. Неуронска мрежа у пројекту била је у стању да генерише податке који су били веома слични подацима игара на којима је тренирала.[32] Генерисани подаци нису се пренијели у музику доброг квалитета.

Референце

уреди
  1. ^ а б Justesen, Niels; Bontrager, Philip; Togelius, Julian; Risi, Sebastian (2019). „Deep Learning for Video Game Playing”. IEEE Transactions on Games.: 12: 1—20. 
  2. ^ а б в г д Silver, David; Hubert, Thomas; Schrittwieser, Julian; Antonoglou, Ioannis; Lai, Matthew; Guez, Arthur; Lanctot, Marc; Sifre, Laurent; Kumaran, Dharshan (2018-12-07). „A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play”. Science (на језику: енглески). 362 (6419): 1140—1144. ISSN 0036-8075. doi:10.1126/science.aar6404. 
  3. ^ а б в Chollet, François (2018). Deep learning with Python. Shelter Island, New York: Manning Publications Co. ISBN 978-1-61729-443-3. OCLC 982650571. 
  4. ^ а б в г д ђ Risi, Sebastian; Preuss, Mike (2020-02-12). „Behind DeepMind’s AlphaStar AI that Reached Grandmaster Level in StarCraft II”. KI - Künstliche Intelligenz. 34 (1): 85—86. ISSN 0933-1875. doi:10.1007/s13218-020-00642-1. 
  5. ^ а б в Silver, David; Huang, Aja; Maddison, Chris J.; Guez, Arthur; Sifre, Laurent; van den Driessche, George; Schrittwieser, Julian; Antonoglou, Ioannis; Panneershelvam, Veda (2016-01-28). „Mastering the game of Go with deep neural networks and tree search”. Nature (на језику: енглески). 529 (7587): 484—489. ISSN 0028-0836. doi:10.1038/nature16961. 
  6. ^ а б Ifrah, Shimon (2024), Introduction to Azure AI and OpenAI, Apress, стр. 1—32, ISBN 979-8-8688-0598-1, Приступљено 2024-12-05 
  7. ^ Russell, Stuart J.; Norvig, Peter; Davis, Ernest (2015). Artificial intelligence: a modern approach. Always learning (Third edition изд.). Delhi: Pearson. ISBN 978-93-325-4351-5. 
  8. ^ Felipe Petroski Such, Vashisht Madhavan, Edoardo Conti, Joel Lehman, Kenneth O. Stanley, Jeff Clune (2018). „Deep Neuroevolution: Genetic Algorithms Are a Competitive Alternative for Training Deep Neural Networks for Reinforcement Learning”. Приступљено 06. 12. 2024. 
  9. ^ Jacky Shunjie Zhen & Ian Watson (2013). „Neuroevolution for Micromanagement in the Real-Time Strategy Game Starcraft: Brood War”. Приступљено 06. 12. 2024. 
  10. ^ David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert, Lucas Baker, Matthew Lai, Adrian Bolton, Yutian Chen, Timothy Lillicrap, Fan Hui, Laurent Sifre, George van den Driessche, Thore Graepel & Demis Hassabis (2017). „Mastering the game of Go without human knowledge”. Nature: 354—359. 
  11. ^ Vinyals, Oriol; Babuschkin, Igor; Czarnecki, Wojciech M.; Mathieu, Michaël; Dudzik, Andrew; Chung, Junyoung; Choi, David H.; Powell, Richard; Ewalds, Timo (2019-10-30). „Grandmaster level in StarCraft II using multi-agent reinforcement learning”. Nature. 575 (7782): 350—354. ISSN 0028-0836. doi:10.1038/s41586-019-1724-z. 
  12. ^ а б „OpenAI Five defeats Dota 2 world champions”. Приступљено 06. 12. 2024. 
  13. ^ а б Xav De Matos (07. 06. 2014). „Meet the computer that's learning to kill and the man who programmed the chaos”. Engadget. Приступљено 06. 12. 2024. 
  14. ^ Michael Robbins (2019). Using Neural Networks to Control Agent Threat Response. CRC Press. стр. 55—64. ISBN 9780429054969. 
  15. ^ Penelope Sweetser, Peta Wyeth (2005). Computers in Entertainment. GameFlow: a model for evaluating player enjoyment in games. https://dl.acm.org/doi/10.1145/1077246.1077253. 
  16. ^ а б Jones, M. Tim (2016). „Machine learning and gaming”. IBM Developer. Приступљено 06. 12. 2024. 
  17. ^ Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Alex Graves, Ioannis Antonoglou, Daan Wierstra, Martin Riedmiller (19. 12. 2013). „Playing Atari with Deep Reinforcement Learning”. Cornell University. Приступљено 06. 12. 2024. 
  18. ^ Igor Bonifacic (23. 12. 2020). „DeepMind's latest AI can master games without being told their rules”. Engadget. Приступљено 06. 12. 2024. 
  19. ^ Julian Schrittwieser, Ioannis Antonoglou, Thomas Hubert, Karen Simonyan, Laurent Sifre, Simon Schmitt, Arthur Guez, Edward Lockhart, Demis Hassabis, Thore Graepel, Timothy Lillicrap, David Silver (19. 11. 2019). „Mastering Atari, Go, Chess and Shogi by Planning with a Learned Model”. Cornell University. Приступљено 06. 12. 2024. 
  20. ^ Lample, Guillaume; Chaplot, Devendra Singh (2017). Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence. San Francisco: California: USA: AAAI Press: 2140–2146. 
  21. ^ Rastko Zoric (28. 06. 2022). „Naučnici istrenirali AI da igra MINECRAFT”. IGN Adria. Приступљено 12. 06. 2024. 
  22. ^ Bowen Baker, Ilge Akkaya, Peter Zhokhov, Joost Huizinga, Jie Tang, Adrien Ecoffet, Brandon Houghton, Raul Sampedro, Jeff Clune (23. 06. 2022). „Video PreTraining (VPT): Learning to Act by Watching Unlabeled Online Videos”. Cornell University. Приступљено 06. 12. 2024. 
  23. ^ Wesley Yin-Poole (16. 07. 2012). „How many weapons are in Borderlands 2?”. EUROGAMER. Приступљено 06. 12. 2024. 
  24. ^ Simon Parkin (22. 07. 2014). „No Man’s Sky: A Vast Game Crafted by Algorithms”. MIT Technology Review. Приступљено 06. 12. 2024. 
  25. ^ Julian Togelius, Noor Shaker & Mark J. Nelson (2016). Procedural Content Generation in Games. Switzerland: Springer International Publishing. стр. 1—15. 
  26. ^ а б Adam Summerville; Sam Snodgrass; Matthew Guzdial; Christoffer Holmgård; Amy K. Hoover; Aaron Isaksen (12. 06. 2018). „Procedural Content Generation via Machine Learning (PCGML)”. IEEE Xplore. Приступљено 06. 12. 2024. 
  27. ^ Erin J. Hastings; Ratan K. Guha; Kenneth O. Stanley (13. 10. 2009). „Evolving content in the Galactic Arms Race video game” — преко IEEE Xplore. 
  28. ^ Summerville, Adam. „MCMCTS PCG 4 SMB: Monte Carlo Tree Search to Guide Platformer Level Generation”. AAAI. Приступљено 06. 12. 2024. 
  29. ^ Snodgrass, Sam; Ontañón, Santiago (2017). Player Movement Models for Video Game Level Generation. California: International Joint Conferences on Artificial Intelligence Organization. стр. 757—763. 
  30. ^ Summerville, James. „Sampling Hyrule: Multi-Technique Probabilistic Level Generation for Action Role Playing Games”. Приступљено 06. 12. 2024. 
  31. ^ а б Jean-Pierre Briot, Gaëtan Hadjeres, François-David Pachet (07. 08. 2019). „Deep Learning Techniques for Music Generation -- A Survey”. Cornell University. Приступљено 06. 12. 2024. 
  32. ^ Otto Fabius, Joost R. van Amersfoort (20. 12. 2014). „Variational Recurrent Auto-Encoders”. Cornell University. Приступљено 06. 12. 2024.