Динамическая балансировка сложности игры ( DGDB ), также известная как динамическая регулировка сложности ( DDA ) или динамическая балансировка игры ( DGB ), представляет собой процесс автоматического изменения параметров, сценариев и поведения в видеоигре в реальном времени на основе настроек игрока. способность, чтобы игрок не заскучал (если игра слишком проста) или не разочаровался (если игра слишком сложна). Однако, если позволить ИИ-игрокам нарушить правила, которым они подчиняются, ИИ можетобмануть - например, игрокам с ИИ может быть предоставлена неограниченная скорость в гоночных играх, чтобы они оставались рядом с игроком-человеком. Цель динамической балансировки сложности - заинтересовать пользователя от начала до конца, обеспечивая хороший уровень сложности.
Традиционно сложность игры неуклонно возрастает по ходу игры (либо плавно, линейно, либо через шаги, представленные уровнями). Параметры этого повышения (скорость, частота, начальные уровни) можно модулировать только в начале опыта, выбрав уровень сложности . Тем не менее, это может привести к разочарованию как для опытных, так и для неопытных игроков, поскольку они пытаются следовать заранее выбранным кривым обучения или сложности, что создает множество проблем для разработчиков игр; в результате такой способ игры не получил широкого распространения. [ необходима цитата ]
Динамические игровые элементы
Некоторые элементы игры, которые можно изменить с помощью динамической балансировки сложности, включают:
- Скорость врагов
- Здоровье врагов
- Частота врагов
- Частота включения
- Мощность игрока
- Сила врагов
- Продолжительность игрового процесса
Подходы
Игроки [A] работают над игрой, их результаты должны постоянно улучшаться. Новички должны иметь возможность добиться определенного прогресса, люди среднего уровня должны получать промежуточные баллы, а опытные игроки должны получать высокие баллы ... В идеале прогресс должен быть автоматическим; игроки начинают с уровня новичка, и расширенные функции вводятся по мере того, как компьютер распознает умелую игру.
- Крис Кроуфорд , 1982 [1]
В литературе встречаются различные подходы к решению проблемы динамического балансирования сложности игры. Во всех случаях необходимо прямо или косвенно измерить трудности, с которыми пользователь сталкивается в данный момент. Эту меру можно выполнить с помощью эвристической функции, которую некоторые авторы называют «функцией вызова». Эта функция преобразует данное игровое состояние в значение, которое указывает, насколько легкой или трудной игра кажется пользователю в определенный момент. Примеры используемых эвристик:
- Скорость успешных выстрелов или попаданий
- Количество выигранных и проигранных фигур
- Очки жизни
- Эволюция
- Время выполнить какую-то задачу
... или любой другой показатель, используемый для расчета игрового счета . Крис Кроуфорд сказал: «Если бы я построил график зависимости очков типичного игрока от времени, проведенного в игре, на этом графике должна была бы отображаться кривая, плавно и неуклонно восходящая вверх. Я описываю такую игру как имеющую положительную монотонную кривую». . По его словам, игры без такой кривой кажутся «либо слишком сложными, либо слишком легкими». [1]
Подход Hunicke и Chapman [2] управляет настройками игровой среды, чтобы облегчить или усложнить задачи. Например, если игра слишком сложна, игрок получает больше оружия, быстрее восстанавливает очки жизни или сталкивается с меньшим количеством противников. Хотя этот подход может быть эффективным, его применение может привести к невероятным ситуациям. Простой подход состоит в том, чтобы объединить такие «манипуляции с параметрами» с некоторыми механизмами для изменения поведения неигровых персонажей (персонажей, управляемых компьютером и обычно моделируемых как интеллектуальные агенты). Однако эту настройку следует производить умеренно, чтобы избежать эффекта «резинки». Один из примеров этого эффекта в гоночной игре: автомобили с ИИ-водителем становятся значительно быстрее, когда они находятся позади автомобиля игрока, и значительно медленнее, когда они впереди, как если бы эти два автомобиля были соединены большой резинкой .
Традиционная реализация интеллекта такого агента заключается в использовании правил поведения, определенных во время разработки игры . Типичное правило файтинга гласит: «бей противника, если он доступен, в противном случае преследуй его». Распространение такого подхода на моделирование оппонента может быть осуществлено через Spronck et al. Динамичном сценарии , [3] [4] , который назначает каждое правило вероятности того , чтобы быть выбранными. Вес правил может динамически обновляться на протяжении всей игры в соответствии с навыками оппонента, что приводит к адаптации к конкретному пользователю. С помощью простого механизма можно выбрать правила, которые будут генерировать тактику, которая не будет ни слишком сильной, ни слишком слабой для текущего игрока.
Андраде и др. [5] делят проблему DGB на два аспекта: компетентность (учиться как можно лучше) и производительность (действовать так же хорошо, как необходимо). Эта дихотомия между компетенцией и эффективностью хорошо известна и изучается в лингвистике , как это было предложено Ноамом Хомским . [6] Их подход сталкивается с обоими аспектами обучения с подкреплением (RL). Автономное обучение используется для запуска учебного процесса. Это можно сделать, позволив агенту играть против самого себя (самообучение), других заранее запрограммированных агентов или игроков-людей. Затем онлайн-обучение используется для постоянной адаптации этого изначально встроенного интеллекта к каждому конкретному оппоненту-человеку, чтобы найти наиболее подходящую стратегию для игры против него или нее. Что касается производительности, их идея состоит в том, чтобы найти адекватную политику для выбора действий, обеспечивающих хороший игровой баланс, т. Е. Действий, которые удерживают и агента, и игрока-человека примерно на одном и том же уровне производительности. В зависимости от сложности, с которой сталкивается игрок, агент выбирает действия с высокой или низкой ожидаемой эффективностью. Для данной ситуации, если уровень игры слишком сложен, агент не выбирает оптимальное действие (предусмотренное структурой RL), но постепенно выбирает все менее и менее неоптимальные действия, пока его производительность не станет такой же хорошей, как у игрока. Точно так же, если уровень игры становится слишком простым, он будет выбирать действия с более высокими значениями, возможно, до тех пор, пока не будет достигнута оптимальная производительность.
Демаси и Круз [7] создали интеллектуальных агентов, используя методы генетических алгоритмов , чтобы поддерживать в живых агентов, которые лучше всего подходят для уровня пользователя. Коэволюция онлайн используется для ускорения процесса обучения. Коэволюция онлайн использует заранее определенные модели (агентов с хорошими генетическими характеристиками) в качестве родителей в генетических операциях, так что эволюция определяется ими. Эти модели создаются путем автономного обучения или вручную, когда генетическое кодирование агента достаточно просто.
Другая работа в области DGB основана на гипотезе о том, что взаимодействие игрока и оппонента - а не аудиовизуальные особенности, контекст или жанр игры - является тем свойством, которое вносит вклад в большинство качественных характеристик развлечения на компьютере. игра. [8] На основе этого фундаментального предположения была введена метрика для измерения развлекательной ценности игр «хищник / жертва» в реальном времени, которая была признана эффективной и надежной путем проверки на соответствие человеческому суждению.
Дальнейшие исследования Яннакакиса и Халлама [9] показали, что искусственные нейронные сети (ИНС) и нечеткие нейронные сети могут извлекать лучшую оценку удовлетворенности игроков, чем созданная человеком, при соответствующих оценках проблемы и любопытства (внутренние качественные факторы для увлекательный игровой процесс согласно Мэлоуну) [10] игры и данные о предпочтениях игроков-людей. Подход к построению пользовательских моделей игрока в игре, которые могут предсказать ответы на вопрос, какие варианты игры более или менее увлекательны , определяется как развлекательное моделирование . Модель обычно строится с использованием методов машинного обучения , применяемых к параметрам игры, полученным в результате взаимодействия игрока с игрой [11], и / или статистических характеристик физиологических сигналов игрока, записанных во время игры. [12] Этот базовый подход применим к множеству игр, как компьютерных [9], так и физических.
Предостережения
Трудно разработать справедливую, но не предсказуемую игру. [13] Эндрю Роллингс и Эрнест Адамс приводят пример игры, в которой изменялась сложность каждого уровня в зависимости от того, как игрок выступал на нескольких предыдущих уровнях. Игроки заметили это и разработали стратегию преодоления сложных уровней, намеренно неудачно играя на уровнях, предшествующих сложному. Авторы подчеркивают важность сокрытия существования трудности адаптации, чтобы игроки не знали об этом. [14]
Используется в последних видеоиграх
Archon ' s компьютерный противник медленно адаптируетсятечение долгого временичтобы помочь игрокам победить его. [15] Даниэль Бунтен разработала и MULE, и Global Conquest, чтобы динамически балансировать игровой процесс между игроками. Случайные события настраиваются таким образом, что игрок, занявший первое место, никогда не везет, а игрок, занявший последнее место, никогда не бывает неудачником. [16]
В первой игре Crash Bandicoot и ее сиквелах используется система «динамической регулировки сложности», которая замедляет препятствия, дает дополнительные очки жизни и добавляет очки продолжения в соответствии с количеством смертей игрока. По словам ведущего дизайнера игры Джейсона Рубина , цель заключалась в том, чтобы «помочь более слабым игрокам, не меняя игру в пользу лучших». [17]
Видеоигра Flow была известна популяризацией применения мысленного погружения (также называемого потоком ) к видеоиграм с ее Flash-версией 2006 года. Дизайн видеоигры был основан на магистерской диссертации одного из ее авторов и позже был адаптирован для PlayStation 3.
SiN Episodes, выпущенные в 2006 году, содержали «Систему личных испытаний», в которой количество и стойкость противников, с которыми сталкиваются, будут зависеть от производительности игрока, чтобы гарантировать уровень сложности и скорость прохождения игры. Разработчик, Ritual Entertainment , утверждал, что игроки с совершенно разными уровнями способностей могут закончить игру за небольшой промежуток времени друг от друга. [18]
В 2005 году в Resident Evil 4 использовалась система под названием «Шкала сложности», неизвестная большинству игроков, поскольку единственное упоминание о ней было в Официальном руководстве по стратегии. Эта система оценивает производительность игрока по числовой шкале от 1 до 10 и регулирует как поведение / используемые атаки противника, так и урон / сопротивление врага в зависимости от производительности игрока (например, смертей, критических атак и т. Д.). Выбранные уровни сложности фиксируют игроков на определенном количестве; например, на нормальной сложности каждый начинает с 4-го класса, может перейти к 2-му классу, если дела идут плохо, или до 7-го класса, если дела идут хорошо. Уровни трудностей могут пересекаться. [19]
God Hand , 2006 видео играразработанная Clover Studio , режиссер Resident Evil 4 режиссера Синдзи Миками , и опубликованной Capcom для PlayStation 2 , имеет счетчик во время игрыкоторый регулирует вражеский интеллект и силу. Этот счетчик увеличивается, когда игрок успешно уклоняется и атакует противников, и уменьшается, когда игрок получает удар. Счетчик разделен на четыре уровня, самый сложный из которых называется «Уровень DIE». В игре также есть три сложности: легкая сложность позволяет счетчику подняться только до уровня 2, а самая сложная - блокирует счетчик до уровня DIE. Эта система также предлагает большие награды за победу над врагами на более высоких уровнях.
В видеоигре 2008 года Left 4 Dead используется новая технология искусственного интеллекта, получившая название «AI Director». [20] AI Director используется для процедурной генерации нового опыта для игроков при каждом прохождении игры. Он отслеживает производительность отдельных игроков и то, насколько хорошо они работают вместе в группе, чтобы задавать темп игры, определяя количество зомби, нападающих на игрока, и местоположение зараженных боссов встреч на основе собранной информации. Директор также определяет, насколько быстро игроки продвигаются по уровню к каждой цели; если он обнаруживает, что игроки оставались на одном месте слишком долго или не достигают достаточного прогресса, он вызовет орду обычных зараженных, чтобы заставить всех присутствующих игроков и ИИ-персонажей покинуть свое текущее местоположение и бороться с новой угрозой. Помимо скорости, Режиссер также управляет некоторыми видео- и аудиоэлементами игры, чтобы создать настроение для встречи с боссом или привлечь внимание игроков к определенной области. [21] Valve называет то, как Режиссер работает, « процедурным повествованием », потому что вместо того, чтобы иметь уровень сложности, который просто увеличивается до постоянного уровня, ИИ анализирует, как игроки преуспели в игре на данный момент, и пытается добавить последующие события. это дало бы им смысл повествования. [22]
Madden NFL 09 представляет «Madden IQ», который начинается с необязательной проверки знаний игроков о спорте и способностей в различных ситуациях. Затем счет используется для управления сложностью игры. [23] [24]
В игре Fishdom в жанре « три в ряд» ограничение по времени регулируется в зависимости от того, насколько хорошо игрок играет. Лимит времени увеличивается, если игрок проваливает уровень, что позволяет любому игроку пройти уровень после нескольких попыток.
В видеоигре 1999 года Homeworld количество кораблей, с которых ИИ начинает каждую миссию, будет установлено в зависимости от того, насколько мощным считается флот игрока. У успешных игроков флот больше, потому что они несут меньше потерь. Таким образом, игрок, успешно выполнивший несколько миссий, по ходу игры будет испытывать все больше и больше проблем.
В Fallout: New Vegas и Fallout 3 по мере повышения уровня игрока более жесткие варианты врагов, враги с более высокой статистикой и лучшим оружием или новые враги заменят старых, чтобы сохранить постоянную сложность, которую можно повысить с помощью ползунка. , с бонусами к опыту и наоборот в Fallout 3 . Это также можно сделать в Нью-Вегасе , но нет бонуса к увеличению или уменьшению сложности.
В серии Mario Kart во время гонок представлены предметы, которые помогают отдельным гонщикам опередить своих соперников. Эти предметы распределяются в зависимости от положения водителя, что является примером динамической балансировки сложности игры. Например, водитель в нижней части поля, скорее всего, получит предмет, который резко увеличит его скорость или резко снизит скорость его противников, тогда как водитель, находящийся на первом или втором месте, может рассчитывать получить такие предметы редко ( и, вероятно, получит более слабые предметы в игре). Компьютерные гонщики в игре также адаптируются к скорости игрока - замедляются, когда ведущий игрок-гонщик слишком далеко отстает от лучшего компьютерного гонщика, и наоборот - когда конкурирующие компьютерные гонщики догоняют игрока первыми.
Ранний пример балансировки сложности можно найти в Zanac , разработанном в 1986 году компанией Compile . В игре использовался уникальный адаптивный искусственный интеллект , в котором игра автоматически настраивала уровень сложности в соответствии с уровнем навыков игрока, скорострельностью и текущим оборонительным статусом / возможностями корабля. Раньше, чем это, можно найти в монетной игре Midway 1975 года Gun Fight. Эта перестрелка лицом к лицу поможет любому игроку, в которого только что стреляли, поместив новый дополнительный объект, например, растение кактуса, на его половину игрового поля, чтобы им было легче спрятаться.
Предполагаемое использование для формирования покупательского поведения игроков
Иск в окружной суд Соединенных Штатов для Северного округа Калифорнии обвинили разработчиков игры Electronic Arts использования запатентованной корректирующий сложности Dynamic технологии в трех своих EA Sports франшиз - Madden NFL , FIFA и NHL - во всех играх , начиная вернемся к версиям 2017 года. Истцы говорят, что EA использует эту технологию, чтобы подтолкнуть игроков к покупке большего количества лутбоксов в виде пакетов игроков, заявив, что это фактически заставляет даже игроков с высокими характеристиками играть не так, как они должны.
В иске также отмечается, что EA использует эту технологию, не раскрывая ее игрокам, отмечая, что EA отрицала ее использование в прошлом в нескольких играх, упомянутых в иске. Когда ее попросили прокомментировать обвинения, EA назвала эти утверждения «необоснованными» и что они «искажают наши игры». [25] [26] [27]
Смотрите также
- Сложный уровень
- Нелинейный геймплей
- Баланс игры
- Игровой искусственный интеллект
- Поток (психология)
- Nintendo Hard
- ФИФА (серия видеоигр)
Рекомендации
- ^ a b Кроуфорд, Крис (декабрь 1982 г.). «Приемы дизайна и идеи для компьютерных игр» . БАЙТ . п. 96 . Проверено 19 октября 2013 года .
- ^ Робин Хунике; В. Чепмен (2004). «AI для динамической регулировки сложности в играх». Проблемы игрового искусственного интеллекта AAAI Workshop . Сан - Хосе. С. 91–96.
- ^ Питер Спронк из Тилбургского центра творческих вычислений
- ^ П. Спронк; И. Спринкхёйзен-Кайпер; Э. Постма (2004). «Масштабирование сложности игрового ИИ». Материалы 5-й Международной конференции по интеллектуальным играм и моделированию . Бельгия. С. 33–37.
- ^ Г. Андраде; Г. Рамальо; Х. Сантана; В. Коррубл (2005). "Выбор действия, чувствительного к вызову: приложение к игре баланс". Труды Международной конференции IEEE / WIC / ACM по технологии интеллектуальных агентов (IAT-05) . Компьень, Франция: Компьютерное общество IEEE. С. 194–200.
- ^ Хомский, Ноам. (1965). Аспекты теории синтаксиса . Кембридж, Массачусетс: MIT Press.
- ^ П. Демаси; А. Круз (2002). «Коэволюция онлайн для экшн-игр». Труды 3-й Международной конференции по интеллектуальным играм и моделированию . Лондон. С. 113–120.
- ^ Г. Н. Яннакакис; Дж. Халлам (13–17 июля 2004 г.). «Развивающиеся противники интересных интерактивных компьютерных игр». Материалы 8-й Международной конференции по моделированию адаптивного поведения (SAB'04); От животных к аниматам 8 . Лос-Анджелес, Калифорния, США: MIT Press. С. 499–508.
- ^ а б Г. Н. Яннакакис; Дж. Халлам (18–20 мая 2006 г.). «На пути к захвату и расширению развлечений в компьютерных играх». Труды 4-й Греческой конференции по искусственному интеллекту, Конспект лекций по искусственному интеллекту . Ираклион, Крит, Греция: Springer-Verlag. С. 432–442.
- ^ Мэлоун, TW (1981). «Что делает компьютерные игры интересными?». Байт . 6 : 258–277.
- ^ Пшеница, D; Масек, М; Лам, CP; Хингстон, П. (2015). «Динамическая регулировка сложности в 2D платформерах посредством генерации процедурных уровней на основе агентов». В 2015 году Международная конференция IEEE по системам, человеку и кибернетике : 2778-2785.
- ^ Шанель, Гийом; Ребетес, Кирилл; Бетранкур, Мирей; Пун, Тьерри (2011). «Оценка эмоций по физиологическим сигналам для адаптации игровой сложности». Транзакции IEEE по системам, человеку и кибернетике - Часть A: Системы и люди . 41 (6): 1052–1063. DOI : 10.1109 / TSMCA.2011.2116000 . S2CID 8681078 .
- ^ Барри, Тим (1981-05-11). «В поисках высшей компьютерной игры» . InfoWorld . С. 11, 48 . Проверено 17 апреля 2019 .
- ^ А. Роллингс; Э. Адамс. «Геймплей» (PDF) . Эндрю Роллингс и Эрнест Адамс о дизайне игр . New Riders Press.
- ^ Бейтман, Селби (ноябрь 1984). «Free Fall Associates: Дизайнеры, стоящие за Archon и Archon II: Adept» . Compute! S Gazette . п. 54 . Проверено 6 июля 2014 года .
- ^ «Дизайн людей ...» Мир компьютерных игр . Август 1992. С. 48–54 . Проверено 3 июля 2014 года .
- ^ Гэвин, Энди (07.02.2011). «Делаем Crash Bandicoot - часть 6» . Все, Энди Гэвин . Проверено 3 сентября 2016 .
- ^ Монки (22 мая 2006 г.). «Monki берет интервью у Тома Мастейна из Ritual о SiN: Emergence» . Разве это не крутые новости . Проверено 24 августа 2006 .
- ^ Resident Evil 4: Официальное руководство по стратегии . Future Press. 4 ноября 2005 г.
- ^ «Left 4 Dead» . Клапан . Архивировано из оригинала на 2009-03-27.
- ^ «Предварительный просмотр Left 4 Dead» . Мудрость 411 .
- ^ Ньюэлл, Гейб (21 ноября 2008 г.). «Гейб Ньюэлл пишет для Edge» . edge-online.com. Архивировано из оригинала 9 сентября 2012 года . Проверено 22 ноября 2008 .
- ↑ «Madden NFL 09 Preseason Report», 25 апреля 2008 г.
- ↑ Madden NFL 09 First Hands On, 22 мая 2008 г.
- ^ Валентин, Ревекка. «ЕА грозит еще один коллективный иск, связанный с лутбоксами» . GamesIndustry.biz . Проверено 12 ноября 2020 .
- ^ Хетфельд, Малинди (12 ноября 2020 г.). «В коллективном иске утверждается, что технология динамической сложности EA поощряет траты лутбоксов» . PC Gamer . Проверено 12 ноября 2020 .
- ^ Макалун, Алисса. «Групповой иск обвиняет EA в изменении сложности игры, чтобы толкать лутбоксы» . www.gamasutra.com . Проверено 12 ноября 2020 .
дальнейшее чтение
- Хунике, Робин (2005). «Кейс для динамической регулировки сложности в играх». Материалы Международной конференции 2005 ACM SIGCHI по достижениям в компьютерных развлекательных технологиях . Нью-Йорк: ACM. С. 429–433. DOI : 10.1145 / 1178477.1178573 .
- Бирн, Эдвард (2004). Дизайн игрового уровня . Чарльз Ривер Медиа. п. 74 . ISBN 1-58450-369-6.
- Чен, Дженова (2006). «Поток в играх» .
Внешние ссылки
- «Динамическая регулировка сложности» . Игра Ontology Wiki . Архивировано из оригинала на 2010-08-13.
- «Динамическая сложность» . TV Tropes .