Jump to content

Динамическая балансировка сложности игры

(Перенаправлено с эффекта резиновой ленты )

Динамическая балансировка сложности игры ( DGDB ), также известная как динамическая регулировка сложности ( DDA ), адаптивная сложность или динамическая балансировка игры ( DGB ), представляет собой процесс автоматического изменения параметров, сценариев и поведения в видеоигре в режиме реального времени, основанный на от способностей игрока, чтобы игрок не скучал (если игра слишком проста) или не разочаровывался (если она слишком сложна). Цель динамической балансировки сложности — поддерживать интерес пользователя от начала до конца, обеспечивая хороший уровень сложности.

Традиционно сложность игры постоянно увеличивается по ходу игры (либо плавно линейно, либо поэтапно, представленные уровнями). Параметры этого увеличения (скорость, частота, начальные уровни) можно модулировать только в начале опыта, выбрав уровень сложности . Это часто приводит к разочарованию игроков, когда они пытаются следовать готовым кривым обучения или сложности, что создает множество проблем для разработчиков игр; в результате этот метод масштабирования сложности не является повсеместным. [ нужна ссылка ]

Динамические игровые элементы

[ редактировать ]

Некоторые элементы игры, которые можно изменить с помощью динамической балансировки сложности, включают:

  • Скорость врагов
  • Здоровье врагов
  • Частота врагов
  • Частота усилений
  • Сила игрока
  • Сила врагов
  • Продолжительность игрового опыта

[А] игроки работают над игрой, их результаты должны отражать постоянное улучшение. Новички должны иметь возможность добиться определенного прогресса, люди среднего уровня должны получать средние баллы, а опытные игроки должны получать высокие баллы... В идеале прогресс происходит автоматически; игроки начинают с уровня новичка, а расширенные функции добавляются по мере того, как компьютер распознает опытную игру.

В литературе встречаются различные подходы к решению динамической балансировки сложности игры. Во всех случаях необходимо явно или неявно измерить трудность, с которой пользователь сталкивается в данный момент. Эту меру можно выполнить с помощью эвристической функции, которую некоторые авторы называют «функцией вызова». Эта функция отображает данное состояние игры в значение, которое определяет, насколько легкой или сложной игра кажется пользователю в конкретный момент. Примеры используемых эвристик:

  • Скорость успешных выстрелов или попаданий
  • Количество выигранных и проигранных фигур
  • Очки жизни
  • Эволюция
  • Время выполнить какое-то задание

... или любой показатель, используемый для подсчета очков в игре . Крис Кроуфорд сказал: «Если бы я построил график зависимости результата типичного игрока от времени, проведенного в игре, этот график должен был бы показать кривую, плавно и устойчиво поднимающуюся вверх. Я описываю такую ​​игру как имеющую положительную монотонную кривую». . Игры без такой кривой кажутся «либо слишком сложными, либо слишком простыми», сказал он. [1]

Подход Хунике и Чепмена [2] управляет настройками игровой среды, чтобы упростить или усложнить задачи. Например, если игра слишком сложна, игрок получает больше оружия, быстрее восстанавливает очки жизни или сталкивается с меньшим количеством противников. Хотя этот подход может быть эффективным, его применение может привести к неправдоподобным ситуациям. Простой подход состоит в том, чтобы объединить такие «манипулирования параметрами» с некоторыми механизмами для изменения поведения неигровых персонажей (персонажей, управляемых компьютером и обычно моделируемых как интеллектуальные агенты). Однако эту корректировку следует производить умеренно, чтобы избежать эффекта «резиновой ленты». Одним из примеров этого эффекта в гоночной игре может быть то, что автомобили водителя ИИ становятся значительно быстрее, когда находятся позади автомобиля игрока, и значительно медленнее, когда находятся впереди, как если бы два автомобиля были соединены большой резиновой лентой .

Традиционная реализация интеллекта такого агента — использование правил поведения, определенных во время разработки игры . Типичное правило файтинга гласит : «Ударь противника, если он доступен, в противном случае преследуй его». Расширить такой подход, включив в него моделирование противника, можно с помощью Spronck et al. динамические сценарии , [3] [4] который присваивает каждому правилу вероятность быть выбранным. Веса правил могут динамически обновляться на протяжении всей игры в соответствии с навыками противника, что приводит к адаптации к конкретному пользователю. С помощью простого механизма можно выбрать правила, которые создадут тактику, которая не будет ни слишком сильной, ни слишком слабой для текущего игрока.

Андраде и др. [5] разделите проблему DGB на два измерения: компетентность (учиться как можно лучше) и результативность (действовать настолько хорошо, насколько необходимо). Эта дихотомия между компетентностью и эффективностью хорошо известна и изучается в лингвистике , как это предложил Ноам Хомский . [6] Их подход касается обоих аспектов обучения с подкреплением (RL). Офлайн-обучение используется для запуска процесса обучения. Этого можно добиться, позволив агенту играть против самого себя (самообучение), других заранее запрограммированных агентов или игроков-людей. Затем онлайн-обучение используется для постоянной адаптации этого изначально встроенного интеллекта к каждому конкретному противнику-человеку, чтобы найти наиболее подходящую стратегию игры против него или нее. Что касается производительности, их идея состоит в том, чтобы найти адекватную политику выбора действий, обеспечивающих хороший игровой баланс, то есть действий, которые удерживают агента и игрока-человека примерно на одном и том же уровне производительности. В зависимости от сложности, с которой сталкивается игрок, агент выбирает действия с высокой или низкой ожидаемой эффективностью. В данной ситуации, если уровень игры слишком сложен, агент не выбирает оптимальное действие (обеспечиваемое структурой RL), а выбирает все менее и менее неоптимальные действия, пока его производительность не станет такой же хорошей, как у игрока. Аналогично, если уровень игры становится слишком простым, он будет выбирать действия с более высокими значениями, возможно, до тех пор, пока не достигнет оптимальной производительности.

Демаси и Круз [7] создали интеллектуальных агентов, использующих методы генетических алгоритмов для поддержания активности агентов, которые лучше всего соответствуют уровню пользователя. Онлайн-коэволюция используется для ускорения процесса обучения. Онлайн-коэволюция использует заранее определенные модели (агенты с хорошими генетическими характеристиками) в качестве родителей в генетических операциях, так что они влияют на эволюцию. Эти модели создаются путем автономного обучения или вручную, если генетическое кодирование агента достаточно просто.

Другая работа в области DGB основана на гипотезе о том, что взаимодействие игрока и противника, а не аудиовизуальные особенности, контекст или жанр игры, является свойством, которое определяет большинство качественных характеристик развлечения на компьютере. игра. [8] На основе этого фундаментального предположения была введена метрика для измерения развлекательной ценности игр хищник/жертва в реальном времени, которая была признана эффективной и надежной путем проверки на основе человеческого мнения.

Дальнейшие исследования Яннакакиса и Халлама [9] показали, что искусственные нейронные сети (ИНС) и нечеткие нейронные сети могут дать лучшую оценку удовлетворенности игрока, чем созданная человеком, при наличии соответствующих оценок сложности и любопытства (внутренние качественные факторы для увлекательного игрового процесса по Мэлоуну). [10] игры и данные о предпочтениях игроков. Подход к построению пользовательских моделей игрока игры, которые могут предсказать ответы на вопросы, какие варианты игры более или менее интересны, определяется как моделирование развлечений . Модель обычно строится с использованием методов машинного обучения , применяемых к параметрам игры, полученным в результате взаимодействия игрока с игрой. [11] игрока, и/или статистические характеристики физиологических сигналов записанные во время игры. [12] Этот базовый подход применим к множеству игр, как компьютерных, так и [9] и физ.

Предостережения

[ редактировать ]

Создать игру, которая была бы честной, но не была бы предсказуемой, сложно. [13] Эндрю Роллингс и Эрнест Адамс приводят пример игры, в которой сложность каждого уровня менялась в зависимости от того, как игрок выступал на нескольких предыдущих уровнях. Игроки заметили это и разработали стратегию преодоления сложных уровней, сознательно играя плохо на уровнях, предшествующих сложному. Авторы подчеркивают важность сокрытия существования адаптации сложности, чтобы игроки о ней не знали. [14]

Использование в видеоиграх

[ редактировать ]

Ранний пример балансировки сложности можно найти в Zanac , разработанном в 1986 году компанией Compile . В игре использовался уникальный адаптивный искусственный интеллект , в котором игра автоматически регулировала уровень сложности в соответствии с уровнем навыков игрока, скорострельностью и текущим защитным статусом / возможностями корабля. Раньше этого можно было найти в монетной игре Gun Fight от Midway 1975 года. Эта перестрелка «один на один» поможет любому игроку, в которого только что стреляли, путем размещения нового дополнительного объекта, такого как кактус, на его половине игрового поля, что облегчит ему возможность спрятаться.

Архона со временем медленно адаптируется, чтобы помочь игрокам победить его. Компьютерный противник [15] Даниэль Бунтен разработала MULE и Global Conquest , чтобы динамически сбалансировать игровой процесс между игроками. Случайные события настраиваются таким образом, чтобы игроку, занявшему первое место, никогда не везло, а игроку, занявшему последнее место, никогда не везло. [16]

В первой игре Crash Bandicoot и ее продолжениях используется система «динамической регулировки сложности», замедляющая препятствия, дающая дополнительные очки жизни и добавляющая очки продолжения в зависимости от количества смертей игрока. По словам ведущего дизайнера игры Джейсона Рубина , цель заключалась в том, чтобы «помочь более слабым игрокам, не меняя игру в пользу более сильных игроков». [17]

Видеоигра Flow была известна популяризацией применения умственного погружения (также называемого потоком ) в видеоиграх с помощью Flash-версии 2006 года. Дизайн видеоигры был основан на магистерской диссертации одного из ее авторов и позже был адаптирован для PlayStation 3.

В эпизодах SiN , выпущенных в 2006 году, использовалась «Система персональных испытаний», в которой количество и сила врагов, с которыми приходится сталкиваться, варьировались в зависимости от производительности игрока, чтобы обеспечить уровень сложности и темп прохождения игры. Разработчик Ritual Entertainment заявил, что игроки с совершенно разными уровнями способностей могут пройти игру с небольшим интервалом времени друг от друга. [18]

В 2005 году в Resident Evil 4 использовалась система под названием «Шкала сложности», неизвестная большинству игроков, поскольку единственное упоминание о ней было в Официальном руководстве по стратегии. Эта система оценивает производительность игрока по числовой шкале от 1 до 10 и регулирует как поведение/используемые атаки противника, так и урон/сопротивление врага в зависимости от производительности игрока (например, количество смертей, критические атаки и т. д.). Выбранные уровни сложности фиксируют игроков на определенном количестве; например, на нормальной сложности каждый начинает с 4-го уровня, может перейти на 2-й уровень, если успевает плохо, или до 7-го уровня, если все хорошо. Оценки между трудностями могут перекрываться. [19]

God Hand , видеоигра 2006 года, разработанная Clover Studio под руководством Resident Evil 4 режиссера Синдзи Миками и изданная Capcom для PlayStation 2 , включает в себя счетчик во время игрового процесса, который регулирует интеллект и силу врага. Этот счетчик увеличивается, когда игрок успешно уклоняется и атакует противников, и уменьшается, когда игрок получает удар. Счетчик разделен на четыре уровня, самый сложный уровень называется «Уровень DIE». В игре также есть три сложности: легкая сложность позволяет счетчику подняться только до уровня 2, а самая сложная фиксирует счетчик на уровне DIE. Эта система также предлагает большие награды за победу над врагами на более высоких уровнях.

В видеоигре 2008 года Left 4 Dead используется технология искусственного интеллекта, получившая название «AI Director». [20] AI Director используется для процедурного создания нового опыта для игроков при каждом запуске игры. Он отслеживает производительность отдельных игроков и то, насколько хорошо они работают вместе как группа, чтобы темп игры, определяя количество зомби, атакующих игрока, и места встреч с зараженными боссами на основе собранной информации. Режиссер также определяет, насколько быстро игроки продвигаются по уровню к каждой цели; если он обнаружит, что игроки оставались на одном месте слишком долго или не добились достаточного прогресса, он вызовет орду обычных зараженных, чтобы заставить всех присутствующих игроков и ИИ-персонажей покинуть свое текущее местоположение и бороться с новой угрозой. Помимо темпа, Режиссер также управляет некоторыми видео- и аудиоэлементами игры, чтобы создать атмосферу встречи с боссом или привлечь внимание игроков к определенной области. [21] Valve называет то, как работает режиссер, « процедурным повествованием », потому что вместо уровня сложности, который просто возрастает до постоянного уровня, ИИ анализирует, как игроки добились успеха в игре на данный момент, и пытается добавить последующие события, которые дадут им чувство повествования. [22]

В Madden NFL 09 представлен «Madden IQ», который начинается с дополнительной проверки знаний игроков о спорте и способностей в различных ситуациях. Затем оценка используется для управления сложностью игры. [23] [24]

В игре Fishdom в жанре «три в ряд» ограничение по времени корректируется в зависимости от того, насколько хорошо играет игрок. Ограничение по времени увеличивается, если игрок проваливает уровень, что позволяет любому игроку пройти уровень после нескольких попыток.

В видеоигре Homeworld 1999 года количество кораблей, с которых ИИ начинает каждую миссию, будет устанавливаться в зависимости от того, насколько мощным, по мнению игры, является флот игрока. Успешные игроки имеют больший флот, потому что они несут меньше потерь. Таким образом, игрок, добившийся успеха в ряде миссий, по ходу игры будет сталкиваться со все большими и новыми трудностями.

В Fallout: New Vegas и Fallout 3 по мере повышения уровня игрока появляются более сложные варианты врагов, враги с более высокими характеристиками и лучшим оружием или новые враги заменяют старых, чтобы сохранить постоянную сложность, которую можно повысить с помощью ползунка. , с бонусами опыта и наоборот в Fallout 3 . Это тоже можно сделать в Нью-Вегасе , но бонуса к увеличению или уменьшению сложности нет.

В серии Mario Kart во время гонок представлены предметы, которые помогают отдельному гонщику опередить своих противников. Эти предметы распределяются в зависимости от положения водителя, что является примером динамической балансировки сложности игры. Например, водитель, находящийся в нижней части поля, скорее всего, получит предмет, который резко увеличит его скорость или резко уменьшит скорость его противников, тогда как водитель, занимающий первое или второе место, может рассчитывать на получение таких предметов редко ( и, вероятно, получит более слабые предметы из игры). Компьютерные гонщики в игре также адаптируются к скорости игрока - замедляясь, когда ведущий игрок-гонщик слишком сильно отстает от лучшего компьютерного гонщика, и наоборот - когда конкурирующие компьютерные гонщики догоняют игрока первым.

Предполагаемое использование для формирования покупательского поведения игроков.

[ редактировать ]

В 2020 году коллективный иск в Окружном суде США Северного округа Калифорнии обвинил разработчика игр Electronic Arts в использовании запатентованной технологии динамической регулировки сложности в трех своих EA Sports франшизах — Madden NFL , FIFA и NHL — на всей территории США. все игры, начиная с версий 2017 года. Истцы утверждают, что EA использует эту технологию, чтобы подтолкнуть игроков к покупке большего количества ящиков с добычей в виде наборов игроков, заявляя, что она эффективно заставляет даже игроков с высокими показателями играть не так хорошо, как следовало бы.

В иске также отмечается, что EA использует эту технологию, не раскрывая ее игрокам, отмечая, что EA отрицала ее использование в прошлом в нескольких играх, упомянутых в иске. Когда EA попросили прокомментировать обвинения, представители EA назвали их «безосновательными» и «искажают наши игры». [25] [26] [27] В 2021 году истцы добровольно отказались от иска. [28]

См. также

[ редактировать ]
  1. ^ Перейти обратно: а б Кроуфорд, Крис (декабрь 1982 г.). «Техники и идеи проектирования компьютерных игр» . БАЙТ . п. 96 . Проверено 19 октября 2013 г.
  2. ^ Робин Ханике; В. Чепмен (2004). «ИИ для динамической регулировки сложности в играх». Проблемы в игровом искусственном интеллекте. Семинар AAAI . Сан-Хосе. стр. 91–96. {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  3. ^ Питер Спронк. Архивировано 10 декабря 2008 г. в Wayback Machine из Тилбургского центра творческих вычислений.
  4. ^ П. Спронк; И. Спринхейзен-Кайпер; Э. Постма (2004). «Масштабирование сложности игрового ИИ». Материалы 5-й Международной конференции по интеллектуальным играм и симуляции . Бельгия. стр. 33–37. {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  5. ^ Г. Андраде; Г. Рамальо; Х. Сантана; В. Коррубль (2005). «Выбор действий, чувствительных к вызовам: применение к балансировке игры». Материалы Международной конференции IEEE/WIC/ACM по технологии интеллектуальных агентов (IAT-05) . Компьень, Франция: Компьютерное общество IEEE. стр. 194–200.
  6. ^ Хомский, Ноам. (1965). Аспекты теории синтаксиса . Кембридж, Массачусетс: MIT Press.
  7. ^ П. Демаси; А. Круз (2002). «Онлайн-коэволюция для экшн-игр». Материалы 3-й Международной конференции по интеллектуальным играм и симуляции . Лондон. стр. 113–120. {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  8. ^ Г.Н. Яннакакис; Дж. Халлам (13–17 июля 2004 г.). «Развивающиеся противники интересных интерактивных компьютерных игр». Материалы 8-й Международной конференции по моделированию адаптивного поведения (SAB'04); От животных к аниматорам 8 . Лос-Анджелес, Калифорния, США: MIT Press. стр. 499–508.
  9. ^ Перейти обратно: а б Г.Н. Яннакакис; Дж. Халлам (18–20 мая 2006 г.). «На пути к созданию и улучшению развлечений в компьютерных играх». Материалы 4-й Греческой конференции по искусственному интеллекту, конспекты лекций по искусственному интеллекту . Ираклион, Крит, Греция: Springer-Verlag. стр. 432–442.
  10. ^ Мэлоун, ТВ (1981). «Что делает компьютерные игры интересными?». Байт . 6 : 258–277.
  11. ^ Пшеница, Д; Масек, М; Лам, CP; Хингстон, П. (2015). «Динамическая регулировка сложности в 2D-платформерах посредством агентной генерации процедурных уровней». Международная конференция IEEE 2015 по системам, человеку и кибернетике . стр. 2778–2785. дои : 10.1109/SMC.2015.485 . ISBN  978-1-4799-8697-2 . S2CID   19949213 .
  12. ^ Шанель, Гийом; Ребетез, Кирилл; Бетранкур, Мирей; Каламбур, Тьерри (2011). «Оценка эмоций по физиологическим сигналам для адаптации сложности игры». Транзакции IEEE о системах, человеке и кибернетике. Часть A: Системы и люди . 41 (6): 1052–1063. CiteSeerX   10.1.1.650.5420 . дои : 10.1109/TSMCA.2011.2116000 . S2CID   8681078 .
  13. ^ Барри, Тим (11 мая 1981 г.). «В поисках лучшей компьютерной игры» . Инфомир . стр. 11, 48. Архивировано из оригинала 14 февраля 2023 г. Проверено 17 апреля 2019 г.
  14. ^ А. Роллингс; Э. Адамс. «Геймплей» (PDF) . Эндрю Роллингс и Эрнест Адамс об игровом дизайне . Нью Райдерс Пресс. Архивировано из оригинала (PDF) 1 мая 2021 г. Проверено 23 декабря 2014 г.
  15. ^ Бейтман, Селби (ноябрь 1984 г.). «Free Fall Associates: Разработчики Архонта и Архонта II: Адепт» . Бюллетень Compute ! п. 54 . Проверено 6 июля 2014 г.
  16. ^ «Проектирование людей…» Мир компьютерных игр . Август 1992. стр. 48–54. Архивировано из оригинала 2 июля 2014 года . Проверено 3 июля 2014 г.
  17. ^ Гэвин, Энди (07 февраля 2011 г.). «Создание Crash Bandicoot – часть 6» . Все вещи Энди Гэвин. Архивировано из оригинала 7 июля 2011 г. Проверено 03 сентября 2016 г.
  18. ^ Монки (22 мая 2006 г.). «Монки берет интервью у Тома Мастейна из Ritual о SiN: Emergence» . Разве это не крутые новости . Архивировано из оригинала 23 августа 2006 г. Проверено 24 августа 2006 г.
  19. ^ Resident Evil 4: Официальное руководство по стратегии . Будущая пресса. 4 ноября 2005 г.
  20. ^ "Оставленные для мертвых" . Клапан . Архивировано из оригинала 27 марта 2009 г.
  21. ^ «Практический обзор Left 4 Dead» . Левый 4 Мертвый 411 . Архивировано из оригинала 20 февраля 2012 г. Проверено 16 марта 2009 г.
  22. ^ Ньюэлл, Гейб (21 ноября 2008 г.). «Гейб Ньюэлл пишет для Edge» . Edge-online.com. Архивировано из оригинала 9 сентября 2012 года . Проверено 22 ноября 2008 г.
  23. ^ « Предсезонный отчет Madden NFL 09», 25 апреля 2008 г. Архивировано из оригинала 14 февраля 2023 года . Проверено 25 мая 2015 г.
  24. ^ « Madden NFL 09 из первых рук», 22 мая 2008 г.» . Архивировано из оригинала 14 февраля 2023 года . Проверено 25 мая 2015 г.
  25. ^ Валентин, Ребекка. «EA столкнулась с еще одним коллективным иском, связанным с лутбоксами» . GamesIndustry.biz . Архивировано из оригинала 12 ноября 2020 г. Проверено 12 ноября 2020 г.
  26. ^ Хетфельд, Малинди (12 ноября 2020 г.). «Коллективный иск утверждает, что технология динамической сложности EA стимулирует трату лутбоксов» . ПК-геймер . Архивировано из оригинала 12 ноября 2020 года . Проверено 12 ноября 2020 г.
  27. ^ Макалун, Алисса. «Коллективный иск обвиняет EA в изменении сложности игры ради увеличения количества ящиков с добычей» . www.gamasutra.com . Архивировано из оригинала 11 ноября 2020 года . Проверено 12 ноября 2020 г.
  28. ^ Фицджеральд, Джек (11 февраля 2021 г.). «Уведомление о добровольном прекращении действия без ущерба» (PDF) . РЕКАП Архив .

Дальнейшее чтение

[ редактировать ]
  • Хунике, Робин (2005). «Аргументы в пользу динамической регулировки сложности в играх». Материалы Международной конференции ACM SIGCHI 2005 года по достижениям в области компьютерных развлекательных технологий . Нью-Йорк: ACM. стр. 429–433. дои : 10.1145/1178477.1178573 .
  • Бирн, Эдвард (2004). Дизайн игровых уровней . Чарльз Ривер Медиа. п. 74 . ISBN  1-58450-369-6 .
  • Чен, Дженова (2006). «Поток в играх» .
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: a0ff3ddd10eeec4ecbedaaf799620f05__1721862120
URL1:https://arc.ask3.ru/arc/aa/a0/05/a0ff3ddd10eeec4ecbedaaf799620f05.html
Заголовок, (Title) документа по адресу, URL1:
Dynamic game difficulty balancing - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)