Equilibrio dinámico de la dificultad del juego - Dynamic game difficulty balancing

El equilibrio dinámico de la dificultad del juego ( DGDB ), también conocido como ajuste dinámico de la dificultad ( DDA ) o equilibrio dinámico del juego ( DGB ), es el proceso de cambiar automáticamente los parámetros, escenarios y comportamientos en un videojuego en tiempo real, según la información del jugador. habilidad, para evitar aburrir al jugador (si el juego es demasiado fácil) o frustrar (si es demasiado difícil). Sin embargo, permitir que los jugadores de la IA rompan las reglas a las que están sujetos los jugadores puede hacer que la IA haga trampas; por ejemplo, los jugadores de la IA pueden tener velocidad ilimitada en los juegos de carreras para permanecer cerca del jugador humano. El objetivo del equilibrio dinámico de la dificultad es mantener al usuario interesado desde el principio hasta el final, proporcionando un buen nivel de desafío.

Tradicionalmente, la dificultad del juego aumenta de manera constante a lo largo del curso del juego (ya sea de forma lineal suave o mediante pasos representados por niveles). Los parámetros de este aumento (tasa, frecuencia, niveles iniciales) solo se pueden modular al comienzo de la experiencia seleccionando un nivel de dificultad . Aún así, esto puede conducir a una experiencia frustrante tanto para los jugadores experimentados como para los inexpertos, ya que intentan seguir un aprendizaje preseleccionado o las curvas de dificultad plantean muchos desafíos para los desarrolladores de juegos; como resultado, este método de juego no está muy extendido.

Elementos dinámicos del juego

Algunos elementos de un juego que pueden cambiarse mediante el equilibrio dinámico de la dificultad incluyen:

  • Velocidad de los enemigos
  • Salud de los enemigos
  • Frecuencia de enemigos
  • Frecuencia de power-ups
  • Poder del jugador
  • Poder de los enemigos
  • Duración de la experiencia de juego

Enfoques

[A] s los jugadores trabajan con un juego, sus puntuaciones deben reflejar una mejora constante. Los principiantes deberían poder progresar, las personas intermedias deberían obtener puntuaciones intermedias y los jugadores experimentados deberían obtener puntuaciones altas ... Idealmente, la progresión es automática; los jugadores comienzan en el nivel de principiante y las funciones avanzadas se incorporan a medida que la computadora reconoce el juego competente.

-  Chris Crawford , 1982

En la literatura se encuentran diferentes enfoques para abordar el equilibrio dinámico de la dificultad del juego. En todos los casos, es necesario medir, implícita o explícitamente, la dificultad a la que se enfrenta el usuario en un momento determinado. Esta medida puede realizarse mediante una función heurística , que algunos autores denominan "función de desafío". Esta función asigna un estado de juego dado a un valor que especifica qué tan fácil o difícil se siente el juego para el usuario en un momento específico. Ejemplos de heurísticas utilizadas son:

  • La tasa de tiros o aciertos exitosos.
  • El número de piezas ganadas y perdidas
  • Puntos de vida
  • Evolución
  • Es hora de completar alguna tarea

... o cualquier métrica utilizada para calcular la puntuación de un juego . Chris Crawford dijo: "Si tuviera que hacer un gráfico de la puntuación de un jugador típico en función del tiempo que pasa dentro del juego, ese gráfico debería mostrar una curva con una pendiente suave y constante hacia arriba. Describo un juego como si tuviera una curva monótona positiva". . Los juegos sin tal curva parecen "demasiado difíciles o demasiado fáciles", dijo.

El enfoque de Hunicke y Chapman controla la configuración del entorno del juego para hacer que los desafíos sean más fáciles o más difíciles. Por ejemplo, si el juego es demasiado difícil, el jugador obtiene más armas, recupera puntos de vida más rápido o se enfrenta a menos oponentes. Aunque este enfoque puede ser eficaz, su aplicación puede dar lugar a situaciones inverosímiles. Un enfoque sencillo es combinar esa "manipulación de parámetros" con algunos mecanismos para modificar el comportamiento de los personajes no jugadores (personajes controlados por la computadora y generalmente modelados como agentes inteligentes ). Este ajuste, sin embargo, debe hacerse con moderación, para evitar el efecto de 'goma elástica'. Un ejemplo de este efecto en un juego de carreras implicaría que los vehículos del conductor de la IA se volvieran significativamente más rápidos cuando están detrás del vehículo del jugador, y significativamente más lentos cuando están delante, como si los dos vehículos estuvieran conectados por una banda de goma grande .

Una implementación tradicional de la inteligencia de un agente de este tipo es usar reglas de comportamiento, definidas durante el desarrollo del juego . Una regla típica en un juego de lucha diría "golpear al oponente si es accesible, perseguirlo de lo contrario". Se puede extender este enfoque para incluir el modelado del oponente a través de Spronck et al. Scripting dinámico , que asigna a cada regla una probabilidad de ser elegida. Los pesos de las reglas se pueden actualizar dinámicamente a lo largo del juego, de acuerdo con las habilidades del oponente, lo que lleva a la adaptación al usuario específico. Con un mecanismo simple, se pueden elegir reglas que generen tácticas que no son ni demasiado fuertes ni demasiado débiles para el jugador actual.

Andrade y col. Divida el problema DGB en dos dimensiones: competencia (aprender lo mejor posible) y desempeño (actuar tan bien como sea necesario). Esta dicotomía entre competencia y desempeño es bien conocida y estudiada en lingüística , como propone Noam Chomsky . Su enfoque enfrenta ambas dimensiones con aprendizaje reforzado (RL). La formación fuera de línea se utiliza para iniciar el proceso de aprendizaje. Esto se puede hacer dejando que el agente juegue contra sí mismo (autoaprendizaje), otros agentes preprogramados o jugadores humanos. Luego, el aprendizaje en línea se utiliza para adaptar continuamente esta inteligencia inicialmente incorporada a cada oponente humano específico, con el fin de descubrir la estrategia más adecuada para jugar contra él o ella. En cuanto al desempeño, su idea es encontrar una política adecuada para elegir acciones que proporcionen un buen equilibrio de juego, es decir, acciones que mantengan tanto al agente como al jugador humano aproximadamente al mismo nivel de desempeño. Según la dificultad a la que se enfrenta el jugador, el agente elige acciones con un rendimiento esperado alto o bajo. Para una situación dada, si el nivel de juego es demasiado difícil, el agente no elige la acción óptima (proporcionada por el marco de RL), sino que elige cada vez menos acciones subóptimas hasta que su rendimiento es tan bueno como el del jugador. Del mismo modo, si el nivel de juego se vuelve demasiado fácil, elegirá acciones cuyos valores sean más altos, posiblemente hasta alcanzar el rendimiento óptimo.

Demasi y Cruz construyeron agentes inteligentes empleando técnicas de algoritmos genéticos para mantener vivos a los agentes que mejor se ajustan al nivel de usuario. La coevolución en línea se utiliza para acelerar el proceso de aprendizaje. La coevolución en línea utiliza modelos predefinidos (agentes con buenas características genéticas) como padres en las operaciones genéticas, por lo que la evolución está sesgada por ellos. Estos modelos se construyen mediante entrenamiento fuera de línea o manualmente, cuando la codificación genética del agente es lo suficientemente simple.

Otro trabajo en el campo de DGB se basa en la hipótesis de que la interacción jugador-oponente, más que las características audiovisuales, el contexto o el género del juego, es la propiedad que aporta la mayoría de las características de calidad del entretenimiento en una computadora. juego. Sobre la base de esta suposición fundamental, se introdujo una métrica para medir el valor de entretenimiento en tiempo real de los juegos de depredadores / presas, y se estableció como eficiente y confiable mediante la validación contra el juicio humano.

Otros estudios de Yannakakis y Hallam han demostrado que las redes neuronales artificiales (ANN) y las redes neuronales difusas pueden extraer un mejor estimador de la satisfacción del jugador que uno diseñado por humanos, dados los estimadores apropiados del desafío y la curiosidad (factores cualitativos intrínsecos para un juego atractivo según a Malone) del juego y datos sobre las preferencias de los jugadores humanos. El enfoque de construir modelos de usuario del jugador de un juego que pueden predecir las respuestas a qué variantes del juego son más o menos divertidas se define como modelado de entretenimiento . El modelo generalmente se construye utilizando técnicas de aprendizaje automático aplicadas a los parámetros del juego derivados de la interacción jugador-juego y / o características estadísticas de las señales fisiológicas del jugador registradas durante el juego. Este enfoque básico es aplicable a una variedad de juegos, tanto físicos como informáticos.

Advertencias

Diseñar un juego que sea justo sin ser predecible es difícil. Andrew Rollings y Ernest Adams citan un ejemplo de un juego que cambió la dificultad de cada nivel según el desempeño del jugador en varios niveles anteriores. Los jugadores notaron esto y desarrollaron una estrategia para superar niveles desafiantes jugando deliberadamente mal en los niveles anteriores al difícil. Los autores destacan la importancia de encubrir la existencia de la dificultad de adaptación para que los jugadores no se den cuenta.

Usos en videojuegos recientes

Archon ' opositor de la computadora s se adapta lentamente con el tiempo a los jugadores ayudar a derrotar a él. Danielle Bunten diseñó tanto MULE como Global Conquest para equilibrar dinámicamente el juego entre jugadores. Los eventos aleatorios se ajustan para que el jugador en primer lugar nunca tenga suerte y el jugador en último lugar nunca tenga mala suerte.

El primer juego de Crash Bandicoot y sus secuelas utilizan un sistema de "Ajuste dinámico de dificultad", que ralentiza los obstáculos, otorga puntos de golpe adicionales y agrega puntos continuos de acuerdo con el número de muertes del jugador. Según el diseñador principal del juego, Jason Rubin , el objetivo era "ayudar a los jugadores más débiles sin cambiar el juego por los mejores".

El videojuego Flow se destacó por popularizar la aplicación de la inmersión mental (también llamada flow ) a los videojuegos con su versión Flash de 2006. El diseño del videojuego se basó en la tesis de maestría de uno de sus autores, y luego fue adaptado a PlayStation 3.

Los episodios de SiN lanzados en 2006 presentaban un "Sistema de desafío personal" en el que el número y la resistencia de los enemigos enfrentados variarían según el rendimiento del jugador para garantizar el nivel de desafío y el ritmo de progresión a lo largo del juego. El desarrollador, Ritual Entertainment , afirmó que los jugadores con niveles de habilidad muy diferentes podrían terminar el juego dentro de un pequeño intervalo de tiempo entre ellos.

En 2005, Resident Evil 4 empleó un sistema llamado "Escala de dificultad", desconocido para la mayoría de los jugadores, ya que la única mención de este fue en la Guía de estrategia oficial. Este sistema califica el desempeño del jugador en una escala numérica del 1 al 10, y ajusta tanto el comportamiento / ataques del enemigo utilizados como el daño / resistencia del enemigo según el desempeño del jugador (como muertes, ataques críticos, etc.). Los niveles de dificultad seleccionados bloquean a los jugadores en un cierto número; por ejemplo, en dificultad normal, uno comienza en el grado 4, puede bajar al grado 2 si lo hace mal, o al grado 7 si lo hace bien. Los grados entre las dificultades pueden superponerse.

God Hand , un videojuego de 2006 desarrollado por Clover Studio , dirigido por el director de Resident Evil 4 , Shinji Mikami , y publicado por Capcom para PlayStation 2 , cuenta con un medidor durante el juego que regula la inteligencia y la fuerza del enemigo. Este medidor aumenta cuando el jugador esquiva y ataca con éxito a los oponentes, y disminuye cuando el jugador es golpeado. El medidor está dividido en cuatro niveles, con el nivel más difícil llamado "Nivel DIE". El juego también tiene tres dificultades, con la dificultad fácil que solo permite que el medidor ascienda al nivel 2, mientras que la dificultad más difícil bloquea el medidor en el nivel DIE. Este sistema también ofrece mayores recompensas al derrotar enemigos en niveles más altos.

El videojuego de 2008 Left 4 Dead utiliza una nueva tecnología de inteligencia artificial denominada "The AI ​​Director". El director de IA se utiliza para generar de forma procedimental una experiencia diferente para los jugadores cada vez que se juega el juego. Supervisa el rendimiento de los jugadores individuales y qué tan bien trabajan juntos como grupo para marcar el ritmo del juego, determinando la cantidad de zombis que atacan al jugador y la ubicación de los encuentros infectados por el jefe según la información recopilada. El Director también determina qué tan rápido se mueven los jugadores a través del nivel hacia cada objetivo; Si detecta que los jugadores han permanecido en un lugar durante demasiado tiempo o no están progresando lo suficiente, convocará una horda de infectados comunes para obligar a los jugadores y Personajes de IA presentes a moverse desde su ubicación actual y combatir la nueva amenaza. Además del ritmo, el Director también controla algunos elementos de video y audio del juego para crear un ambiente para un encuentro con un jefe o para llamar la atención de los jugadores hacia un área determinada. Valve llama a la forma en que el Director está trabajando " narrativa de procedimiento " porque en lugar de tener un nivel de dificultad que simplemente aumenta a un nivel constante, la IA analiza cómo les fue a los jugadores en el juego hasta ahora e intenta agregar eventos posteriores que darían les da un sentido narrativo.

Madden NFL 09 presenta "Madden IQ", que comienza con una prueba opcional de los conocimientos de los jugadores sobre el deporte y sus habilidades en diversas situaciones. Luego, la puntuación se utiliza para controlar la dificultad del juego.

En el juego de combinar 3 Fishdom , el límite de tiempo se ajusta en función de lo bien que se desempeñe el jugador. El límite de tiempo aumenta si el jugador falla en un nivel, lo que hace posible que cualquier jugador supere un nivel después de algunos intentos.

En el videojuego Homeworld de 1999 , la cantidad de naves con las que comienza la IA en cada misión se establecerá dependiendo de cuán poderosa considere que es la flota del jugador. Los jugadores exitosos tienen flotas más grandes porque sufren menos pérdidas. De esta manera, un jugador que tenga éxito en una serie de misiones comenzará a enfrentarse a más desafíos a medida que avanza el juego.

En Fallout: New Vegas y Fallout 3 , a medida que el jugador aumenta de nivel, variantes de enemigos más difíciles, enemigos con estadísticas más altas y mejores armas, o nuevos enemigos reemplazarán a los más antiguos para mantener una dificultad constante, que se puede aumentar usando un control deslizante. , con bonificaciones de experiencia y viceversa en Fallout 3 . Esto también se puede hacer en New Vegas , pero no hay bonificación por aumentar o disminuir la dificultad.

La serie Mario Kart presenta elementos durante las carreras que ayudan a un conductor individual a adelantarse a sus oponentes. Estos elementos se distribuyen en función de la posición del conductor de una manera que es un ejemplo de equilibrio dinámico de la dificultad del juego. Por ejemplo, es probable que un conductor cerca del final del campo obtenga un elemento que aumente drásticamente su velocidad o disminuya drásticamente la velocidad de sus oponentes, mientras que un conductor en primer o segundo lugar puede esperar obtener este tipo de elementos en raras ocasiones ( y probablemente recibirá los elementos más débiles del juego). Los corredores de computadora del juego también se adaptan a la velocidad del jugador, disminuyendo la velocidad cuando el corredor líder está demasiado atrás del mejor corredor de computadora, y viceversa, ya que los corredores de computadora rivales alcanzan al jugador en primer lugar.

Un ejemplo temprano de equilibrio de dificultad se puede encontrar en Zanac , desarrollado en 1986 por Compile . El juego presentaba una inteligencia artificial adaptativa única , en la que el juego ajustaba automáticamente el nivel de dificultad de acuerdo con el nivel de habilidad del jugador, la velocidad de disparo y el estado / capacidad defensiva actual del barco. Más temprano que esto se puede encontrar en el juego de monedas Gun Fight de 1975 de Midway. Este shoot-em-up cabeza a cabeza ayudaría a cualquier jugador que acabara de recibir un disparo, colocando un objeto adicional nuevo, como una planta de cactus, en su mitad del campo de juego para que sea más fácil para ellos esconderse.

Presunto uso para moldear el comportamiento de compra de los jugadores

Una demanda colectiva en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California acusó al desarrollador de juegos Electronic Arts de usar su tecnología patentada de Ajuste de Dificultad Dinámico en tres de sus franquicias de EA Sports : Madden NFL , FIFA y NHL , en todos los juegos. de regreso a las versiones de 2017. Los demandantes dicen que EA usa esta tecnología para empujar a los jugadores a comprar más cajas de botín en forma de paquetes de jugador, diciendo que efectivamente hace que incluso los jugadores con altas estadísticas no jueguen tan bien como deberían.

La demanda también señala que EA usa esta tecnología sin revelarla a los jugadores, y señala que EA ha negado su uso en el pasado en varios juegos mencionados en la demanda. Cuando se le pidió un comentario sobre las acusaciones, EA calificó las afirmaciones como "infundadas" y que "tergiversan nuestros juegos".

Ver también

Referencias

Otras lecturas

enlaces externos