• 제목/요약/키워드: Game Performance Evaluation

검색결과 66건 처리시간 0.024초

IOCP 게임 서버 및 게임 변수 난독화 프로그램 성능 평가 (Performance Evaluation of IOCP Game Server and Game Variable Obfuscation Program)

  • 차은상;김영식
    • 한국게임학회 논문지
    • /
    • 제19권6호
    • /
    • pp.71-82
    • /
    • 2019
  • 본 논문은 상용 게임 엔진인 언리얼 엔진이 지원하는 네트워킹 기능과 사용자 제작 IOCP 게임 서버의 성능을 게임 내의 변수 전달 관점에서 비교 분석하였다. 이를 위하여 언리얼 엔진 4를 기반으로 3D 게임과 IOCP 게임 서버를 자체 제작하였다. 그리고 코드 변조 게임 해킹 프로그램의 메모리 수정을 방지하기 위해서 게임 변수 난독화 프로그램에 관하여 고찰한다. 이를 위하여 언리얼 엔진 솔루션 인 SCUE4 안티-치트 Solution을 활용하여 메모리 수정을 하는 것을 방지하는 방법을 연구하고 성능 트레이드 오프에 대한 분석을 수행한다.

게임메카닉스 시뮬레이터 구현 (An Implementation of the Game Mechanics Simulator)

  • 장희동
    • 정보처리학회논문지B
    • /
    • 제12B권5호
    • /
    • pp.595-606
    • /
    • 2005
  • 개발비용이 70억원에서 200억원에 이르는 블록버스터 게임들이 자주 등장하면서 전반적으로 게임개발 규모가 급속히 커지고 있다. 이로 인해 게임의 기술요소들이 집중되어 있는 게임메카닉스의 품질관리가 중요하게 되었다. 본 논문에서는, 설계단계에서, 게임메카닉스의 공학적 품질 분석을 정확하고 경제적으로 할 수 있는 컴퓨터 시뮬레이터를 구현하여 제안하였다. 제안하는 시뮬레이터는 모델링을 편리하게 할 수 있도록, Petri net[7,8]과 Smalltalk[9]을 지원한다. 기존 방법들은, 실제의 게임플레이 환경을 고려하지 않는, 제한된 범위의 품질분석이 가능했지만, 제안하는 시뮬레이터는 플레이어의 게임플레이 행동패튼과 게임의 배경맵과 아이템 DB를 사용하기 때문에 그 평가 결과가 매우 실제적이다. 제안하는 시뮬레이터의 성능을 검증하기 위해 Dungeon & Dragon[13,14]의 게임메카닉스와 게임 배경맵과 아이템 DB를 사용하여 시뮬레이션을 총 80회 실시하였다. 실험 결과에 의하면, 제안하는 시뮬레이터는 무결성, 최적화, 밸런스 품질을 모두 평가할 수 있고, 다른 방법보다 품질평가 능력이 우수하였다.

멀티플레이 실시간 전략 시뮬레이션 게임을 위한 동기화 알고리즘들의 성능 평가 (Performance Evaluation of Synchronization Algorithms for Multi-play Real-Time Strategy Simulation Games)

  • 강민석;김경식;오삼권
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2008년도 추계학술발표대회
    • /
    • pp.1280-1283
    • /
    • 2008
  • MOG(Multiplayer Online Game)의 네트워크 성능은 네트워크 부하량과 사용자의 입력에 대한 반응속도로 측정 가능하다. 본 논문은 MOG의 일종인 실시간 전략 시뮬레이션 분야에서 게임 동기화에 이용되는 프레임 잠금(frame lock) 알고리즘과 게임 턴(game turn) 알고리즘을 소개하고 그 성능을 평가한 결과를 제시한다. 또한 동기화 알고리즘들을 쉽게 교체하여 효율적인 평가를 진행할 수 있는 MOG 서버 구조도 제시한다.

역전파 신경회로망과 강화학습을 이용한 2인용 장기보드게임 개발 (The Development of Two-Person Janggi Board Game Using Backpropagation Neural Network and Reinforcement Learning)

  • 박인규;정광호
    • 한국게임학회 논문지
    • /
    • 제1권1호
    • /
    • pp.61-67
    • /
    • 2001
  • This paper describes a program which learns good strategies for two-poison, deterministic, zero-sum board games of perfect information. The program learns by simply playing the game against either a human or computer opponent. The results of the program's teaming of a lot of games are reported. The program consists of search kernel and a move generator module. Only the move generator is modified to reflect the rules of the game to be played. The kernel uses a temporal difference procedure combined with a backpropagation neural network to team good evaluation functions for the game being played. Central to the performance of the program is the search procedure. This is a the capture tree search used in most successful janggi playing programs. It is based on the idea of using search to correct errors in evaluations of positions. This procedure is described, analyzed, tested, and implemented in the game-teaming program. Both the test results and the performance of the program confirm the results of the analysis which indicate that search improves game playing performance for sufficiently accurate evaluation functions.

  • PDF

기능성게임의 게임성과 효과성 분석 모델 사례 연구 (A case study of model for playability and effectiveness analysis of serious games)

  • 윤태복;김민철
    • 한국게임학회 논문지
    • /
    • 제18권6호
    • /
    • pp.111-120
    • /
    • 2018
  • 기능성게임은 단순히 재미를 즐기기 위한 수단이 아닌 교육, 의료, 홍보, 경영 등 다양한 분야에서 특별한 목적을 의도로 개발되어 활용된다. 이러한 기능성게임은 일반적인 게임이 가지는 게임성과 함께 특별한 목적에 부합하는 효과성을 가지고 있어야 한다. 하지만, 게임성과 효과성을 모두 나타내는 것은 어려운 일이다. 본 연구는 기능성게임의 게임성과 효과성을 살펴보고 우수한 기능성 게임의 모델을 찾는 방법을 제시하고자 한다. 실험에서는 상용화되어 서비스중인 몇몇 기능성게임과 일반게임의 게임성과 효과성을 살펴보았고, 의미 있는 결과를 확인하였다.

Comparison of Reinforcement Learning Activation Functions to Improve the Performance of the Racing Game Learning Agent

  • Lee, Dongcheul
    • Journal of Information Processing Systems
    • /
    • 제16권5호
    • /
    • pp.1074-1082
    • /
    • 2020
  • Recently, research has been actively conducted to create artificial intelligence agents that learn games through reinforcement learning. There are several factors that determine performance when the agent learns a game, but using any of the activation functions is also an important factor. This paper compares and evaluates which activation function gets the best results if the agent learns the game through reinforcement learning in the 2D racing game environment. We built the agent using a reinforcement learning algorithm and a neural network. We evaluated the activation functions in the network by switching them together. We measured the reward, the output of the advantage function, and the output of the loss function while training and testing. As a result of performance evaluation, we found out the best activation function for the agent to learn the game. The difference between the best and the worst was 35.4%.

고누게임에서 최선의 수를 구하기 위한 가중치의 평가 (Evaluation of weights to get the best move in the Gonu game)

  • 신용우
    • 한국게임학회 논문지
    • /
    • 제18권5호
    • /
    • pp.59-66
    • /
    • 2018
  • 이 논문에서는 전통게임중 하나인 고누게임에 대한 구현과 실험이 수행된다. 고누게임을 구현하기 위한 기법으로 미니맥스알고리즘이 적용되었다. 미니맥스 알고리즘에 게임을 구현하기 위해 평가함수를 제안하였다. 고누게임의 구현 이후 성능향상을 위해 알파베타 가지치기에 대한 알고리즘의 효율성을 분석한다. 게임의 승패에 영향을 미치는 최적의 분석을 위해 가중치 분석이 수행되었다. 가중치 분석을 위하여, 사람과 컴퓨터의 대국, 컴퓨터와 컴퓨터의 대국으로 실험하였다. 그 결과 최적의 공격과 방어를 할 수 있는 가중치를 제시하였다.

DEA 기반 온라인 게임 성과 관리 포트폴리오 모형 (A DEA-Based Portfolio Model for Performance Management of Online Games)

  • 전훈;이학연
    • 대한산업공학회지
    • /
    • 제39권4호
    • /
    • pp.260-270
    • /
    • 2013
  • This paper proposes a strategic portfolio model for managing performance of online games. The portfolio matrix is composed of two dimensions: financial performance and non-financial performance. Financial performance is measured by the conventional measure, average revenue per user (ARPU). In terms of non-financial performance, five non-financial key performance indicators (KPIs) that have been widely used in the online game industry are utilized: RU (Register User), VU (Visiting User), TS (Time Spent), ACU (Average Current User), MCU (Maximum Current User). Data envelopment analysis (DEA) is then employed to produce a single performance measure aggregating the five KPIs. DEA is a linear programming model for measuring the relative efficiency of decision making unit (DMUs) with multiple inputs and outputs. This study employs DEA as a tool for multiple criteria decision making (MCDM), in particular, the pure output model without inputs. Combining the two types of performance produces the online game portfolio matrix with four quadrants: Dark Horse, Stop Loss, Jack Pot, Luxury Goods. A case study of 39 online games provided by company 'N' is provided. The proposed portfolio model is expected to be fruitfully used for strategic decision making of online game companies.

Interior Mapping이 적용된 3D 게임의 렌더링 성능 평가 (Rendering Performance Evaluation of 3D Games with Interior Mapping)

  • 이재원;김영식
    • 한국게임학회 논문지
    • /
    • 제19권6호
    • /
    • pp.49-60
    • /
    • 2019
  • Interior Mapping은 효율적으로 그래픽 리소스를 최적화하는 방법들 중에 하나로 사용되어왔다. 본 논문에서는 보편화 된 게임엔진인 Unreal Engine 4를 활용하여 Interior Mapping을 적용했을 시 3D 게임 내의 성능 변화를 검증하기 위해 실제 모델링과 Interior Mapping의 렌더링 속도(FPS), 폴리곤 개수, 쉐이더 복잡도, 각각의 리소스 용량을 비교하였다. 또한, 효율적인 기술의 적용을 위해 큐브 맵 텍스처의 해상도와 세부 정보에 따른 성능 차이를 검증하였다.

ANN 기반 기보학습 및 Minimax 탐색 알고리즘을 이용한 오델로 게임 플레이어의 구현 (An Implementation of Othello Game Player Using ANN based Records Learning and Minimax Search Algorithm)

  • 전영진;조영완
    • 전기학회논문지
    • /
    • 제67권12호
    • /
    • pp.1657-1664
    • /
    • 2018
  • This paper proposes a decision making scheme for choosing the best move at each state of game in order to implement an artificial intelligence othello game player. The proposed decision making scheme predicts the various possible states of the game when the game has progressed from the current state, evaluates the degree of possibility of winning or losing the game at the states, and searches the best move based on the evaluation. In this paper, we generate learning data by decomposing the records of professional players' real game into states, matching and accumulating winning points to the states, and using the Artificial Neural Network that learned them, we evaluated the value of each predicted state and applied the Minimax search to determine the best move. We implemented an artificial intelligence player of the Othello game by applying the proposed scheme and evaluated the performance of the game player through games with three different artificial intelligence players.