• Title/Summary/Keyword: 상태공간

Search Result 2,638, Processing Time 0.03 seconds

Predicate Abstraction of Java Program for Model Checking (모델 체킹을 위한 자바프로그램의 술어추상화)

  • Lee, Jung-Rim;Lee, Tae-Hoo;Kwon, Gi-Hwon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.325-327
    • /
    • 2005
  • 모델 체킹은 시스템이 올바르게 동작하는 지를 자동으로 검증해주는 기법이다. 지금까지 모델 체킹은 방법의 특성상 상태폭발문제 때문에 작은 규모의 상태공간을 갖는 하드웨어나 프로토콜 검증에 주로 사용되어져 왔다. 그러나 최근에는 상태폭발문제를 다루기 위한 연구와 술어추상화 등과 같은 추상화기술의 발달로, 다를 수 있는 상태공간의 크기가 증가하고 정리증명기의 성능이 향상됨에 따라 소프트웨어 자체의 논리적 오류를 검증하려는 움직임이 활발하다. 일반적으로 소프트웨어 검증을 위해 추상화-모델 체킹-추상화 개선의 3단계 프로세스를 사용하는데 주로 C프로그램에 대해서만 이루어져 왔다. 우리는 이 프로세스를 자바프로그램에 적용하고 자동으로 자바프로그램을 이진프로그램으로 변환하는 술어추상화 모듈을 개발하였다. 이 모듈은 우리가 개발한 자바 모델 체커의 front-end부분이다. 본 논문에서는 자바프로그램에 대한 주요 추상화 알고리즘을 보이고 특정 자바프로그램의 안전성과 궁극성을 검증한다.

  • PDF

A Balanced Model Reduction for Linear Delayed Systems (시간지연시스템의 균형화된 모델차수 축소)

  • 유석환
    • Journal of the Institute of Electronics Engineers of Korea SC
    • /
    • v.40 no.5
    • /
    • pp.326-332
    • /
    • 2003
  • This paper deals with a model reduction for linear systems with time varying delayed states. A generalized controllability and observability gramians are defined and obtained by solving linear matrix inequalities. Using the generalized controllability and observability gramians, the balanced state space equation is realized. The reduced model can be obtained by truncating states in the balanced realization and the upper bound of model approximation error is also presented. In order to demonstrate efficacy of the suggested method, a numerical example is performed.

A redistribution model for spatially dependent Parrondo games (공간의존 파론도 게임의 재분배 모형)

  • Lee, Jiyeon
    • Journal of the Korean Data and Information Science Society
    • /
    • v.27 no.1
    • /
    • pp.121-130
    • /
    • 2016
  • An ansemble of N players arranged in a circle play a spatially dependent Parrondo game B. One player is randomly selected to play game B, which is based on the toss of a biased coin, with the amount of the bias depending on states of the selected player's two nearest neighbors. The player wins one unit with heads and loses one unit with tails. In game A' the randomly chosen player transfers one unit of capital to another player who is randomly chosen among N - 1 players. Game A' is fair with respect to the ensemble's total profit. The games are said to exhibit the Parrondo effect if game B is losing and the random mixture game C is winning and the reverse-Parrondo effect if game B is winning and the random mixture game C is losing. We compute the exact mean profits for games B and C by applying a state space reduction method with lumped Markov chains and we sketch the Parrondo and reverse-Parrondo regions for $3{\leq}N{\leq}6$.

이동로봇의 동시간 위치인식 및 지도작성(SLAM)

  • Im, Hyeon;Lee, Yeong-Sam
    • ICROS
    • /
    • v.15 no.2
    • /
    • pp.17-25
    • /
    • 2009
  • 본 고에서는 이동로봇의 동시간 위치인식 및 지도작성(Simultaneous Localizaton and Mapping;SLAM) 기술에 대하여 다룬다. 이동로봇의 SLAM을 위하여, 로봇과 랜드마크의 상태를 상태공간 영역에서 같이 기술하는 방법과 센서로부터 입력된 정보를 이용하여 로봇이 상태를 추정하는 기법을 소개한다. 실제 로봇을 통한 예제를 통하여 로봇의 상태와 특징점을 동시에 추정하는 것을 보여준다.

Q-learning Using Influence Map (영향력 분포도를 이용한 Q-학습)

  • Sung Yun-Sick;Cho Kyung-Eun
    • Journal of Korea Multimedia Society
    • /
    • v.9 no.5
    • /
    • pp.649-657
    • /
    • 2006
  • Reinforcement Learning is a computational approach to learning whereby an agent take an action which maximize the total amount of reward it receives among possible actions within current state when interacting with a uncertain environment. Q-learning, one of the most active algorithm in Reinforcement Learning, is consist of rewards which is obtained when an agent take an action. But it has the problem with mapping real world to discrete states. When state spaces are very large, Q-learning suffers from time for learning. In constant, when the state space is reduced, many state spaces map to single state space. Because an agent only learns single action within many states, an agent takes an action monotonously. In this paper, to reduce time for learning and complement simple action, we propose the Q-learning using influence map(QIM). By using influence map and adjacent state space's learning result, an agent could choose proper action within uncertain state where an agent does not learn. When this paper compares simulation results of QIM and Q-learning, we show that QIM effects as same as Q-learning even thought QIM uses 4.6% of the Q-learning's state spaces. This is because QIM learns faster than Q-learning about 2.77 times and the state spaces which is needed to learn is reduced, so the occurred problem is complemented by the influence map.

  • PDF

Mobile Agent based Checkpointing Coordination Scheme (이동 에이전트 기반의 검사점 조정 기법)

  • Park, Taesoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.57-60
    • /
    • 2013
  • 분산 컴퓨팅에 참여하는 프로세스들의 일관성 있는 실행 상태를 저장하여, 특정 시스템 사이트의 결함 발생 시 프로세스들을 일관성 있는 상태에서 복구 시키는 방법을 검사점 설정을 이용한 롤백 복구 기법이라고 한다. 이러한 복구를 위해서는 일관된 검사점 설정이 중요하며, 일관된 복구를 위한 검사점 조정 기법 중 하나가 약조정 기법이다. 본 논문에서는 약조정 기법의 문제점 중 하나인 검사점 저장 공간 문제를 해결하기 위해, 검사점 저장 공간을 안정된 저장 공간과 임시 저장 공간으로 나누고, 이동 에이전트를 이용해 불필요한 검사점을 찾아내서 주기적으로 삭제하여 효율적으로 저장 공간을 관리하는 방법을 제안한다.

Improvement of Mean Field Annealing Algorithm and its Application (평균장 어닐링 알고리즘의 개선 및 응용 연구)

  • Kwon, Oh-Jun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.585-588
    • /
    • 2001
  • 현실 세계의 많은 조합 최적화 문제들은 변수들이 강하게 상호 작용함에 따라 만족해야하는 목표 함수가 매우 복잡하게 주어진다. 복잡한 목표 함수에는 많은 지역 최적해들이 존재하기 때문에 전역 최적해를 얻는 것은 엄청난 시간을 필요로 한다. 이러한 문제에 대해 해를 찾는 방법의 하나로 평균장 어닐링 알고리즘(MFA)이 있다. 본 논문에서는 기존의 이진 상태 공간에만 적용할 수 있었던 평균장 어닐링 알고리즘을 연속 상태 공간을 갖는 조합 최적화 문제에 적용할 수 있도록 알고리즘을 수정, 제안한다. 그리고 제안된 알고리즘을 제한된 연속 상태 공간을 가지는 단순 회귀 모델의 D-최적 설계에 적용하였다. 실험결과 제안된 알고리즘이 시뮬레이티드 어닐링 알고리즘(SSA)과 비교하여 비슷한 수준의 결과를 내면서도 계산 속도면에서는 수 배 정도의 빠른 좋은 결과를 얻었다.

  • PDF