• Title/Summary/Keyword: 멀티에이전트 모델

Search Result 106, Processing Time 0.031 seconds

RBFN-based Policy Model for Efficient Multiagent Reinforcement Learning (효율적인 멀티 에이전트 강화학습을 위한 RBFN 기반 정책 모델)

  • Gwon, Gi-Deok;Kim, In-Cheol
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2007.11a
    • /
    • pp.294-302
    • /
    • 2007
  • 멀티 에이전트 강화학습에서 중요한 이슈 중의 하나는 자신의 성능에 영향을 미칠 수 있는 다른 에이전트들이 존재하는 동적 환경에서 어떻게 최적의 행동 정책을 학습하느냐 하는 것이다. 멀티 에이전트 강화 학습을 위한 기존 연구들은 대부분 단일 에이전트 강화 학습기법들을 큰 변화 없이 그대로 적용하거나 비록 다른 에이전트에 관한 별도의 모델을 이용하더라도 현실적이지 못한 가정들을 요구한다. 본 논문에서는 상대 에이전트에 대한RBFN기반의 행동 정책 모델을 소개한 뒤, 이것을 이용한 강화 학습 방법을 설명한다. 본 논문에서는 제안하는 멀티 에이전트 강화학습 방법은 기존의 멀티 에이전트 강화 학습 연구들과는 달리 상대 에이전트의 Q 평가 함수 모델이 아니라 RBFN 기반의 행동 정책 모델을 학습한다. 또한, 표현력은 풍부하나 학습에 시간과 노력이 많이 요구되는 유한 상태 오토마타나 마코프 체인과 같은 행동 정책 모델들에 비해 비교적 간단한 형태의 행동 정책 모델을 이용함으로써 학습의 효율성을 높였다. 본 논문에서는 대표적이 절대적 멀티 에이전트 환경인 고양이와 쥐 게임을 소개한 뒤, 이 게임을 테스트 베드 삼아 실험들을 전개함으로써 제안하는 RBFN 기반의 정책 모델의 효과를 분석해본다.

  • PDF

Interoperable Model of Multi-Agent Using the Metadata of Naming-Agent (네이밍 에이전트의 메타데이터를 이용한 멀티 에이전트 시스템의 상호협력 모델)

  • Kim, Kwang-Myung;Ko, Hyun;Lee, Yeon-Sik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10e
    • /
    • pp.328-330
    • /
    • 2002
  • 존의 멀티 에이전트 모델에서는 이동 에이전트의 노드 이주 시 정보 검색의 적중률에 따라 우선 순위를 부여하여 정보 검색의 효율성을 높일 수 있는 방안이 요구된다. 따라서 본 논문에서는 이를 위하여 이동, 푸쉬 및 모니터링 에이전트 시스템을 등록하고 네이밍 서비스의 연결을 통해 이동 및 분산 객체의 투명성을 제공하는 네이밍 에이전트 시스템과 이동 에이전트의 효율적인 노드 이주를 지원하여 멀티 에이전트 시스템의 정보 수집 능력을 향상시키기 위한 메타데이터 구조를 정의하고, 이들을 이용한 멀티에이전트 시스템 내의 각각의 에이전트들간의 상호 협력 모델을 제시한다. 제안한 상호협력 모델은 분산 환경의 통합된 정보 서비스를 제공하고 정보 검색의 질을 향상시킨다.

  • PDF

Policy Modeling for Efficient Reinforcement Learning in Adversarial Multi-Agent Environments (적대적 멀티 에이전트 환경에서 효율적인 강화 학습을 위한 정책 모델링)

  • Kwon, Ki-Duk;Kim, In-Cheol
    • Journal of KIISE:Software and Applications
    • /
    • v.35 no.3
    • /
    • pp.179-188
    • /
    • 2008
  • An important issue in multiagent reinforcement learning is how an agent should team its optimal policy through trial-and-error interactions in a dynamic environment where there exist other agents able to influence its own performance. Most previous works for multiagent reinforcement teaming tend to apply single-agent reinforcement learning techniques without any extensions or are based upon some unrealistic assumptions even though they build and use explicit models of other agents. In this paper, basic concepts that constitute the common foundation of multiagent reinforcement learning techniques are first formulated, and then, based on these concepts, previous works are compared in terms of characteristics and limitations. After that, a policy model of the opponent agent and a new multiagent reinforcement learning method using this model are introduced. Unlike previous works, the proposed multiagent reinforcement learning method utilize a policy model instead of the Q function model of the opponent agent. Moreover, this learning method can improve learning efficiency by using a simpler one than other richer but time-consuming policy models such as Finite State Machines(FSM) and Markov chains. In this paper. the Cat and Mouse game is introduced as an adversarial multiagent environment. And effectiveness of the proposed multiagent reinforcement learning method is analyzed through experiments using this game as testbed.

A Naive Bayesian-based Model of the Opponent's Policy for Efficient Multiagent Reinforcement Learning (효율적인 멀티 에이전트 강화 학습을 위한 나이브 베이지만 기반 상대 정책 모델)

  • Kwon, Ki-Duk
    • Journal of Internet Computing and Services
    • /
    • v.9 no.6
    • /
    • pp.165-177
    • /
    • 2008
  • An important issue in Multiagent reinforcement learning is how an agent should learn its optimal policy in a dynamic environment where there exist other agents able to influence its own performance. Most previous works for Multiagent reinforcement learning tend to apply single-agent reinforcement learning techniques without any extensions or require some unrealistic assumptions even though they use explicit models of other agents. In this paper, a Naive Bayesian based policy model of the opponent agent is introduced and then the Multiagent reinforcement learning method using this model is explained. Unlike previous works, the proposed Multiagent reinforcement learning method utilizes the Naive Bayesian based policy model, not the Q function model of the opponent agent. Moreover, this learning method can improve learning efficiency by using a simpler one than other richer but time-consuming policy models such as Finite State Machines(FSM) and Markov chains. In this paper, the Cat and Mouse game is introduced as an adversarial Multiagent environment. And then effectiveness of the proposed Naive Bayesian based policy model is analyzed through experiments using this game as test-bed.

  • PDF

Coordination Model for Multi Agent System using Neural Networks in Supply Chain (공급망에서 신경망을 이용한 멀티에이전트 기반 협동 모델)

  • 이건수;김윈일;김민구
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2003.05a
    • /
    • pp.264-273
    • /
    • 2003
  • 인터넷의 발달로 전자 상거래는 오늘날 일상생활의 한 부분이 되었다. 그러나, 수많은 쇼핑몰들과 그 쇼핑몰들이 제공하는 다양한 제품들 속에서 소비자가 원하는 물건을 찾아내는 것은 점점 많은 시간과 노력이 필요하게 되었다. 본 논문에서는 멀티에이전트 시스템을 이용해 공급망(Supply Chain)에서 구매자의 요구에 부합하는 제품을 제공할 수 있는 생산자를 보다 쉽게 연결시켜주는 방법을 제안한다. 기존의 멀티 에이전트 기반 공급망에서 주로 사용되는 협동 전략인 Joint Intention Theory와 SharedPlan Theory, 이 논문에서 제안하는 신경망을 이용한 방법을 비교해, 신경망을 이용한 방법이 갖는 효율성을 알아보고, 신경망을 이용한 멀티에이전트 기반의 협등 모델을 제시하였다. 이 모델은 구매자가 제품을 선택할 때 사용하는 소비평가 기준의 가중치를 소비자로부터 받아들여 그 기준에 가장 부합하는 판매자를 신경망을 이용한 분류(classification)방법을 통해 찾아내고, 이렇게 선택된 생산자를 소비자에게 연결시켜준다.

  • PDF

Multi-Agent Reinforcement Learning Model based on Fuzzy Inference (퍼지 추론 기반의 멀티에이전트 강화학습 모델)

  • Lee, Bong-Keun;Chung, Jae-Du;Ryu, Keun-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.9 no.10
    • /
    • pp.51-58
    • /
    • 2009
  • Reinforcement learning is a sub area of machine learning concerned with how an agent ought to take actions in an environment so as to maximize some notion of long-term reward. In the case of multi-agent, especially, which state space and action space gets very enormous in compared to single agent, so it needs to take most effective measure available select the action strategy for effective reinforcement learning. This paper proposes a multi-agent reinforcement learning model based on fuzzy inference system in order to improve learning collect speed and select an effective action in multi-agent. This paper verifies an effective action select strategy through evaluation tests based on Robocup Keepaway which is one of useful test-beds for multi-agent. Our proposed model can apply to evaluate efficiency of the various intelligent multi-agents and also can apply to strategy and tactics of robot soccer system.

The Automatic Coordination Model for Multi-Agent System Using Learning Method (학습기법을 이용한 멀티 에이전트 시스템 자동 조정 모델)

  • Lee, Mal-Rye;Kim, Sang-Geun
    • The KIPS Transactions:PartB
    • /
    • v.8B no.6
    • /
    • pp.587-594
    • /
    • 2001
  • Multi-agent system fits to the distributed and open internet environments. In a multi-agent system, agents must cooperate with each other through a coordination procedure, when the conflicts between agents arise. Where those are caused by the point that each action acts for a purpose separately without coordination. But previous researches for coordination methods in multi-agent system have a deficiency that they cannot solve correctly the cooperation problem between agents, which have different goals in dynamic environment. In this paper, we suggest the automatic coordination model for multi-agent system using neural network and reinforcement learning in dynamic environment. We have competitive experiment between multi-agents that have complexity environment and diverse activity. And we analysis and evaluate effect of activity of multi-agents. The results show that the proposed method is proper.

  • PDF

A Study on for Multi-Agent System Development using Learning Method (학습기법을 이용한 멀티에이전트 시스템 개발에 관한 연구)

  • Lee, Hang-Ran;Park, Seng-Su;Lee, Mal-Rey
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.597-600
    • /
    • 2001
  • 멀티에이전트 시스템은 분산적이고 개방적인 인터넷 환경에 잘 부합된다. 멀티 에이전트 시스템에서는 각 에이전트들이 자신의 목적을 위해 행동하기 때문에 에이전트간 충돌이 발생하는 경우에 조정을 통해 협력할 수 있어야 한다. 그러나 기존의 멀티 에이전트 시스템에서의 에이전트 간 협력 방법에 관한 연구 방법들은 동적 환경에서 서로 다른 목적을 갖는 에이전트간의 협동 문제를 올바로 해결할 수 없다는 문제가 있었다. 본 논문에서는 신경망과 강화학습을 이용하여 목적 패턴을 정확히 결정할 수 없는 복잡하고 동적인 환경에 멀티 에이전트의 시스템 모델을 제안한다.

  • PDF

The Emotional Agent Model for Virtual Tutoring Environements (가상교육을 위한 감성 에이전트 모델)

  • 주문원;최영미
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2000.04a
    • /
    • pp.390-395
    • /
    • 2000
  • 가상공간에서 이루어지고 있는 교육용 컨텐츠에 감성적 에이전트를 적용하고자 하는 연구가 활발히 진행되고 있다. 이는 감성에 대한 인지과학적 분석이 기술적인 구현 잠재력을 갖고 있다는 사실과 가상교육 환경에 대한 사회적 요구가 증대하고 있기 때문일 것이다. 이 글에서는 감성적 에이전트가 가상 교육 환경에 위치할 경우 고려해야 할 기술적 문제를 개관하고 그 모델을 제시하고자한다.

  • PDF

A Study on Embodiment of Animated Character Agent on the Presentation (캐릭터 에이전트 기반 프리젠테이션 모델 구현)

  • 조은경;최영미;주문원
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.11b
    • /
    • pp.451-456
    • /
    • 2002
  • 본 연구에서는 캐릭터 에이전트 기반 프리젠테이션 모델을 설계하였다. 캐릭터는 인간 대화의 특성을 반영하여 직관적이고 효과적인 커뮤니케이션 방식을 가진다. 그 적용사례로 마이크로소프트 에이전트를 파워포인트에 구현하여 보다 자연스럽고 인간적이며 직관적인 상호작용을 보인다.

  • PDF