• Title/Summary/Keyword: multiagent

Search Result 92, Processing Time 0.027 seconds

Multagent Control Strategy Using Reinforcement Learning (강화학습을 이용한 다중 에이전트 제어 전략)

  • Lee, Hyong-Ill;Kim, Byung-Cheon
    • The KIPS Transactions:PartB
    • /
    • v.10B no.3
    • /
    • pp.249-256
    • /
    • 2003
  • The most important problems in the multi-agent system are to accomplish a goal through the efficient coordination of several agents and to prevent collision with other agents. In this paper, we propose a new control strategy for succeeding the goal of the prey pursuit problem efficiently. Our control method uses reinforcement learning to control the multi-agent system and consider the distance as well as the space relationship between the agents in the state space of the prey pursuit problem.

Design of a Multiagent-based Comparative Shopping System (멀티 에이전트 기반 비교 쇼핑 시스템 설계)

  • 신주리;한상훈;이건명
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.122-124
    • /
    • 2000
  • 이 논문에서는 보다 효과적이고 편리한 서비스를 제공할 수 잇는 전자상거래를 위한 다중 에이전트 기반의 확장된 비교 쇼핑 시스템을 제안한다. 이 시스템은 웹 크로울링(web crawling)을 통해 비교 쇼핑 시스템의 대상이 되는 웹사이트들의 페이지 추출 정보를 입수한다. 각 쇼핑 사이트에서는 정보 추출을 위한 중심이 되는 랩퍼(wraper) 기술은 먼저 정보가 있는 페이지를 가려내고, 정보가 있다고 판명되는 페이지들에서 상품 정보의 위치 즉, 반복되는 패턴(pattern)을 추출하여 필요한 상품 기술 단위 정보를 뽑아내는 학습 알고리즘이며, 각 사이트에 맞게 만들어진 랩퍼 에이전트(wrapper agent)에 대해 유효성을 검사하는 방법론을 제시한다. 또한, 학습 시 필요한 지식(knowledge)으로서의 디렉토리(directory) 구성은 미리 만들어진 표준 카테고리(category)와 용어(terminology) 존재하에 제한적이나마 새로운 디렉토리 요소에 대해 자동으로 확장할 수 있는 방법론을 제안한다.

  • PDF

A Workflow-Based Multiagent System for Integrating Bioinformatics Tools (바이오인포매틱스 도구 통합을 위한 워크플로우 기반의 멀티에이전트 시스템)

  • 손봉기;이건명;황경순;김영창
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10b
    • /
    • pp.850-852
    • /
    • 2003
  • 이 논문에서는 여러 가지 도구를 논리적인 순서로 사용함으로써 이루어지는 작업을 워크플로우로 보고, 이러한 관점에서 바이오인포매틱스 도구를 통합하는 새로운 멀티에이전트 시스템을 제안한다. 제안한 시스템은 기존의 도구를 랩퍼 에이전트로 구현하고, 에이전트간의 통신은 XML 형식의 메시지로 이루어진다. 수신 에이전트는 송신 에이전트가 전송하는 정보를 명시적으로 알리지 않고도 메시지로부터 필요한 정보를 추출할 수 있다. 제안한 시스템의 이러한 특징은 바이오인포매틱스 도구와 데이터베이스의 통합을 용이하게 한다. 또한, 제안한 시스템에서는 워크플로우를 여러 가지 제어 구조를 이용하여 정의할 수 있으며. 워크플로우 진행을 모니터링할 수 있는 기능을 제공한다. 제안한 시스템의 가용성을 보이기 위해 박테리아 Sphingomonas Chungbukensis DJ77 의 유전자 주해(gene annotation) 작업에 제안한 시스템을 적용하여 구현하고 있다.

  • PDF

The Latest Trend and Extension a Direction of Intrusion Detection System Based on Agent (에이전트 기반 침입탐지시스템의 최근동향과 발전방향)

  • Kwon, Min-Gum;Lee, Jung-Seuk;Yoo, Kee-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04b
    • /
    • pp.911-914
    • /
    • 2002
  • 최근 들어 네트워크 보안 사고가 잦아지고 있다. 이는 내부/외부로부터 정보시스템에 대한 불법침입과 공격시도 증가로 알려지고 있다. 이러한 이유는 기존의 침입탐지시스템의 신뢰도와 성능 저하를 야기시켰다. 에이전트는 자율성과 독립적 특성을 갖는다. 에이전트 종류는 Mobile agent, Multiagent, Assistant agent, User Interface agent, Intelligent agent가 있다. 기존의 침입탐지시스템은 실시간 침입탐지를 제공하지 못한다. 그래서 본 논문에서는 에이전트를 기반으로 하는 다양한 침입 패턴에 대응하는 침입탐지시스템의 연구 결과들을 분석하여 새로운 침입 탐지시스템 설계의 발판을 제공한다.

  • PDF

RBFN-based Policy Model for Efficient Multiagent Reinforcement Learning (효율적인 멀티 에이전트 강화학습을 위한 RBFN 기반 정책 모델)

  • Gwon, Gi-Deok;Kim, In-Cheol
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2007.11a
    • /
    • pp.294-302
    • /
    • 2007
  • 멀티 에이전트 강화학습에서 중요한 이슈 중의 하나는 자신의 성능에 영향을 미칠 수 있는 다른 에이전트들이 존재하는 동적 환경에서 어떻게 최적의 행동 정책을 학습하느냐 하는 것이다. 멀티 에이전트 강화 학습을 위한 기존 연구들은 대부분 단일 에이전트 강화 학습기법들을 큰 변화 없이 그대로 적용하거나 비록 다른 에이전트에 관한 별도의 모델을 이용하더라도 현실적이지 못한 가정들을 요구한다. 본 논문에서는 상대 에이전트에 대한RBFN기반의 행동 정책 모델을 소개한 뒤, 이것을 이용한 강화 학습 방법을 설명한다. 본 논문에서는 제안하는 멀티 에이전트 강화학습 방법은 기존의 멀티 에이전트 강화 학습 연구들과는 달리 상대 에이전트의 Q 평가 함수 모델이 아니라 RBFN 기반의 행동 정책 모델을 학습한다. 또한, 표현력은 풍부하나 학습에 시간과 노력이 많이 요구되는 유한 상태 오토마타나 마코프 체인과 같은 행동 정책 모델들에 비해 비교적 간단한 형태의 행동 정책 모델을 이용함으로써 학습의 효율성을 높였다. 본 논문에서는 대표적이 절대적 멀티 에이전트 환경인 고양이와 쥐 게임을 소개한 뒤, 이 게임을 테스트 베드 삼아 실험들을 전개함으로써 제안하는 RBFN 기반의 정책 모델의 효과를 분석해본다.

  • PDF

A Load Shedding Scheme using CEA Rule for Islanded Microgrid Operation based on Multiagent System (멀티에이전트 시스템 기반 독립운전 마이크로그리드 운용을 위한 CEA 규칙을 이용한 부하 차단 기법)

  • Kim, Hak-Man
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.04a
    • /
    • pp.327-328
    • /
    • 2011
  • 마이크로그리드는 주로 신재생 전원으로 구성되는 소규모 전력시스템으로 그 관심이 고조되고 있다. 최근 멀티에이전트 기반의 마이크로그리드의 운용 및 제어 기술에 대한 연구가 진행되고 있다. 전력시스템과 연계되지 않는 독립운전의 경우는 상용주파수를 유지하기 위해서 전력의 공급과 부하의 균형을 유지시켜야 하며, 특히 전력공급이 부족한 경우는 강제적으로 전력의 부하를 차단하여야 한다. 본 논문에서는 멀티에이전트 시스템 기반의 독립운전을 하는 마이크로그리드 운용을 위한 강제적인 부하 차단을 위해서 파산문제(bankruptcy problem)와 CEA(constrained equal awards) 규칙에 근거하여 부하 차단의 기법을 제안하고 이에 대해서 그 활용 가능성을 검토하고자 한다.

Continual Multiagent Reinforcement Learning in Dynamic Environments (동적 환경에서의 지속적인 다중 에이전트 강화 학습)

  • Jung, Kyuyeol;Kim, Incheol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.988-991
    • /
    • 2020
  • 다양한 실세계 응용 분야들에서 공동의 목표를 위해 여러 에이전트들이 상호 유기적으로 협력할 수 있는 행동 정책을 배우는 것은 매우 중요하다. 이러한 다중 에이전트 강화 학습(MARL) 환경에서 기존의 연구들은 대부분 중앙-집중형 훈련과 분산형 실행(CTDE) 방식을 사실상 표준 프레임워크로 채택해왔다. 하지만 이러한 다중 에이전트 강화 학습 방식은 훈련 시간 동안에는 경험하지 못한 새로운 환경 변화가 실전 상황에서 끊임없이 발생할 수 있는 동적 환경에서는 효과적으로 대처하기 어렵다. 이러한 동적 환경에 효과적으로 대응하기 위해, 본 논문에서는 새로운 다중 에이전트 강화 학습 체계인 C-COMA를 제안한다. C-COMA는 에이전트들의 훈련 시간과 실행 시간을 따로 나누지 않고, 처음부터 실전 상황을 가정하고 지속적으로 에이전트들의 협력적 행동 정책을 학습해나가는 지속 학습 모델이다. 본 논문에서는 대표적인 실시간 전략게임인 StarcraftII를 토대로 동적 미니게임을 구현하고 이 환경을 이용한 다양한 실험들을 수행함으로써, 제안 모델인 C-COMA의 효과와 우수성을 입증한다.

Agent Oriented Methodology Based on Design Pattern (디자인패턴 기반의 에이전트 지향 개발방법론)

  • Lee, Hak-Jin;Youn, Hyun-Sang;Lee, Eun-Seok
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.374-380
    • /
    • 2006
  • 최근 에이전트 기반 시스템을 만들기 위한 기술로서, 에이전트 지향 개발방법론 (Agent Oriented Methodology)이라는 영역이 출현하여, 여러 연구 기관에서 에이전트 시스템을 만드는데 이를 적용한 성공 사례가 늘고 있다. 그러나, 이들을 가지고 복잡한 다중 에이전트 시스템을 개발하는 일은 여전히 경험이 많지 않은 개발자들에게 있어서 어려운 일에 해당된다. 본 논문에서는 개발자에게 에이전트 설계 시 부과되는 이러한 어려운 점을 대한 해결책으로서, 개발자들에게 기능에 따라 분류된 디자인 패턴을 지원하여 다중 에이전트 시스템 설계 및 개발을 지원하는 개발방법론을 제안한다. 또한, 우리는 요구사항 분석부터 코드 생성까지 개발 프로세스에 반영하는 지원 도구를 제안한다. 이 CASE 도구는 단계별 자동화 기능뿐만 아니라, 설계 과정에서 개발자들에게 디자인 패턴을 고려할 수 있는 기능을 제공한다. 이를 통해, 우리는 에이전트 시스템 개발자 및 에이전트에 대한 지식이 부족한 이들에게 멀티에이전트 시스템 설계와 개발을 보다 쉽고 빠르게 해결할 수 있도록 돕는다. 본 논문에서는 여행 도우미 시나리오(Travel Assistant Scenario)을 제안 개발 방법에 따라 적용시켰다. 최종적으로, 보다 쉬운 방식으로 에이전트 소스 코드를 생성해냈으며, 이를 통해 제안 개발방법론이 개발자들의 다중 에이전트 기반 시스템의 개발에 대한 부하를 줄여 줄 수 있다는 결론을 내렸다.

  • PDF

A Survey on Recent Advances in Multi-Agent Reinforcement Learning (멀티 에이전트 강화학습 기술 동향)

  • Yoo, B.H.;Ningombam, D.D.;Kim, H.W.;Song, H.J.;Park, G.M.;Yi, S.
    • Electronics and Telecommunications Trends
    • /
    • v.35 no.6
    • /
    • pp.137-149
    • /
    • 2020
  • Several multi-agent reinforcement learning (MARL) algorithms have achieved overwhelming results in recent years. They have demonstrated their potential in solving complex problems in the field of real-time strategy online games, robotics, and autonomous vehicles. However these algorithms face many challenges when dealing with massive problem spaces in sparse reward environments. Based on the centralized training and decentralized execution (CTDE) architecture, the MARL algorithms discussed in the literature aim to solve the current challenges by formulating novel concepts of inter-agent modeling, credit assignment, multiagent communication, and the exploration-exploitation dilemma. The fundamental objective of this paper is to deliver a comprehensive survey of existing MARL algorithms based on the problem statements rather than on the technologies. We also discuss several experimental frameworks to provide insight into the use of these algorithms and to motivate some promising directions for future research.

The Effect of Multiagent Interaction Strategy on the Performance of Ant Model (개미 모델 성능에서 다중 에이전트 상호작용 전략의 효과)

  • Lee Seung-Gwan
    • The Journal of the Korea Contents Association
    • /
    • v.5 no.3
    • /
    • pp.193-199
    • /
    • 2005
  • One of the important fields for heuristics algorithm is how to balance between Intensificationand Diversification. Ant Colony System(ACS) is a new meta heuristics algorithm to solve hard combinatorial optimization problem. It is a population based approach that uses exploitation of positive feedback as well as greedy search. It was first proposed for tackling the well known Traveling Salesman Problem(TSP). In this paper, we propose Multi Colony Interaction Ant Model that achieves positive negative interaction through elite strategy divided by intensification strategy and diversification strategy to improve the performance of original ACS. And, we apply multi colony interaction ant model by this proposed elite strategy to TSP and compares with original ACS method for the performance.

  • PDF