• Title/Summary/Keyword: 다중 에이전트

Search Result 311, Processing Time 0.029 seconds

Location Management Scheme for the Control of Multiple Mobile Agents (다중 이동 에이전트 제어를 위한 위치 관리 기법)

  • 윤준원;강석준;최성진;손진곤;황종선
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10c
    • /
    • pp.322-324
    • /
    • 2003
  • 여러 지역으로 구성된 다중 이동 에이전트 컴퓨팅 환경에서 에이전트들을 관리하기 위한 위치 관리 기법은 이동 에이전트 시스템을 개발하는데 있어서 중요한 고려 사항이다. 그러나, 기존의 연구에서는 단지 하나의 이동 에이전트를 통제하기 위한 위치 관리만을 고려할 뿐 같은 작업을 수행하는 다중 이동 에이전트들을 통제하는 위치 관련 기법은 다루지 않고 있다. 따라서, 이전 기법을 다중 이동 에이전트를 관리하는데 적용하면 다중 이동 에이전트들을 관리하는 비용은 증가하게 된다. 본 논문에서는 여러 지역으로 구성된 이동 에이전트 컴퓨팅 환경에서 다중 이동 에이전트 관리를 위한 위치 관리 기법인 WSC(Workname Search and Control)기법을 제안하고자 한다. 제안된 기법은 다중 이동 에이전트 관리를 위한 모델을 제시함으로써 다중 이동 에이전트 관리를 위한 메시지 전달 부하를 감소시킨다.

  • PDF

SOM-Based State Generalization for Multiagent Reinforcement Learning (다중에이전트 강화학습을 위한 SOM기반의 상태 일한화)

  • 임문택;김인철
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2002.11a
    • /
    • pp.399-408
    • /
    • 2002
  • 다중 에이전트 학습이란 다중 에이전트 환경에서 에이전트간의 조정을 위한 행동전략을 학습하는 것을 말한다. 본 논문에서는 에이전트간의 통신이 불가능한 다중 에이전트 환경에서 각 에이전트들이 서로 독립적으로 대표적인 강화학습법인 Q학습을 전개함으로써 서로 효과적으로 협조할 수 있는 행동전략을 학습하려고 한다. 하지만 단일 에이전트 경우에 비해 보다 큰 상태-행동 공간을 갖는 다중 에이전트환경에서는 강화학습을 통해 효과적으로 최적의 행동 전략에 도달하기 어렵다는 문제점이 있다. 이 문제에 대한 기존의 접근방법은 크게 모듈화 방법과 일반화 방법이 제안되었으나 모두 나름의 제한을 가지고 있다. 본 논문에서는 대표적인 다중 에이전트 학습 문제의 예로서 먹이와 사냥꾼 문제(Prey and Hunters Problem)를 소개하고 이 문제영역을 통해 이와 같은 강화학습의 문제점을 살펴보고, 해결책으로 신경망 SOM을 이용한 일반화 방법인 QSOM 학습법을 제안한다. 이 방법은 기존의 일반화 방법과는 달리 군집화 기능을 제공하는 신경망 SOM을 이용함으로써 명확한 다수의 훈련 예가 없어도 효과적으로 이전에 경험하지 못했던 상태-행동들에 대한 Q값을 예측하고 이용할 수 있다는 장점이 있다. 또한 본 논문에서는 실험을 통해 QSOM 학습법의 일반화 효과와 성능을 평가하였다.

  • PDF

Dynamic Agents Invocation in Heterogeneous Multi-Agent Environments (이형질의 다중 에이전트 환경에서의 에이전트 동적 구동 기법)

  • 강지훈;강기영;최중민
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.114-116
    • /
    • 1998
  • 최근 다중 에이전트에 대한 연구가 활발히 진행되고 있다. 특히 이질적이고 분산된 컴퓨팅 환경에 효율적이며 적응성이 향상된 여러 가지 형태의 다중 에이전트가 개발되고 있다. 하지만 아직 이질적인 에이전트의 동적구동을 통한 효율 향상과 유연성에 대한 연구는 초보단계이다. 본 논문에서는 자바로 된 다중 에이전트 기반 구조에서 서로 각기 다른 컴퓨터 언어로 만들어진 에이전트가 분산된 환경에서 상호 협력을 통해 작업을 수행하기 위해서 사용자나 다른 에이전트의 요청으로 동적으로 수행될 수 있는 기술을 설계하고 구현하였다. 또한 서로 다른 에이전트간의 협력을 가능하게 하는 통신기능을 다중 에이전트 기반기술에 적용함으로써 사용자의 요구에 더욱더 능동적으로 대처하고, 다양한 환경 변화에 강한 적응성과 개선된 협동능력을 제공하도록 구현하였다.

  • PDF

Task Reallocation in Multi-agent Systems based on Vickrey Auctioning (Vickrey 경매에 기초한 다중 에이전트 시스템에서의 작업 재할당)

  • 이상기;김인철
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10b
    • /
    • pp.85-87
    • /
    • 2001
  • 다수의 이익-추구형 에이전트들 간의 자동화된 협상 과정을 통해 합리적으로 작업 분배가 이루어질 수 있도록 조정하는 것은 대부분의 다중 에이전트 시스템에서 매우 중요한 문제이다. 본 연구에서는 대표적인 다중 에이전트 작업 재할당 문제의 하나로서 다중 에이전트 외판원 여행 문제를 설명하고, 이 문제를 풀기 위한 조정 메커니즘으로 Vickrey 경매 프로토콜의 적용을 제안하였다. 대표적인 시장기반의 조정 메커니즘인 Vickrey 경매의 적용을 위해 본 논문에서는 각 에이전트의 이익, 협상의 최종 목표, 경매대상, 각 에이전트의 입찰전략, 전체적인 경매 진행과정 등을 정의하였다. 이와 같이 설계된 시장기반의 조정메커니즘의 장점은 각 에이전트의 이익만을 고려함으로써 문제를 단순화할 수 있고, 복잡도가 큰 중앙-집중식 제어 메커니즘이 필요치 않으며, 따라서 각 에이전트의 자율성을 최대한 보장할 수 있고, 큰 협상비용을 들이지 않고 최적의 할당에 도달할 수 있다는 점등이다. 본 논문에서는 하나의 다중 에이전트 외판원 여행문제에 대한 풀이과정을 통해 앞서 설계된 Vickrey 경매프로토콜의 진행방식을 설명하고 그 효과와 효율성을 예시하였다.

  • PDF

Scheme for Development of Meta Architecture of Mobile Agent and Development of Multi-Agent System Architecture Support to Mobility of Agent (이동 에이전트의 Meta 아키턱쳐 개발을 위한 방안 및 에이전트의 이동성을 지원하는 다중 에이전트 시스템 아키턱쳐 개발)

  • 이계휘;김민성;박수용
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10a
    • /
    • pp.439-441
    • /
    • 2001
  • 에이전트는 보다 폭넓고 정확한 정보를 다른 도메인과 플랫폼의 다중 에이전트 시스템과의 협력을 통해 사용자에게 제공해야 하고, 다른 시스템의 유휴 컴퓨팅 용량을 활용하는 진정한 의미의 분산환경을 제공해야 할 필요성이 대두되었다. 이러한 문제를 해결하기 여러 논문에서는 이동 에이전트를 제안하고 있다. 하지만 이동 에이전트를 보다 효율적으로 개발하기 위해서는 이에 대한 아키텍쳐가 여러 가지 도메인에서 사용될 수 있도록 제시되어야 한다. 따라서 본 논문에서는 이동 에이전트의 아키텍쳐를 재사용이 가능하도록 설계하기 위한 방안을 연구하고, 이동 에이전트를 다중 에이전트 시스템에 적응할 수 있는 방안에 대한 연구 결과로 에이전트의 이동성을 지원하는 다중 에이전트 시스템 아키텍쳐를 제안한다.

  • PDF

The Architecture Supporting Agent's Coordination in Multi-Agent Systems (조정을 지원하는 다중 에이전트 시스템 아키텍쳐)

  • 이승연;박수용
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10a
    • /
    • pp.355-357
    • /
    • 2000
  • 실세계에서 발생하는 복잡한 문제들을 해결하기 위한 노력으로, 다중 에이전트 시스템)Multi-Agent System) 구축에 대한 관심이 높아지고 있다. 다양한 종류의 분산 인공지능 문제들을 에이전트라는 추상적 단위와 에이전트간의 상호작용을 토대로 해결하는 시스템을 개발하기 위하여, 본 연구에서는 다중 에이전트 지향의 소프트웨어를 개발함에 있어 중요한 요소인 조정(Coordination)을 지원하는 아키텍쳐를 제안한다. 문제영역을 분석하고, 다중 에이전트 시스템의 특성을 파악하여 시스템 요소들의 조정을 지원하는 아키텍쳐 공정을 제안한다. 또한, 이를 지능형 교통정보 시스템에 적용하여 본다.

  • PDF

Efficient Reinforcement Learning System in Multi-Agent Environment (다중 에이전트 환경에서 효율적인 강화학습 시스템)

  • Hong, Jung-Hwan;Kang, Jin-Beom;Choi, Joong-Min
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10b
    • /
    • pp.393-396
    • /
    • 2006
  • 강화학습은 환경과 상호작용하는 과정을 통하여 목표를 이루기 위한 전략을 학습하는 방법으로써 에이전트의 학습방법으로 많이 사용한다. 독립적인 에이전트가 아닌 상호 의사소통이 가능한 다중 에이전트 환경에서 에이전트의 학습정보를 서로 검색 및 공유가 가능하다면 환경이 거대하더라도 기존의 강화학습 보다 빠르게 학습이 이루어질 것이다. 하지만 아직 다중 에이전트 환경에서 학습 방법에 대한 연구가 미흡하여 학습정보의 검색과 공유에 대해 다양한 방법들이 요구되고 있다. 본 논문에서는 대상 에이전트 학습 정보와 주변 에이전트들의 학습 정보 사이에 편집거리를 비교하여 유사한 에이전트를 찾고 그 에이전트 정보를 강화학습 사전정보로 사용함으로써 학습속도를 향상시킨 ED+Q-Learning 시스템을 제안한다.

  • PDF

Location Management & Message Delivery Scheme for Mobile Agent in Multi-region Mobile Agent Computing Environment (다중 지역 이동 에이전트 컴퓨팅 환경에서의 이동 에이전트 위치 관리 및 메시지 전달 기법)

  • 최성진;강인성;백맹순;손진곤;황종선
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04d
    • /
    • pp.490-492
    • /
    • 2003
  • 다중 지역 이동 에이전트 컴퓨팅 환경을 기반하여 이동 에이전트 시스템을 개발하는데 있어서, 이동 에이전트를 관리하고 이동 에이전트들간의 메시지 전달을 보장하기 위한 위치 관리 및 메시지 전달 기법은 중요한 고려사항이다. 그러나 기존이 관련연구들은 여러 지역으로 구성된 다중 지역 이동 에이전트 컴퓨팅 환경에 적용하기에는 위치 갱신 비용 및 메시지 전달 비용이 상대적으로 증가한다는 단점과 추적문제(Following Problem)를 발생시킨다는 한계를 가지고 있다. 이에 본 논문에서는 기존의 홈 프락시 기법과 블랙보드 기법을 변형ㆍ혼합(Hybird)하는 새로운 이동 에이전트 위치 관리 및 메시지 전달 기법인 HB 프로토콜을 제안하고자 한다. HB 프로토콜은 다중 지역 이동 에이전트 컴퓨팅 환경에서 이동 에이전트의 위치 변경시 발생하는 위치 갱신 비용과 이동 에이전트들간의 메시지 전달 비용을 효과적으로 줄이며, 추적문제를 낮은 통신비용으로 해결한다.

  • PDF

A Performance Improvement Technique for Nash Q-learning using Macro-Actions (매크로 행동을 이용한 내시 Q-학습의 성능 향상 기법)

  • Sung, Yun-Sik;Cho, Kyun-Geun;Um, Ky-Hyun
    • Journal of Korea Multimedia Society
    • /
    • v.11 no.3
    • /
    • pp.353-363
    • /
    • 2008
  • A multi-agent system has a longer learning period and larger state-spaces than a sin91e agent system. In this paper, we suggest a new method to reduce the learning time of Nash Q-learning in a multi-agent environment. We apply Macro-actions to Nash Q-learning to improve the teaming speed. In the Nash Q-teaming scheme, when agents select actions, rewards are accumulated like Macro-actions. In the experiments, we compare Nash Q-learning using Macro-actions with general Nash Q-learning. First, we observed how many times the agents achieve their goals. The results of this experiment show that agents using Nash Q-learning and 4 Macro-actions have 9.46% better performance than Nash Q-learning using only 4 primitive actions. Second, when agents use Macro-actions, Q-values are accumulated 2.6 times more. Finally, agents using Macro-actions select less actions about 44%. As a result, agents select fewer actions and Macro-actions improve the Q-value's update. It the agents' learning speeds improve.

  • PDF

A Multi-Agent Message Transport Architecture for Supporting Close Collaboration among Agents (에이전트들 간의 밀접한 협력을 지원하기 위한 다중 에이전트 메시지 전송 구조)

  • Chang, Hai Jin
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.3 no.3
    • /
    • pp.125-134
    • /
    • 2014
  • This paper proposes a multi-agent message transport architecture to support application areas which need fast message communications for close collaboration among agents. In the FIPA(Foundation of Intelligent Physical Agents) agent platform, all message transfer services among agents are in charge of a conceptual entity named ACC(Agent Communication Channel). In our multi-agent message transport architecture, the ACC is represented as a set of system agents named MTSA(Message Transfer Service Agent). The MTSA enables close collaboration among agents by supporting asynchronous communication, by using Reactor pattern to handle agent input messages efficiently, and by selecting optimal message transfer protocols according to the relative positional relationships of sender agents and receiver agents. The multi-agent framework SMAF(Small Multi-Agent Framework), which is implemented on the proposed multi-agent message transport architecture, shows better performance on message transfer among agents than JADE(Java Agent Development Environment) which is a well-known FIPA-compliant multi-agent framework. The faster the speed of message transfer of a multi-agent architecture becomes, the wider application areas the architecture can support.