• Title/Summary/Keyword: 환경 강화

Search Result 4,291, Processing Time 0.029 seconds

Comparison of Learning Performance by Reinforcement Learning Agent Visibility Information Difference (강화학습 에이전트 시야 정보 차이에 의한 학습 성능 비교)

  • Kim, Chan Sub;Jang, Si-Hwan;Yang, Seong-Il;Kang, Shin Jin
    • Journal of Korea Game Society
    • /
    • v.21 no.5
    • /
    • pp.17-28
    • /
    • 2021
  • Reinforcement learning, in which artificial intelligence develops itself to find the best solution to problems, is a technology that is highly valuable in many fields. In particular, the game field has the advantage of providing a virtual environment for problem-solving to reinforcement learning artificial intelligence, and reinforcement learning agents solve problems about their environment by identifying information about their situation and environment using observations. In this experiment, the instant dungeon environment of the RPG game was simplified and produced and various observation variables related to the field of view were set to the agent. As a result of the experiment, it was possible to figure out how much each set variable affects the learning speed, and these results can be referred to in the study of game RPG reinforcement learning.

C-COMA: A Continual Reinforcement Learning Model for Dynamic Multiagent Environments (C-COMA: 동적 다중 에이전트 환경을 위한 지속적인 강화 학습 모델)

  • Jung, Kyueyeol;Kim, Incheol
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.10 no.4
    • /
    • pp.143-152
    • /
    • 2021
  • It is very important to learn behavioral policies that allow multiple agents to work together organically for common goals in various real-world applications. In this multi-agent reinforcement learning (MARL) environment, most existing studies have adopted centralized training with decentralized execution (CTDE) methods as in effect standard frameworks. However, this multi-agent reinforcement learning method is difficult to effectively cope with in a dynamic environment in which new environmental changes that are not experienced during training time may constantly occur in real life situations. In order to effectively cope with this dynamic environment, this paper proposes a novel multi-agent reinforcement learning system, C-COMA. C-COMA is a continual learning model that assumes actual situations from the beginning and continuously learns the cooperative behavior policies of agents without dividing the training time and execution time of the agents separately. In this paper, we demonstrate the effectiveness and excellence of the proposed model C-COMA by implementing a dynamic mini-game based on Starcraft II, a representative real-time strategy game, and conducting various experiments using this environment.

UAV Path Planning based on Deep Reinforcement Learning using Cell Decomposition Algorithm (셀 분해 알고리즘을 활용한 심층 강화학습 기반 무인 항공기 경로 계획)

  • Kyoung-Hun Kim;Byungsun Hwang;Joonho Seon;Soo-Hyun Kim;Jin-Young Kim
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.24 no.3
    • /
    • pp.15-20
    • /
    • 2024
  • Path planning for unmanned aerial vehicles (UAV) is crucial in avoiding collisions with obstacles in complex environments that include both static and dynamic obstacles. Path planning algorithms like RRT and A* are effectively handle static obstacle avoidance but have limitations with increasing computational complexity in high-dimensional environments. Reinforcement learning-based algorithms can accommodate complex environments, but like traditional path planning algorithms, they struggle with training complexity and convergence in higher-dimensional environment. In this paper, we proposed a reinforcement learning model utilizing a cell decomposition algorithm. The proposed model reduces the complexity of the environment by decomposing the learning environment in detail, and improves the obstacle avoidance performance by establishing the valid action of the agent. This solves the exploration problem of reinforcement learning and improves the convergence of learning. Simulation results show that the proposed model improves learning speed and efficient path planning compared to reinforcement learning models in general environments.

Reinforcement Learning Algorithm using Domain Knowledge for MAV (초소형 비행체 운항방법에 대한 환경 지식을 이용한 강화학습 방법)

  • Kim, Bong-Oh;Kong, Sung-Hak;Jang, Si-Young;Suh, Il-Hong;Oh, Sang-Rok
    • Proceedings of the KIEE Conference
    • /
    • 2002.07d
    • /
    • pp.2407-2409
    • /
    • 2002
  • 강화학습이란 에이전트가 알려지지 않은 미지의 환경에서 행위와 보답을 주고받으며, 임의의 상태에서 가장 적절한 행위를 학습하는 방법이다. 만약 강화학습 중에 에이전트가 과거 문제들을 해결하면서 학습한 환경에 대한 지식을 이용할 수 있는 능력이 있다면 새로운 문제를 빠르게 해결할 수 있다. 이런 문제를 풀기 위한 방법으로 에이전트가 과거에 학습한 여러 문제들에 대한 환경 지식(Domain Knowledge)을 Local state feature라는 기억공간에 학습한 후 행위함수론 학습할 때 지식을 활용하는 방법이 연구되었다. 그러나 기존의 연구들은 주로 2차원 공간에 대한 연구가 진행되어 왔다. 본 논문에서는 환경 지식을 이용한 강화학습 알고리즘을 3차원 공간에 대해서도 수행 할 수 있도록하는 개선된 알고리즘을 제안하였으며, 제안된 알고리즘의 유효성을 검증하기 위해 초소형 비행체의 항공운항 학습에 대해 모의실험을 수행하였다.

  • PDF

DQN Reinforcement Learning for Acrobot in OpenAI Gym Environment (OpenAI Gym 환경의 Acrobot에 대한 DQN 강화학습)

  • Myung-Ju Kang
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.35-36
    • /
    • 2023
  • 본 논문에서는 OpenAI Gym 환경에서 제공하는 Acrobot-v1에 대해 DQN(Deep Q-Networks) 강화학습으로 학습시키고, 이 때 적용되는 활성화함수의 성능을 비교분석하였다. DQN 강화학습에 적용한 활성화함수는 ReLU, ReakyReLU, ELU, SELU 그리고 softplus 함수이다. 실험 결과 평균적으로 Leaky_ReLU 활성화함수를 적용했을 때의 보상 값이 높았고, 최대 보상 값은 SELU 활성화 함수를 적용할 때로 나타났다.

  • PDF

World Representation Using Complex Network for Reinforcement Learning (복잡계 네트워크를 이용한 강화 학습에서의 환경 표현)

  • 이승준;장병탁
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.622-624
    • /
    • 2004
  • 강화 학습(Reinforcement Learning)을 실제 문제에 적용하는 데 있어 가장 큰 문제는 차원성의 저주(Curse of dimensionality)였다 문제가 커짐에 따라 목적을 이루기 위해서 더 많은 단계의 판단이 필요하고 이에 따라 문제의 해결이 지수적으로 어려워지게 된다. 이를 해결하기 위해 문제를 여러 단계로 나누어 단계별로 학습하는 계층적 강화 학습(Hierarchical Reinforcement Learning)이 제시된 바 있다 하지만 대부분의 계층적 강화 학습 방법들은 사전에 문제의 구조를 아는 것을 전제로 하며 큰 사이즈의 문제를 간단히 표현할 방법을 제시하지 않는다. 따라서 이들 방법들도 실제적인 문제에 바로 적용하기에는 적합하지 않다. 최근 이루어진 복잡계 네트워크(Complex Network)에 대한 연구에 착안하여 본 논문은 자기조직화하는 생장 네트워크(Self organizing growing network)를 기반으로 한 간단한 환경 표현 모델을 사용하는 강화 학습 알고리즘을 제안한다 네트웍은 복잡계 네트웍이 갖는 성질들을 유지하도록 자기 조직화되고, 노드들 간의 거리는 작은 세상 성질(Small World Property)에 따라 전체 네트웍의 큰 사이즈에 비해 짧게 유지된다. 즉 판단해야할 단계의 수가 적게 유지되기 때문에 이 방법으로 차원성의 저주를 피할 수 있다.

  • PDF

The Listing Procedure for Plant Strengtheners in Germany (독일의 식물강화제 목록공시 제도)

  • Lee, Sang-Beom;Lee, Hyo-Won;Choi, Kyeong-Ju
    • Proceedings of the Korean Society of Organic Agriculture Conference
    • /
    • 2009.12a
    • /
    • pp.277-278
    • /
    • 2009
  • 독일 연방작물보호법(PflSchG-Gesetz zum Schutz der Kulturpflanzen, 1986.9. 15 제정)은 식물강화제(한국의 친환경유기농자재와 동일)에 대한 정의를 3가지로 대별하여 명시하고 연방농림생물학청(BBA)에 신고를 의무화하도록 개정(1998.7. 27)하여 법률적인 근거를 마련하였다. 정부조직 개편으로 인하여 2002년 11월 1일부터 연방소비자보호 및 식품안전청(BVL)에서 유기농자재 등록 허가 업무를 주관하고 있다. 식물강화제는 작물보호법에 의하여 허가되는 농약, 생장촉진제, 작물보조제 및 비료관리법(Dungemittelgesetz)에 의한 식물영양제, 식물보조제, 작물재배 배양토 및 토양개량제 등과는 차별화하여 명시하고 있다. 식물강화제는 독일 작물보호법(PflSchG-Gesetz zum Schutz der Kulturpflanzen; Plant Protection Act) 제1장 제2조 10항에 의거하여 (1)유해생물에 대한 저항력을 높여주는 물질, (2)비기생성 피해에 대하여 식물을 보호해 주는 물질, (3)재배작물 이외의 잘려진 관상식물에 사용되는 물질로 정의하고 있다. 이러한 법률적 정의의 요지는 인간과 동물의 건강 및 자연계에 해로운 영향이 없으면서 식물체에 유해한 생물에 대하여 저항성만을 높여주는 물질을 말하며, 기상 및 환경공해 등에 의한 장해도 유해생물에 의한 것과 동일하게 간주되며 이에 대한 저항성을 높여 주는 물질도 포함시키고 있다. 식물강화제는 원칙적으로 유해생물 방제에 직접적으로 작용시키기 위한 이용목적으로 사용할 수 없으며, 단지 작물의 저항성을 높이는 경우에 한하여야 사용된다. 식물강화제의 등록 허가신청은 생산자, 판매업자 또는 수입업자가 연방소비자보호 및 식품안전청(BVL)에 신청하여야 한다. 이렇게 신청된 식물강화제는 작물보호법 제2조에 의거하여 이루어진다. 연방소비자보호 및 식품안전청의 작물보호제의 관리부서는 특별한 문제가 없는 한 4개월 이내에 등록을 허가하고 목록을 홈페이지에 목록을 공시한다. 목록공시는 통상적으로 매월 초순에 1회 게시된다. 허가 등록 절차는 맨처음 서류가 접수되면 구비서류가 완전한지 여부를 검토하여 신청서류에 문제가 없으면 4부를 복사하여 연방소비자보호 및 식품안전청(BVL, Federal Office of Consumer Protection and Food Safety), 환경청(UBA, Federal Environment Agency), 연방농림생물학청(BBA, Federal Biogical Research Centre for Agriculture and Forestry) 및 위해성평가연구소(BfR, Fedral Institute for Risk Assessment)에 우편으로 해당부서에 발송한다. 4개 기관이 검토한 내용이 서로 상이한 판단을 하였을 경우 연방소비자보호 및 식품안전청은 등록 허가결정을 하기 전에 "전문가위원회"를 개최하여 의견을 청취한다. 전문위원회는 연방농림생물청, 환경부, 위해성평가연구소 연구원 등 작물, 독성 및 환경보호 전문가 25인으로 구성되어있다. 연방소비자보호 및 식품안전청의 작물보호 제2부서(식물강화제 검토부서)는 전문위원과 검토기관의 의견을 종합하여 자체적으로 등록 허가 여부를 결정하여 제품 신청자에게 결정 내용을 통보함으로서 등록절차가 마무리 된다. 독일의 식물강화제, 즉 유기농자재는 국가에서 허가한 제품에 한하여 유기농업연구소(FiBL)에서 허용목록 책자를 만들어 유기농업단체 제공하면 단체에 따라 사용가능 유기농자재 제품을 다시 선별하여 회원에게 알려준다. 2009년 11월 30일 현재 독일의 연방소비자보호 및 식품안전청(BVL)에서 허가 공시한 식물강화제는 490개 제품에 이르고 있다.

  • PDF