• 제목/요약/키워드: 강화 학습 에이전트

검색결과 135건 처리시간 0.029초

강화 학습에 의한 로봇축구 에이전트 행동 전략 (Behavior Strategies of Robot Soccer Agent by Reinforcement Learning)

  • 최소라;이승관;이영아;정태충
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2005년도 추계학술발표대회 및 정기총회
    • /
    • pp.465-468
    • /
    • 2005
  • 강화 학습이란 개체가 동적인 환경에서 시행착오를 통해 자신의 최적 행동을 찾아내는 기법이다. 특히 Q-learning과 같은 비(非)모델 기반의 강화학습은 사전에 환경에 대한 모델을 필요로 하지 않으며, 다양한 상태와 행동들을 충분히 경험한다면 최적의 행동 전략에 도달할 수 있으므로 여러 분야에 적용되고 있다. 본 논문에서는 로봇의 행동을 효율적으로 제어하기 위하여 Q-learning을 이용하였다. 로봇 축구 시스템은 공과 여러 대의 로봇이 시시각각 움직이는 시변 환경이므로 모델링이 상당히 복잡하다. 공을 골대 가까이 보내는 것이 로봇 축구의 목표지만 때로는 공을 무조건 골대 방향으로 보내는 것보다 더 효율적인 전략이 있을 수도 있다. 어떤 상황에서 어떤 행동을 하여야 장기적으로 보았을 때 더 우수한지 학습을 통해 로봇 스스로가 판단해가도록 시스템을 구현하고, 학습된 결과를 분석한다.

  • PDF

소포물 분류를 위한 그리드 타입 시스템의 강화 학습 기반 행동 제어 (Reinforcement learning-based behavior control of a grid-type system for sorting parcels)

  • 최호빈;김주봉;황규영;한연희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.585-586
    • /
    • 2020
  • 공정 데이터를 실시간으로 수집할 수 있는 스마트 팩토리의 장점을 활용하여, 일반적인 기계 학습 대신 강화 학습을 사용한다면 미리 요구되는 훈련 데이터 없이 행동 제어를 할 수 있다. 하지만, 현실 세계에서는 물리적 마모, 시간적 문제 등으로 인해 수천만 번 이상의 반복 학습이 불가능하다. 따라서, 본 논문에서는 시뮬레이터를 활용해 스마트 팩토리 분야에서 복잡한 환경 중 하나인 이송 설비에 초점을 둔 그리드 분류 시스템을 개발하고 협력적 다중 에이전트 기반의 강화 학습을 설계하여 효율적인 행동 제어가 가능함을 입증한다.

멀티에이전트 강화학습 기술 동향: 분산형 훈련-분산형 실행 프레임워크를 중심으로 (Survey on Recent Advances in Multiagent Reinforcement Learning Focusing on Decentralized Training with Decentralized Execution Framework)

  • 신영환;서승우;유병현;김현우;송화전;이성원
    • 전자통신동향분석
    • /
    • 제38권4호
    • /
    • pp.95-103
    • /
    • 2023
  • The importance of the decentralized training with decentralized execution (DTDE) framework is well-known in the study of multiagent reinforcement learning. In many real-world environments, agents cannot share information. Hence, they must be trained in a decentralized manner. However, the DTDE framework has been less studied than the centralized training with decentralized execution framework. One of the main reasons is that many problems arise when training agents in a decentralized manner. For example, DTDE algorithms are often computationally demanding or can encounter problems with non-stationarity. Another reason is the lack of simulation environments that can properly handle the DTDE framework. We discuss current research trends in the DTDE framework.

동영상 학습에서 교육 에이전트와 자막이 학습자의 사회적실재감 및 학습지속의향에 미치는 영향 (The Effects of Pedagogical Agent and Redundant Text on Learners' Social Presence and Intention to Continue Learning in Video Learning)

  • 박소연;한광희
    • 문화기술의 융합
    • /
    • 제9권2호
    • /
    • pp.73-82
    • /
    • 2023
  • 본 연구는 2(교육 에이전트: 유 vs. 무) × 2(자막: 유 vs. 무) 피험자간 요인 설계를 사용하여 교육 에이전트와 음성 내레이션과 중복된 자막이 학습에 미치는 영향에 대해 알아보는 것을 목표로 진행했다. 자막이 없을 때는 교육 에이전트의 포함여부와 관계없이 사회적 실재감, 만족도 및 학습 지속의향에 차이가 없었으나 자막이 있을 때는 교육 에이전트가 있을 때 참가자의 사회적 실재감, 만족도 및 학습 지속의향이 더 높게 나타났다. 학업성취도에서는 음성 내레이션과 중복된 자막에 따른 차이가 발견되지 않았는데 이는 역중복 효과에 대한 선행 연구를 일부 지지하는 결과로 중복된 자막을 포함한다고 하여 반드시 학습 성과가 감소하는 것은 아니라는 것을 시사한다. 비대면으로 진행되는 동영상 학습은 대면 학습에 비해 높은 중도 이탈률을 보인다. 따라서 학습자와의 상호작용을 강화하고 동기를 부여하여 지속적으로 학습에 참여하도록 하는 방법에 대해 이해하는 것이 특히 중요하다. 본 연구에서는 교육 에이전트와 자막이 동영상 학습에서 학습자의 지속적인 참여를 유도할 수 있는 요소인지에 대해 논의하였다.

강화학습 기반 3D 객체복원 데이터 획득 시뮬레이션 설계 (Designing a Reinforcement Learning-Based 3D Object Reconstruction Data Acquisition Simulation)

  • 진영훈
    • 사물인터넷융복합논문지
    • /
    • 제9권6호
    • /
    • pp.11-16
    • /
    • 2023
  • 물체나 공간을 디지털화하는 기술인 3D 복원은 주로 포인트 클라우드 데이터를 활용한다. 본 논문은 강화학습을 활용하여 주어진 환경에서 포인트 클라우드의 획득을 목표로 한다. 이를 위해 시뮬레이션 환경은 유니티를 이용하여 구성하고, 강화학습은 유니티 패키지인 ML-Agents를 활용한다. 포인트 클라우드 획득 과정은 먼저 목표를 설정하고, 목표 주변을 순회할 수 있는 경로를 계산한다. 순회 경로는 일정 비율로 분할하여 각 스텝마다 보상한다. 이때 에이전트의 경로 이탈을 방지하기 위해 보상을 증가시킨다. 에이전트가 순회하는 동안 목표를 응시할 때마다 보상을 부여하여 각 순회 스텝에서 포인트 클라우드의 획득 시점을 학습하도록 한다. 실험결과, 순회 경로가 가변적이지만 상대적으로 정확한 포인트 클라우드를 획득할 수 있었다.

확장된 강화학습 시스템의 정형모델 (Formal Model of Extended Reinforcement Learning (E-RL) System)

  • 전도영;송명호;김수동
    • 인터넷정보학회논문지
    • /
    • 제22권4호
    • /
    • pp.13-28
    • /
    • 2021
  • 강화학습은 한 환경에서 에이전트가 정책에 따라 액션을 취하고 보상 함수를 통해 액션을 평가 및 정책 최적화 과정을 반복하는 Closed-Loop 구조로 이루어진 알고리즘이다. 이러한 강화학습의 주요 장점은 액션의 품질을 평가하고 정책을 지속적으로 최적화 하는 것이다. 따라서, 강화학습은 지능형 시스템, 자율제어 시스템 개발에 효과적으로 활용될 수 있다. 기존의 강화학습은, 단일 정책, 단일 보상함수 및 비교적 단순한 정책 업데이트 기법을 제한적인 문제에 대해 제시하고 적용하였다. 본 논문에서는 구성요소의 복수성을 지원하는 확장된 강화학습 모델을 제안한다. 제안되는 확정 강화학습의 주요 구성 요소들을 정의하고, 그들의 컴퓨팅 모델을 포함하는 정형 모델을 제시한다. 또한, 이 정형모델을 기반으로 시스템 개발을 위한 설계 기법을 제시한다. 제안한 모델을 기반으로 자율 최적화 자동차 내비게이터 시스템에 적용 및 실험을 진행한다. 제시된 정형 모델과 설계 기법을 적용한 사례연구로, 복수의 자동차들이 최적 목적지에 단 시간에 도착할 수 있는 진화된 내비게이터 시스템 설계 및 구현을 진행한다.

근접 발달 영역 이론을 적용한 모바일 스캐폴딩 에이전트 설계 (Design of Mobile Scaffolding Agent Using Zone of Proximal Development Theory)

  • 이남주;전우천
    • 한국정보교육학회:학술대회논문집
    • /
    • 한국정보교육학회 2007년도 동계학술대회
    • /
    • pp.173-180
    • /
    • 2007
  • 최근 모바일 기기의 활성화에 따라 M-learning (Mobile learning)이 활성화되고 있다. M-learning을 기반으로 한 코스웨어나 모듈 설계 시 학습자의 적극적 참여와 의미 있는 상호작용의 기회 제공과 실제적 환경에서의 교육활동을 지원하는 것에 초점을 맞추어야 한다. 근접발달영역이론 (Zone of Proximal Development : ZPD)이란 독자적으로 문제를 해결함으로써 결정되는 실제적 발달수준과 성인의 안내나 보다 능력 있는 또래들과 협동하여 문제를 해결함으로써 결정되는 잠재적 발달수준간의 거리이다. 한편, 스캐폴딩은 학습자의 근접발달영역을 변화시키며, 학습자가 스스로 학습할 수 있도록 도와주는 구체적인 방식이라 할 수 있다. 또한 스캐폴딩 (Scaffolding)은 학습자가 구조를 조직하고 새로운 지식을 구성하도록 교수자 또는 촉진자가 도와주면서 교수자와 학습자간에 상호작용하는 과정이다. 본 연구에서는 근접발달영역이론을 이용하여 모바일로 교사가 학습자에게 스캐폴딩을 제공하는 수업모형을 제안한다. 본 모형의 특징은 다음과 같다. 첫째, 문제해결을 위한 스캐폴딩만이 아니라 문제 해결 후 격려 스캐폴딩을 제공하여 학습력 강화가 이뤄지도록 하였다. 둘째, 교사와 학습자 사이에 다양한 스캐폴딩을 제공하여 상호작용을 강화하였다. 셋째, 자신에게 맞는 개별학습, 반복 학습이 가능하고 자기 주도적 학습이 강화되도록 하였다.

  • PDF

목표지향적 강화학습 시스템 (Goal-Directed Reinforcement Learning System)

  • 이창훈
    • 한국인터넷방송통신학회논문지
    • /
    • 제10권5호
    • /
    • pp.265-270
    • /
    • 2010
  • 강화학습(reinforcement learning)은 동적 환경과 시행-착오를 통해 상호 작용하면서 학습을 수행한다. 그러므로 동적 환경에서 TD-학습과 TD(${\lambda}$)-학습과 같은 강화학습 방법들은 전통적인 통계적 학습 방법보다 더 빠르게 학습을 할 수 있다. 그러나 제안된 대부분의 강화학습 알고리즘들은 학습을 수행하는 에이전트(agent)가 목표 상태에 도달하였을 때만 강화 값(reinforcement value)이 주어지기 때문에 최적 해에 매우 늦게 수렴한다. 본 논문에서는 미로 환경(maze environment)에서 최단 경로를 빠르게 찾을 수 있는 강화학습 방법(GORLS : Goal-Directed Reinforcement Learning System)을 제안하였다. GDRLS 미로 환경에서 최단 경로가 될 수 있는 후보 상태들을 선택한다. 그리고 나서 최단 경로를 탐색하기 위해 후보 상태들을 학습한다. 실험을 통해, GDRLS는 미로 환경에서 TD-학습과 TD(${\lambda}$)-학습보다 더 빠르게 최단 경로를 탐색할 수 있음을 알 수 있다.

다중 에이전트 Q-학습 구조에 기반한 주식 매매 시스템의 최적화 (Optimization of Stock Trading System based on Multi-Agent Q-Learning Framework)

  • 김유섭;이재원;이종우
    • 정보처리학회논문지B
    • /
    • 제11B권2호
    • /
    • pp.207-212
    • /
    • 2004
  • 본 논문은 주식 매매 시스템을 위한 강화 학습 구조를 제시한다. 매매 시스템에 사용되는 매개변수들은 Q-학습 알고리즘에 의하여 최적화되고, 인공 신경망이 값의 근사치를 구하기 위하여 활용된다 이 구조에서는 서로 유기적으로 협업하는 다중 에이전트를 이용하여 전역적인 추세 예측과 부분적인 매매 전략을 통합하여 개선된 매매 성능을 가능하게 한다. 에이전트들은 서로 통신하여 훈련 에피소드와 학습된 정책을 서로 공유하는데, 이 때 전통적인 Q-학습의 모든 골격을 유지한다. 실험을 통하여, KOSPI 200에서는 제안된 구조에 기반 한 매매 시스템을 통하여 시장 평균 수익률을 상회하며 동시에 상당한 이익을 창출하는 것을 확인하였다. 게다가 위험 관리의 측면에서도 본 시스템은 교사 학습(supervised teaming)에 의하여 훈련된 시스템에 비하여 더 뛰어난 성능을 보여주었다.

동적 환경에서의 적응을 위한 로봇 에이전트 제어: 조건별 개체 유지를 이용한 LCS기반 행동 선택 네트워크 학습 (Robot agent control for the adaptation to dynamic environment : Learning behavior network based on LCS with keeping population by conditions)

  • 박문희;박한샘;조성배
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2005년도 추계학술대회 학술발표 논문집 제15권 제2호
    • /
    • pp.335-338
    • /
    • 2005
  • 로봇 에이전트는 변화하는 환경에서 센서정보를 바탕으로 적절한 행동을 선택하며 동작하는 것이 중요하다. 행동 선택 네트워크는 이러한 환경에서 변화하는 센서정보에 따라 실시간으로 행동을 선택할 수 있다는 점에서, 장시간에 걸친 최적화보다 단시간 내 개선된 효율성에 초점을 맞추어 사용되어 왔다. 하지만 행동 선택 네트워크는 초기 문제에 의존적으로 설계되어 변화하는 환경에 유연하게 대처하지 못한다는 맹점을 가지고 있다. 본 논문에서는 행동 선택 네트워크의 연결을 LCS를 기반으로 진화 학습시켰다. LCS는 유전자 알고리즘을 통해 만들어진 규칙들을 강화학습을 통해 평가하며, 이를 통해 변화하는 환경에 적합한 규칙을 생성한다. 제안하는 모델에서는 LCS의 규칙이 센서정보를 포함한다. 진화가 진행되는 도중 이 규칙들이 모든 센서 정보를 포함하지 못하기 때문에 현재의 센서 정보를 반영하지 못하는 경우가 발생할 수 있다. 본 논문에서는 이를 해결하기 위해 센서정보 별로 개체를 따로 유지하는 방법을 제안한다. 제안하는 방법의 검증을 위해 Webots 시뮬레이터에서 케페라 로봇을 이용해 실험을 하여, 변화하는 환경에서 로봇 에이전트가 학습을 통해 올바른 행동을 선택함을 보였고, 일반LCS를 사용한 것보다 조건별 개체 유지를 통해 더 나은 결과를 보이는 것 또한 확인하였다.

  • PDF