• 제목/요약/키워드: Meta reinforcement learning

검색결과 11건 처리시간 0.027초

메타강화학습을 이용한 수중로봇 매니퓰레이터 제어 (Control for Manipulator of an Underwater Robot Using Meta Reinforcement Learning)

  • 문지윤;문장혁;배성훈
    • 한국전자통신학회논문지
    • /
    • 제16권1호
    • /
    • pp.95-100
    • /
    • 2021
  • 본 논문에서는 수중 건설 로봇을 제어하기 위한 모델 기반 메타 강화 학습 방법을 제안한다. 모델 기반 메타 강화 학습은 실제 응용 프로그램의 최근 경험을 사용하여 모델을 빠르게 업데이트한다. 다음으로, 대상 위치에 도달하기 위해 매니퓰레이터의 제어 입력을 계산하는 모델 예측 제어로 모델을 전송한다. MuJoCo 및 Gazebo를 사용하여 모델 기반 메타 강화 학습을 위한 시뮬레이션 환경을 구축하였으며 수중 건설 로봇의 실제 제어 환경에서의 모델 불확실성을 포함하여 제안한 방법을 검증하였다.

강화학습 기법과 메타학습을 이용한 기는 로봇의 이동 (Locomotion of Crawling Robots Based on Reinforcement Learning and Meta-Learning)

  • 문영준;정규백;박주영
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2007년도 추계학술대회 학술발표 논문집
    • /
    • pp.395-398
    • /
    • 2007
  • 최근 인공지능 분야에서는 강화학습(Reinforcement Learning)에 대한 관심이 크게 증폭되고 있으며, 여러 관련 분야에 적용되고 있다. 본 논문에서는 강화학습 기법 중 액터-크리틱 계열에 속하는 RLS-NAC 알고리즘을 활용하여 Kimura의 기는 로봇의 이동을 다룰 때에 중요 파라미터의 결정을 위하여 meta-learning 기법을 활용하는 방안에 고려한다.

  • PDF

개미 집단 시스템에서 TD-오류를 이용한 강화학습 기법 (A Reinforcement Loaming Method using TD-Error in Ant Colony System)

  • 이승관;정태충
    • 정보처리학회논문지B
    • /
    • 제11B권1호
    • /
    • pp.77-82
    • /
    • 2004
  • 강화학습에서 temporal-credit 할당 문제 즉, 에이전트가 현재 상태에서 어떤 행동을 선택하여 상태전이를 하였을 때 에이전트가 선택한 행동에 대해 어떻게 보상(reward)할 것인가는 강화학습에서 중요한 과제라 할 수 있다. 본 논문에서는 조합최적화(hard combinational optimization) 문제를 해결하기 위한 새로운 메타 휴리스틱(meta heuristic) 방법으로, greedy search뿐만 아니라 긍정적 반응의 탐색을 사용한 모집단에 근거한 접근법으로 Traveling Salesman Problem(TSP)를 풀기 위해 제안된 Ant Colony System(ACS) Algorithms에 Q-학습을 적용한 기존의 Ant-Q 학습방범을 살펴보고 이 학습 기법에 다양화 전략을 통한 상태전이와 TD-오류를 적용한 학습방법인 Ant-TD 강화학습 방법을 제안한다. 제안한 강화학습은 기존의 ACS, Ant-Q학습보다 최적해에 더 빠르게 수렴할 수 있음을 실험을 통해 알 수 있었다.

Multicast Tree Generation using Meta Reinforcement Learning in SDN-based Smart Network Platforms

  • Chae, Jihun;Kim, Namgi
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권9호
    • /
    • pp.3138-3150
    • /
    • 2021
  • Multimedia services on the Internet are continuously increasing. Accordingly, the demand for a technology for efficiently delivering multimedia traffic is also constantly increasing. The multicast technique, that delivers the same content to several destinations, is constantly being developed. This technique delivers a content from a source to all destinations through the multicast tree. The multicast tree with low cost increases the utilization of network resources. However, the finding of the optimal multicast tree that has the minimum link costs is very difficult and its calculation complexity is the same as the complexity of the Steiner tree calculation which is NP-complete. Therefore, we need an effective way to obtain a multicast tree with low cost and less calculation time on SDN-based smart network platforms. In this paper, we propose a new multicast tree generation algorithm which produces a multicast tree using an agent trained by model-based meta reinforcement learning. Experiments verified that the proposed algorithm generated multicast trees in less time compared with existing approximation algorithms. It produced multicast trees with low cost in a dynamic network environment compared with the previous DQN-based algorithm.

지역 투자 정책을 이용한 강화학습 기반 동적 자산 할당 기법 (A Dynamic Asset Allocation Method based on Reinforcement learning Exploiting Local Traders)

  • 오장민;이종우;장병탁
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권8호
    • /
    • pp.693-703
    • /
    • 2005
  • 본 논문에서는 패턴 기반의 다수의 주가 예측 모델에 기반한 지역 투자자의 효율적인 결합을 통해, 거래 성능을 최대화 할 수 있는 동적 자산 할당 기법을 연구하였다. 각 예측 모델이 추천한 후보 종목에 효과적인 거래 대금 비율을 할당하는 메타 정책(meta policy)이라는 자산 할당 정책을 강화 학습 틀내에서 정의하였다. 이를 위해 각 예측 모델의 추천 종목 수와 전체 자산 대비 주식 자금 비율을 동시에 활용하는 상태 공간을 설계하였다. 대한민국 주식 시장에 대한 시뮬레이션 실험을 통해, 본 논문에서 제안한 자산 할당 정책은 기존의 고정 자산 할당 방법들에 비해 우수한 성능을 보임을 제시 하였다. 이는 강화학습을 통한 지역 투자자의 결합을 통해 의사 결정 문제에서 감독자 학습 기법으로 학습된 예측 모델의시너지 효과를 거둘 수 있음을 의미한다.

산업용 사물 인터넷을 위한 프라이버시 보존 연합학습 기반 심층 강화학습 모델 (Federated Deep Reinforcement Learning Based on Privacy Preserving for Industrial Internet of Things)

  • 한채림;이선진;이일구
    • 정보보호학회논문지
    • /
    • 제33권6호
    • /
    • pp.1055-1065
    • /
    • 2023
  • 최근 사물 인터넷을 활용한 산업 현장에서 수집되는 빅데이터를 활용해 복잡한 문제들을 해결하기 위하여 심층 강화학습 기술을 적용한 다양한 연구들이 이루어지고 있다. 심층 강화학습은 강화 학습의 시행 착오 알고리즘과 보상의 누적값을 이용해 자체 데이터를 생성하여 학습하고 신경망 구조와 파라미터 결정을 빠르게 탐색한다. 그러나 종래 방법은 학습 데이터의 크기가 커질수록 메모리 사용량과 탐색 시간이 기하급수적으로 높아지며 정확도가 떨어진다. 본 연구에서는 메타 학습을 적용한 연합학습 기반의 심층 강화학습 모델을 활용하여 55.9%만큼 보안성을 개선함으로써 프라이버시 침해 문제를 해결하고, 종래 최적화 기반 메타 학습 모델 대비 5.5% 향상된 97.8%의 분류 정확도를 달성하면서 평균 28.9%의 지연시간을 단축하였다.

Ant Colony System에서 효율적 경로 탐색을 위한 지역갱신과 전역갱신에서의 추가 강화에 관한 연구 (A Study about Additional Reinforcement in Local Updating and Global Updating for Efficient Path Search in Ant Colony System)

  • 이승관;정태충
    • 정보처리학회논문지B
    • /
    • 제10B권3호
    • /
    • pp.237-242
    • /
    • 2003
  • Ant Colony System(ACS) 알고리즘은 조합 최적화 문제를 해결하기 위한 메타 휴리스틱 탐색 방법이다. 이것은 greedy search뿐만 아니라 exploitation of positive feedback을 사용한 모집단에 근거한 접근법으로 Traveling Salesman Problem(TSP)를 풀기 위해 제안되었다. 본 논문에서는 전통적 전역갱신과 지역갱신 방법에 개미들이 방문한 각 간선에 대한 방문 횟수를 강화값으로 추가한 새로운 방법의 ACS를 제안한다. 그리고 여러 조건 하에서 TCS 문제를 풀어보고 그 성능에 대해 기존의 ACS 방법과 제안된 ACS 방법을 비교 평가해, 최적해에 더 빨리 수렴함을 실험을 통해 알 수 있었다.

메타버스 게임 테스팅에 대한 강화학습 에이전트 활용 (Using Reinforcement Learning Agent for Metaverse Game Testing)

  • 이학진
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제66차 하계학술대회논문집 30권2호
    • /
    • pp.135-136
    • /
    • 2022
  • 메타버스란 가공, 추상을 의미하는 메타(Meta)와 현실을 의미하는 유니버스(Unvierse)의 합성어이며 가상의 3차원을 뜻한다. 현재 메타버스는 4차 산업혁명의 중요 트렌드로 지목되어지고 있으며 다양한 기업들의 투자 또한 지속적으로 증가하는 추세이다. 이중 게임은 메타버스에서 가장 많은 비중을 차지하고 있으나 아직까지 메타버스 게임의 신뢰도가 높지 않으며 현재 출시되었거나 앞으로 출시될 게임들에 대한 적합한 테스트 기법이 필요한 실정이다. 이에 본 논문에서는 메타버스를 기반으로 하는 게임 테스팅에 강화학습 에이전트를 활용하는 방안에 대해 제안한다.

  • PDF

Neuro-fuzzy optimisation to model the phenomenon of failure by punching of a slab-column connection without shear reinforcement

  • Hafidi, Mariam;Kharchi, Fattoum;Lefkir, Abdelouhab
    • Structural Engineering and Mechanics
    • /
    • 제47권5호
    • /
    • pp.679-700
    • /
    • 2013
  • Two new predictive design methods are presented in this study. The first is a hybrid method, called neuro-fuzzy, based on neural networks with fuzzy learning. A total of 280 experimental datasets obtained from the literature concerning concentric punching shear tests of reinforced concrete slab-column connections without shear reinforcement were used to test the model (194 for experimentation and 86 for validation) and were endorsed by statistical validation criteria. The punching shear strength predicted by the neuro-fuzzy model was compared with those predicted by current models of punching shear, widely used in the design practice, such as ACI 318-08, SIA262 and CBA93. The neuro-fuzzy model showed high predictive accuracy of resistance to punching according to all of the relevant codes. A second, more user-friendly design method is presented based on a predictive linear regression model that supports all the geometric and material parameters involved in predicting punching shear. Despite its simplicity, this formulation showed accuracy equivalent to that of the neuro-fuzzy model.

상향식 계층분류의 최적화 된 병합을 위한 후처리분석과 피드백 알고리즘 (Reinforcement Post-Processing and Feedback Algorithm for Optimal Combination in Bottom-Up Hierarchical Classification)

  • 최윤정;박승수
    • 정보처리학회논문지B
    • /
    • 제17B권2호
    • /
    • pp.139-148
    • /
    • 2010
  • 본 논문은 자동화된 분류시스템의 성능향상을 위한 것으로 오분류율이 높은 불확실성이 강한 문서들의 범주결정방식을 개선하기 위한 후처리분석 방법과 피드백 알고리즘을 제안한다. 전통적인 분류시스템에서 분류의 정확성을 결정하는 요인으로 학습방법과 분류모델, 그리고 데이터의 특성을 들 수 있다. 특성들이 일부 공유되어 있거나 다의적인 특성들이 풍부한 문서들의 분류문제는 정형화된 데이터들에서 보다 심화된 분석과정이 요구된다. 특히 단순히 최상위 항목으로 지정하는 기존의 결정방법이 분류의 정확도를 저하시키는 직접적인 요인이 되므로 학습방법의 개선과 함께 분류모델을 적용한 이후의 결과 값인 순위정보 리스트의 관계를 분석하는 작업이 필요하다. 본 연구에서는 경계범주의 자동탐색기법으로 확장된 학습체계를 제안한 이전 연구의 후속작업으로써, 최종 범주를 결정하기까지의 후처리분석 방법과 이전의 학습단계로 피드백하여 신뢰성을 높일 수 있는 알고리즘을 제안하고 있다. 실험결과에서는 제안된 범주결정방식을 적용한 후 1회의 피드백을 수행하였을 때의 결과들을 단계적이고 종합적으로 분석함으로써 본 연구의 타당성과 정확성을 보인다.