• 제목/요약/키워드: 학습행동

검색결과 1,303건 처리시간 0.035초

매크로 행동을 이용한 내시 Q-학습의 성능 향상 기법 (A Performance Improvement Technique for Nash Q-learning using Macro-Actions)

  • 성연식;조경은;엄기현
    • 한국멀티미디어학회논문지
    • /
    • 제11권3호
    • /
    • pp.353-363
    • /
    • 2008
  • 단일 에이전트 환경에서는 Q-학습의 학습 시간을 줄이기 위해서 학습결과를 전파시키거나 일렬의 행동을 패턴으로 만들어 학습한다. 다중 에이전트 환경에서는 동적인 환경과 다수의 에이전트 상태를 고려해야하기 때문에 학습에 필요한 시간이 단일 에이전트 환경보다 길어지게 된다. 이 논문에서는 단일 에이전트 환경에서 시간 단축을 위해서 유한개의 행동으로 정책을 만들어 학습하는 매크로 행동을 다중 에이전트 환경에 적합한 내시 Q-학습에 적용함으로써 다중 에이전트 환경에서 Q-학습 시간을 줄이고 성능을 높이는 방법을 제안한다. 실험에서는 다중 에이전트 환경에서 매크로 행동을 이용한 에이전트와 기본 행동만 이용한 에이전트의 내시 Q-학습 성능을 비교했다. 이 실험에서 네 개의 매크로 행동을 이용한 에이전트가 목표를 수행할 성공률이 기본 행동만 이용한 에이전트 보다 9.46% 높은 결과를 얻을 수 있었다. 매크로 행동은 기본 행동만을 이용해서 적합한 이동 행동을 찾아도 매크로 행동을 이용한 더 낳은 방법을 찾기 때문에 더 많은 Q-값의 변화가 발생되었고 전체 Q-값 합이 2.6배 높은 수치를 보였다. 마지막으로 매크로 행동을 이용한 에이전트는 약 절반의 행동 선택으로도 시작위치에서 목표위치까지 이동함을 보였다. 결국 에이전트는 다중 에이전트 환경에서 매크로 행동을 사용함으로써 성능을 향상시키고 목표위치까지 이동하는 거리를 단축해서 학습 속도를 향상시킨다.

  • PDF

다중 에이전트 강화 학습을 위한 상태 공간 타일링과 확률적 행동 선택 (State Space Tiling and Probabilistic Action Selection for Multi-Agent Reinforcement Learning)

  • 권기덕;김인철
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (B)
    • /
    • pp.106-108
    • /
    • 2006
  • 강화 학습은 누적 보상 값을 최대화할 수 있는 행동 선택 전략을 학습하는 온라인 학습의 한 형태이다. 효과적인 강화학습을 위해 학습 에이전트가 매 순간 고민해야 하는 문제가 탐험(exploitation)과 탐색(exploration)의 문제이다. 경험과 학습이 충분치 않은 상태의 에이전트는 어느 정도의 보상 값을 보장하는 과거에 경험한 행동을 선택하느냐 아니면 보상 값을 예측할 수 없는 새로운 행동을 시도해봄으로써 학습의 폭을 넓힐 것이냐를 고민하게 된다. 특히 단일 에이전트에 비해 상태공간과 행동공간이 더욱 커지는 다중 에이전트 시스템의 경우, 효과적인 강화학습을 위해서는 상태 공간 축소방법과 더불어 탐색의 기회가 많은 행동 선택 전략이 마련되어야 한다. 본 논문에서는 로봇축구 Keepaway를 위한 효율적인 다중 에이전트 강화학습 방법을 설명한다. 이 방법의 특징은 상태 공간 축소를 위해 함수근사방법의 하나인 타일 코딩을 적용하였고, 다양한 행동 선택을 위해 룰렛 휠 선택 전략을 적용한 것이다. 본 논문에서는 이 방법의 효과를 입증하기 위한 실험결과를 소개한다.

  • PDF

RGB 데이터 기반 행동 인식에 관한 연구 (A Study on Action Recognition based on RGB data)

  • 김상조;김미경;차의영
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.936-937
    • /
    • 2017
  • 최근 딥러닝을 통하여 영상의 카테고리 분류를 응용한 행동 인식이 활발히 연구되고 있다. 그러나 행동 인식을 위한 기존 연구 방법은 높은 수준의 하드웨어 사양을 요구하며 행동 인식에 대한 학습에 많은 시간이 소모되는 문제점을 지니고 있다. 또한, 행동 인식 테스트 결과를 얻기 위해 많은 시간이 소모되며 딥러닝 특성상 적은 수의 학습 데이터는 overfitting 문제를 일으킨다. 본 연구에서는 이러한 문제점을 해결하고자 행동인식을 위한 학습시간과 테스트 시간 감소를 위해 미리 학습된 VGG 모델을 사용해 얻어낸 RGB 데이터의 특징만을 학습에 사용하고 적은 수의 데이터로 행동 인식 테스트 결과를 높이기 위하여 RGB 데이터 증대를 통해 기존의 행동인식 연구보다 학습시간과 행동인식 테스트에 소모되는 시간을 줄인 방법을 행동 인식에 적용하였다. 이 방법을 UCF50 Dataset 에 적용하여 98.13%의 행동인식에 관한 정확성을 확인하였다.

초기 스타트업 창업가의 기업가적 리더십, 팀 학습 행동, 팀 경계 확장 행동 및 지각된 성과의 관계 (The Relationships between Founders' Entrepreneurial Leadership, Team Learning Behavior, Team Boundary Spanning, and Perceived Performance in the Early-Stage Startups)

  • 박정우;김진모
    • 중소기업연구
    • /
    • 제42권1호
    • /
    • pp.135-165
    • /
    • 2020
  • 이 연구의 목적은 초기 스타트업 창업가의 기업가적 리더십, 팀 학습 행동, 팀 경계 확장 행동 및 지각된 성과의 관계를 구명하는 것이다. 연구 목적을 달성하기 위하여 초기 스타트업 창업가의 기업가적 리더십이 지각된 성과에 미치는 직접적인 정적 영향에서 팀 학습 행동이 갖는 매개효과와 팀 학습 행동이 지각된 성과에 미치는 직접적인 정적 영향에서 팀 경계 확장 행동이 갖는 조절효과를 분석하였다. 78개 초기 스타트업을 대상으로 진행한 이 연구의 결과는 다음과 같다. 첫째, 초기 스타트업 창업가의 기업가적 리더십이 지각된 성과에 미치는 정적 영향을 팀 학습 행동이 완전 매개하는 것으로 나타났다(β=.309, p<.05). 둘째, 초기 스타트업에서 팀 학습 행동이 지각된 성과에 미치는 정적 영향은 팀 경계 확장 행동에 의해 조절되었다(β=.259, p<.05). 팀 경계 확장 행동은 팀 학습 행동이 지각된 성과에 미치는 영향을 선형적으로 강화하는 것으로 나타났다. 이 연구의 결과를 통해 세 가지 시사점을 얻을 수 있다. 첫째, 초기 스타트업에서 팀 학습 행동은 성과를 창출하는데 기여하는 중요한 활동으로, 팀 학습 행동 활성화를 위한 노력이 필요하다. 둘째, 초기 스타트업의 학습 문화를 구축하는데 중요한 영향을 미치는 것은 창업가의 기업가적 리더십으로, 창업 생태계에서는 창업가의 기업가적 리더십을 진단, 개발할 수 프로그램을 기획해야 한다. 셋째, 팀 학습 행동이 성과에 미치는 영향을 더욱 강화하기 위해서는 외부와의 상호작용을 통한 정보의 탐색과 습득이 중요하다. 후속 연구를 위한 두 가지 제언은 다음과 같다. 첫째, 창업가의 기업가적 리더십과 팀 학습 행동을 시점 차이를 두고 측정하여 인과관계를 실증해야 한다. 둘째, 초기 스타트업들이 성장한 이후 재무성과와 이 연구에서 측정한 창업가의 기업가적 리더십, 팀 학습 행동, 팀 경계 확장 행동과의 관계를 구명해야 한다.

대전 게임에서 상대방 캐릭터의 행동 패턴을 학습하여 대응하는 신경망 지능 캐릭터 (Neural Networks Intelligent Characters for Learning and Reacting to Action Patterns of Opponent Characters In Fighting Action Games)

  • 조병헌;정성훈;성영락;오하령
    • 전자공학회논문지CI
    • /
    • 제41권6호
    • /
    • pp.69-80
    • /
    • 2004
  • 본 논문에서는 일반적인 대전 액션 게임에서 신경망을 이용하여 구현한 지능 캐릭터가 상대방 캐릭터의 행동 패턴을 학습하는 방법을 제안한다. 상대방 캐릭터의 행동 패턴을 학습하기 위하여 상대방 캐릭터의 현재 행동은 물론 과거 행동도 입력받아 학습하게 함으로써, 행동 패턴을 학습하지 않은 경우보다 더 적절한 대응이 가능해진다. 상대방 캐릭터의 행동 패턴의 학습과 더불어 행동의 적절성을 판단하기 어려운 이동에 대한 학습 방법도 제시한다. 제안한 알고리즘의 성능을 평가하기 위하여 실제 게임과 매우 유사한 게임 환경에서 네 가지 행동 패턴을 이용하여 실험하였다. 실험 결과, 모든 행동 패턴에 대하여 지능 캐릭터가 최적 행동을 학습했고, 또한 무작위로 행동하는 캐릭터에 대해서도 이전 방법보다 우수한 성능을 보였다. 이와 같은 결과는 제안한 방법이 상대방 캐릭터의 행동 패턴을 적절히 학습하여 대응할 수 있음을 보여준다. 제안한 알고리즘은 온라인게임과 같이 캐릭터들이 서로 대결하는 게임들에 쉽게 응용될 수 있다.

학습자 행동모델기반의 적응적 하이퍼미디어 학습 시스템 설계 및 구현 (Design and Implementation of an Adaptive Hypermedia Learning System based on Leamer Behavioral Model)

  • 김영균;김영지;문현정;우용태
    • 한국멀티미디어학회논문지
    • /
    • 제12권5호
    • /
    • pp.757-766
    • /
    • 2009
  • 본 연구에서는 학습자 행동모델을 이용하여 개별적인 학습 환경을 제공할 수 있는 적응적 하이퍼미디어 학습 시스템을 제안하였다. 본 시스템에서는 학습자의 학습행동정보를 실시간으로 추적하여 관리할 수 있는 LBML을 제안하였다. 제안 시스템은 학습행동정보 수집시스댐과 적용적 학습지원시스템으로 구성된다. 학습행동정보 수집시스템은 웹 2.0기술을 이용하여 SCORM CMI 데이타 모델을 기반으로 학습자의 학습행동정보를 실시간으로 수집한다. 수집된 학습행동정보는 LBML 스키마를 기반으로 개별 학습자의 LBML 인스턴스로 저장된다. 적웅적 학습지원시스댐에서는 LBML 인스턴스를 분석하여 학습자의 반웅에 대한 즉각적인 피드백을 제공할 수 있는 규칙기반 학습지원모률과 상호작용적 학습지원모듈을 개발하였다.

  • PDF

튜터링 활동에서 학습행동양식이 학업성취도와 학습만족도에 미치는 효과 (The Effect of Learning Behavior Styles on Academic Achievement and Learning Satisfaction in Tutoring Activities)

  • 추성경;변소연;윤혜경
    • 한국콘텐츠학회논문지
    • /
    • 제21권10호
    • /
    • pp.594-602
    • /
    • 2021
  • 본 연구는 효과적인 튜터링 운영방안 모색을 위해 학생들이 인식하는 학습행동양식을 파악하고, 나아가 학습행동양식이 학업성취도와 학습만족도에 미치는 효과를 분석하고자 한다. 이를 위해 부산광역시에 소재한 D대학교 튜터링 프로그램 참가자 105명을 대상으로 자료를 수집하고, 연구문제에 따라 기술통계, 상관분석 그리고 회귀분석을 수행하였다. 연구결과는 첫째, 튜터링에 참가한 학생들의 학습행동양식은 환경의존적 자기주도학습 행동형과 독자적 자율학습행동형이 가장 많은 것으로 나타났다. 둘째, 학습행동양식과 학업성취도 및 학습만족도 간의 상관을 보면 적극적 협동학습행동형과 독자적 자율학습행동형이 높은 상관관계가 있는 것으로 나타났다. 셋째, 학습행동양식이 학업성취도와 학습만족도에 미치는 회귀분석에서는 적극적 협동학습행동형이 학습만족도에 유의미한 영향을 주는 것으로 나타났으나, 독자적 자율학습행동형과 환경의존적 자기주도학습행동형, 소극적 학습행동형은 유의하지 않은 것으로 나타났다. 이러한 결과를 통해 학교 측면에서 학습행동양식은 학생들의 학업적 성공과 실패에 중요한 요소로 인식될 수 있으므로, 교수자는 학습자의 학습행동양식을 확인하고, 이에 적합한 튜터링 교수·학습 설계 방안을 제공할 필요성이 있음을 시사한다.

다중에이전트 강화학습을 위한 SOM기반의 상태 일한화 (SOM-Based State Generalization for Multiagent Reinforcement Learning)

  • 임문택;김인철
    • 한국지능정보시스템학회:학술대회논문집
    • /
    • 한국지능정보시스템학회 2002년도 추계정기학술대회
    • /
    • pp.399-408
    • /
    • 2002
  • 다중 에이전트 학습이란 다중 에이전트 환경에서 에이전트간의 조정을 위한 행동전략을 학습하는 것을 말한다. 본 논문에서는 에이전트간의 통신이 불가능한 다중 에이전트 환경에서 각 에이전트들이 서로 독립적으로 대표적인 강화학습법인 Q학습을 전개함으로써 서로 효과적으로 협조할 수 있는 행동전략을 학습하려고 한다. 하지만 단일 에이전트 경우에 비해 보다 큰 상태-행동 공간을 갖는 다중 에이전트환경에서는 강화학습을 통해 효과적으로 최적의 행동 전략에 도달하기 어렵다는 문제점이 있다. 이 문제에 대한 기존의 접근방법은 크게 모듈화 방법과 일반화 방법이 제안되었으나 모두 나름의 제한을 가지고 있다. 본 논문에서는 대표적인 다중 에이전트 학습 문제의 예로서 먹이와 사냥꾼 문제(Prey and Hunters Problem)를 소개하고 이 문제영역을 통해 이와 같은 강화학습의 문제점을 살펴보고, 해결책으로 신경망 SOM을 이용한 일반화 방법인 QSOM 학습법을 제안한다. 이 방법은 기존의 일반화 방법과는 달리 군집화 기능을 제공하는 신경망 SOM을 이용함으로써 명확한 다수의 훈련 예가 없어도 효과적으로 이전에 경험하지 못했던 상태-행동들에 대한 Q값을 예측하고 이용할 수 있다는 장점이 있다. 또한 본 논문에서는 실험을 통해 QSOM 학습법의 일반화 효과와 성능을 평가하였다.

  • PDF

지능형 에이전트의 환경 적응성 및 확장성에 대한 연구 (The study on environmental adaptation and expansion of the intelligent agent)

  • 백혜정;박영택
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 가을 학술발표논문집 Vol.30 No.2 (1)
    • /
    • pp.136-138
    • /
    • 2003
  • 로봇이나 가상 캐릭터와 같은 지능형 에이전트가 자율적으로 살아가기 위해서는 주어진 환경을 인식하고, 그에 맞는 최적의 행동을 선택하는 능력을 가지고 있어야 한다. 본 논문은 이러한 지능형 에이전트를 구현하기 위하여, 외부 환경에 적응하면서 최적의 행동을 배우고 선택하는 방법을 연구하였다. 본 논문에서 제안한 방식은 강화 학습을 이용한 행동기반 학습 방법과 기호 학습을 이용한 인지 학습 방법을 통합한 방식으로 다음과 같은 특징을 가진다. 첫째, 외부 환경의 적응성을 수행하기 위하여 강화 학습을 이용하였으며. 이는 지능형 에이전트가 변화하는 환경에 대한 유연성을 가지도록 하였다. 둘째. 경험들에서 귀납적 기계학습과 연관 규칙을 이용하여 규칙을 추출하여 에이전트의 목적에 맞는 환경 요인을 학습함으로 주어진 환경에서 보다 빠르게, 확장된 환경에서 보다 효율적으로 행동을 선택을 하도록 하였다. 제안한 통합방식은 기존의 강화 학습만을 고려한 학습 알고리즘에 비하여 학습 속도를 향상 시킬수 있으며, 기호 학습만을 고려한 학습 알고리즘에 비하여 환경에 유연성을 가지고 행동을 적용할 수 있는 장점을 가진다.

  • PDF

효율적인 멀티 에이전트 강화학습을 위한 RBFN 기반 정책 모델 (RBFN-based Policy Model for Efficient Multiagent Reinforcement Learning)

  • 권기덕;김인철
    • 한국지능정보시스템학회:학술대회논문집
    • /
    • 한국지능정보시스템학회 2007년도 추계학술대회
    • /
    • pp.294-302
    • /
    • 2007
  • 멀티 에이전트 강화학습에서 중요한 이슈 중의 하나는 자신의 성능에 영향을 미칠 수 있는 다른 에이전트들이 존재하는 동적 환경에서 어떻게 최적의 행동 정책을 학습하느냐 하는 것이다. 멀티 에이전트 강화 학습을 위한 기존 연구들은 대부분 단일 에이전트 강화 학습기법들을 큰 변화 없이 그대로 적용하거나 비록 다른 에이전트에 관한 별도의 모델을 이용하더라도 현실적이지 못한 가정들을 요구한다. 본 논문에서는 상대 에이전트에 대한RBFN기반의 행동 정책 모델을 소개한 뒤, 이것을 이용한 강화 학습 방법을 설명한다. 본 논문에서는 제안하는 멀티 에이전트 강화학습 방법은 기존의 멀티 에이전트 강화 학습 연구들과는 달리 상대 에이전트의 Q 평가 함수 모델이 아니라 RBFN 기반의 행동 정책 모델을 학습한다. 또한, 표현력은 풍부하나 학습에 시간과 노력이 많이 요구되는 유한 상태 오토마타나 마코프 체인과 같은 행동 정책 모델들에 비해 비교적 간단한 형태의 행동 정책 모델을 이용함으로써 학습의 효율성을 높였다. 본 논문에서는 대표적이 절대적 멀티 에이전트 환경인 고양이와 쥐 게임을 소개한 뒤, 이 게임을 테스트 베드 삼아 실험들을 전개함으로써 제안하는 RBFN 기반의 정책 모델의 효과를 분석해본다.

  • PDF