• 제목/요약/키워드: Path Learning

검색결과 452건 처리시간 0.032초

다차원 학습경로 패턴 분석 시스템의 설계 및 구현 (Design and Implementation of Multi-dimensional Learning Path Pattern Analysis System)

  • 백장현;김영식
    • 정보처리학회논문지A
    • /
    • 제12A권5호
    • /
    • pp.461-470
    • /
    • 2005
  • 학습자 스스로 학습내용, 학습방법, 학습순서 등을 결정하고 재구조화할 수 있는 학습자 통제 환경에서는 학습자의 특성을 고려한 개별화 학습이 가능하다. 본 연구에서는 웹 기반 교수 학습 과정에서 중요시되고 있는 학습자 특성 변인 중에서 학습자의 학습경로 패턴을 Apriori 알고리즘을 이용하여 분석하고, 유사한 학습경로 패턴을 갖는 학습자들로 그룹화하였다. 이를 기반으로 학습자 개인에게 학습경로, 학습내용. 학습매체, 보조학습콘텐츠, 자료제시유형 등을 다차원적으로 제공하기 위한 다차원 학습경로 패턴 분석 시스템을 설계하고 구현하였다. 개발된 시스템에 대하여 만족도 검사를 실시한 결과 보조학습콘텐츠에 대한 만족도가 "매우 만족" $24.5\%$, "만족" $35.17\%$로 가장 높게 나타났다. 학습자 수준별로는 하위수준의 학습자에 대한 만족도가 "매우 만족" $20.2\%$, "만족" $31.2\%$로 상위수준의 학습자 "매우 만족" $18.4\%$, "만족" $28.54\%$ 보다 높게 나타났다. 개발된 시스템은 드릴-업, 드릴-다운 등의 OLAP 기술을 이용하여 학습자들에게 다양한 각도로 다차원적으로 의미 있는 정보를 제공할 것으로 기대된다.

네트워크기반의 강화학습 알고리즘과 시스템의 정보공유화를 이용한 최단경로의 검색 및 구현 (Search of Optimal Path and Implementation using Network based Reinforcement Learning Algorithm and sharing of System Information)

  • 민성준;오경석;안준영;허훈
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.174-176
    • /
    • 2005
  • This treatise studies composing process that renew information mastered by interactive experience between environment and system via network among individuals. In the previous study map information regarding free space is learned by using of reinforced learning algorithm, which enable each individual to construct optimal action policy. Based on those action policy each individuals can obtain optimal path. Moreover decision process to distinguish best optimal path by comparing those in the network composed of each individuals is added. Also information about the finally chosen path is being updated. A self renewing method of each system information by sharing the each individual data via network is proposed Data enrichment by shilling the information of many maps not in the single map is tried Numerical simulation is conducted to confirm the propose concept. In order to prove its suitability experiment using micro-mouse by integrating and comparing the information between individuals is carried out in various types of map to reveal successful result.

  • PDF

컴퓨터 게임에서 전술적 경로 찾기를 위한 휴리스틱 학습 (Learning Heuristics for Tactical Path-finding in Computer Games)

  • 유견아
    • 한국멀티미디어학회논문지
    • /
    • 제12권9호
    • /
    • pp.1333-1341
    • /
    • 2009
  • 컴퓨터 게임에서 전술적 경로 찾기란 캐릭터의 이동 경로를 결정할 때, 최단 거리나 최소 시간 등의 요소만이 아니라 주변의 전술 정보를 고려하여 경로를 선택해야 하는 경로 찾기를 말한다. 경로 찾기에 전술 정보를 포함하는 한 가지 방법은 게임에 필요한 전술 정보를 각 정보의 중요도에 따라 가중치를 부여하고 가중 합으로 휴리스틱 함수를 표현하는 것이다. 전술 정보의 가중치의 결정은 경로를 찾기 위한 탐색의 성능과 구해지는 경로의 특성을 결정짓기 때문에 매우 중요하다. 본 논문에서는 레벨 설계자가 캐릭터의 특성에 맞는 경로 표본을 제공하면 현재 가중치에 의해 탐색된 경로와 주어진 표본 경로와의 차이를 이용하여 더 나은 가중치로 조정함으로서 휴리스틱 함수를 개선하는 방법을 제안한다. 제안된 방법은 탐색 오차를 발견하여 휴리스틱을 학습하기 위해 수정된 탐색 알고리즘과 퍼셉트론-유사 가중치 갱신 공식을 포함한다. 시뮬레이션 결과를 통해 전술 정보를 이용한 경로 계획과 기존의 경로 찾기의 차이를 보여주며 학습의 성능에 영향을 주는 요인들에 대해 분석하고 실제 게임 환경에 적용한 예를 보여 준다.

  • PDF

미로 환경에서 최단 경로 탐색을 위한 실시간 강화 학습 (Online Reinforcement Learning to Search the Shortest Path in Maze Environments)

  • 김병천;김삼근;윤병주
    • 정보처리학회논문지B
    • /
    • 제9B권2호
    • /
    • pp.155-162
    • /
    • 2002
  • 강화 학습(reinforcement teaming)은 시행-착오(trial-and-er개r)를 통해 동적 환경과 상호작용하면서 학습을 수행하는 학습 방법으로, 실시간 강화 학습(online reinforcement learning)과 지연 강화 학습(delayed reinforcement teaming)으로 분류된다. 본 논문에서는 미로 환경에서 최단 경로를 빠르게 탐색할 수 있는 실시간 강화 학습 시스템(ONRELS : Outline REinforcement Learning System)을 제안한다. ONRELS는 현재 상태에서 상태전이를 하기 전에 선택 가능한 모든 (상태-행동) 쌍에 대한 평가 값을 갱신하고 나서 상태전이를 한다. ONRELS는 미로 환경의 상태 공간을 압축(compression)하고 나서 압축된 환경과 시행-착오를 통해 상호 작용하면서 학습을 수행한다. 실험을 통해 미로 환경에서 ONRELS는 TD -오류를 이용한 Q-학습과 $TD(\lambda{)}$를 이용한 $Q(\lambda{)}$-학습보다 최단 경로를 빠르게 탐색할 수 있음을 알 수 있었다.

지속적 학습 환경에서 효율적 경로 선택 (Efficient Path Selection in Continuous Learning Environment)

  • Park, Seong-Hyeon;Kang, Seok-Hoon
    • 전기전자학회논문지
    • /
    • 제25권3호
    • /
    • pp.412-419
    • /
    • 2021
  • 본 논문에서는, 지속적 학습 환경에서 효율적 경로 선택에 의한 LwF방법의 성능향상을 제안한다. 이를 위해 콘볼루션 레이어를 분리하는 방법을 사용하여 기존의 LwF와 성능 및 구조를 비교한다. 비교를 위해 복잡도가 다른 구성을 가진 MNIST, EMNIST, Fashion MNIST, CIFAR10 데이터를 사용하여 성능을 실험하였다. 실험결과, 각 태스크 별 정확도가 최대 20% 향상되었으며, LwF 기반의 지속적 학습 환경에서 치명적 망각 현상이 개선되었다.

수준별 학습 패턴을 적용한 블랜디드 러닝 모형의 개발 (Development of a Blended Learning Model using Differentiated Learning Pattern)

  • 김용범
    • 한국콘텐츠학회논문지
    • /
    • 제10권3호
    • /
    • pp.463-471
    • /
    • 2010
  • 학습 본 연구의 목적은 블랜디드 러닝 환경에서 적용될 학업 성취 수준별 교수 학습 모형을 제안하는 것이다. 블랜디드 러닝 환경에 포함된 변인과 구조를 살펴보기 위해 웹 학습요소와 자기조절학습을 기초로 하여 두 종류의 설문지를 개발하였고, 또한 이를 적용한 반응을 근거로 하여 각 요소 간 위상과 경로를 표현하였다. 본 연구에서는 고등학생 154명을 실험 대상으로 2주간 사이버 학습을 실시하고 각 학습자의 성취 수준과 설문지 자료를 획득하였다. 또한 상관분석, 전통적 다차원척도법 그리고 중회귀분석을 적용하여 통계적 처리를 통해 각 요소 간 위상과 경로를 규명하고 블랜디드 러닝 모형을 정형화하였다.

Interpolation based Single-path Sub-pixel Convolution for Super-Resolution Multi-Scale Networks

  • Alao, Honnang;Kim, Jin-Sung;Kim, Tae Sung;Oh, Juhyen;Lee, Kyujoong
    • Journal of Multimedia Information System
    • /
    • 제8권4호
    • /
    • pp.203-210
    • /
    • 2021
  • Deep leaning convolutional neural networks (CNN) have successfully been applied to image super-resolution (SR). Despite their great performances, SR techniques tend to focus on a certain upscale factor when training a particular model. Algorithms for single model multi-scale networks can easily be constructed if images are upscaled prior to input, but sub-pixel convolution upsampling works differently for each scale factor. Recent SR methods employ multi-scale and multi-path learning as a solution. However, this causes unshared parameters and unbalanced parameter distribution across various scale factors. We present a multi-scale single-path upsample module as a solution by exploiting the advantages of sub-pixel convolution and interpolation algorithms. The proposed model employs sub-pixel convolution for the highest scale factor among the learning upscale factors, and then utilize 1-dimension interpolation, compressing the learned features on the channel axis to match the desired output image size. Experiments are performed for the single-path upsample module, and compared to the multi-path upsample module. Based on the experimental results, the proposed algorithm reduces the upsample module's parameters by 24% and presents slightly to better performance compared to the previous algorithm.

유비쿼터스 생활영어 체험학습장에 영향을 미치는 요인들 간의 경로분석에 관한 연구 (A Study on the Path Analysis between factors affecting in Ubiquitous Living English Experience Learning Center)

  • 백현기
    • 디지털융복합연구
    • /
    • 제8권4호
    • /
    • pp.151-164
    • /
    • 2010
  • 본 연구는 유비쿼터스 생활영어 체험학습장의 학습만족과 관련 있는 변인들 가운데 학습환경, 자신감, 학습흥미, 학습만족간의 연구모형으로 구성하여 이 연구모형의 경로를 분석하여 다음과 같은 결과를 얻었다. 첫째, 연구의 변인들 간에 상관관계를 살펴본 결과 유비쿼터스 생활영어 체험학습장을 이용하는 학습자의 학습환경, 자신감, 학습흥미, 학습만족 간에 상관관계가 있었다. 학습환경과 학습흥미, 학습환경과 학습만족, 자신감과 학습흥미 자신감과 학습만족, 학습흥미와 학습만족 간에 정적상관관계를 가졌다. 둘째, 설정된 요인들 간의 경로를 분석해본 결과, 이론모형이 모형 적합도 지수에 만족하여 경로모델이 도출되었다. 연구모형의 경로는 학습환경${\rightarrow}$자신감의 경로와 학습환경${\rightarrow}$학습흥미의 경로가 유의하였다. 그리고 학습환경${\rightarrow}$학습만족의 경로, 자신감${\rightarrow}$학습만족의 경로와 학습흥미${\rightarrow}$학습만족의 경로가 유의했다. 마지막으로, 유비쿼터스 생활영어 체험학습장의 학습환경은 학습자의 학습만족에 직접영향을 미치는 경로로 나타났다.

  • PDF

가상 환경에서의 강화학습 기반 긴급 회피 조향 제어 (Reinforcement Learning based Autonomous Emergency Steering Control in Virtual Environments)

  • 이훈기;김태윤;김효빈;황성호
    • 드라이브 ㆍ 컨트롤
    • /
    • 제19권4호
    • /
    • pp.110-116
    • /
    • 2022
  • Recently, various studies have been conducted to apply deep learning and AI to various fields of autonomous driving, such as recognition, sensor processing, decision-making, and control. This paper proposes a controller applicable to path following, static obstacle avoidance, and pedestrian avoidance situations by utilizing reinforcement learning in autonomous vehicles. For repetitive driving simulation, a reinforcement learning environment was constructed using virtual environments. After learning path following scenarios, we compared control performance with Pure-Pursuit controllers and Stanley controllers, which are widely used due to their good performance and simplicity. Based on the test case of the KNCAP test and assessment protocol, autonomous emergency steering scenarios and autonomous emergency braking scenarios were created and used for learning. Experimental results from zero collisions demonstrated that the reinforcement learning controller was successful in the stationary obstacle avoidance scenario and pedestrian collision scenario under a given condition.

효율적인 경로 선택을 위한 Q-Learning 정책 및 보상 설계 (Q-Learning Policy and Reward Design for Efficient Path Selection)

  • 용성중;박효경;유연휘;문일영
    • 한국항행학회논문지
    • /
    • 제26권2호
    • /
    • pp.72-77
    • /
    • 2022
  • 강화학습의 기법 중 Q-Learning은 주어진 상태에서 행동을 수행하면서 미래의 효율적인 기댓값을 예측하는 Q 함수를 학습하면서 최적의 정책을 학습하는 것이다. Q-Learning은 강화학습의 기본적인 알고리즘으로 많이 활용하고 있다. 본 논문에서는 Q-Learning을 바탕으로 정책과 보상을 설계하여 효율적인 경로를 선택하고 학습하는 효용성에 대하여 연구하였다. 또한 Frozen Lake 게임의 8x8 그리드 환경에 동일한 학습 횟수를 적용하여 기존 알고리즘 및 처벌 보상 정책과 제시한 처벌강화 정책의 결과를 비교하였다. 해당 비교를 통해 본 논문에서 제시한 Q-Learning의 처벌강화 정책이 통상적인 알고리즘의 적용보다 학습 속도를 상당히 높일 수 있는 것으로 분석되었다.