• Title/Summary/Keyword: 학습속도

Search Result 1,089, Processing Time 0.058 seconds

An improvement of the learning speed through Influence Map on Reinforcement Learning (영향력분포도를 이용한 강화학습의 학습속도개선)

  • Shin, Yong-Woo
    • Journal of Korea Game Society
    • /
    • v.17 no.4
    • /
    • pp.109-116
    • /
    • 2017
  • It takes quite amount of time to study a board game because there are many game characters and many state spaces are exist for board games. Therefore, game must do learning long. But, there is weakness with reinforcement learning. On Learning early, the learning speed becomes slow. If there were equal result that both are considered to be best ones during the course of learning stage, Heuristic which utilizes learning of problem area of Jul-Gonu was used to improve the speed of learning. To compare a normal character to an improved one, a board game was created, and then they fought against each other. As a result, improved character's ability was improved on learning speed.

Q-learning to improve learning speed using Minimax algorithm (미니맥스 알고리즘을 이용한 학습속도 개선을 위한 Q러닝)

  • Shin, YongWoo
    • Journal of Korea Game Society
    • /
    • v.18 no.4
    • /
    • pp.99-106
    • /
    • 2018
  • Board games have many game characters and many state spaces. Therefore, games must be long learning. This paper used reinforcement learning algorithm. But, there is weakness with reinforcement learning. At the beginning of learning, reinforcement learning has the drawback of slow learning speed. Therefore, we tried to improve the learning speed by using the heuristic using the knowledge of the problem domain considering the game tree when there is the same best value during learning. In order to compare the existing character the improved one. I produced a board game. So I compete with one-sided attacking character. Improved character attacked the opponent's one considering the game tree. As a result of experiment, improved character's capability was improved on learning speed.

Accelerating Levenberg-Marquardt Algorithm using Variable Damping Parameter (가변 감쇠 파라미터를 이용한 Levenberg-Marquardt 알고리즘의 학습 속도 향상)

  • Kwak, Young-Tae
    • Journal of the Korea Society of Computer and Information
    • /
    • v.15 no.4
    • /
    • pp.57-63
    • /
    • 2010
  • The damping parameter of Levenberg-Marquardt algorithm switches between error backpropagation and Gauss-Newton learning and affects learning speed. Fixing the damping parameter induces some oscillation of error and decreases learning speed. Therefore, we propose the way of a variable damping parameter with referring to the alternation of error. The proposed method makes the damping parameter increase if error rate is large and makes it decrease if error rate is small. This method so plays the role of momentum that it can improve learning speed. We tested both iris recognition and wine recognition for this paper. We found out that this method improved learning speed in 67% cases on iris recognition and in 78% cases on wine recognition. It was also showed that the oscillation of error by the proposed way was less than those of other algorithms.

Improvement of Sequential Prediction Algorithm for Player's Action Prediction (플레이어 행동예측을 위한 순차예측 알고리즘의 개선)

  • Shin, Yong-Woo;Chung, Tae-Choong
    • Journal of Internet Computing and Services
    • /
    • v.11 no.3
    • /
    • pp.25-32
    • /
    • 2010
  • It takes quite amount of time to study a game because there are many game characters and different stages are exist for games. This paper used reinforcement learning algorithm for characters to learn, and so they can move intelligently. On learning early, the learning speed becomes slow. Improved sequential prediction method was used to improve the speed of learning. To compare a normal learning to an improved one, a game was created. As a result, improved character‘s ability was improved 30% on learning speed.

The Effect of Initial Weight, Learning Rate and Regularized Coefficient on Generalization Performance (신경망 학습의 일반화 성능향상을 위한 초기 가중값과 학습률 그리고 계수조정의 효과)

  • Yoon YeoChang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2004.11a
    • /
    • pp.493-496
    • /
    • 2004
  • 본 연구에서는 신경망 학습의 중요한 평가 척도로써 고려될 수 있는 일반화 성능과 학습속도를 개선시키기 위한 방안으로써 초기 가중값과 학습률과 같은 주요 인자들을 이용한 신경망 학습 영향을 살펴본다. 특히 초기 가중값과 학습률을 고정시킨 후 새롭게 조정된 계수들을 점차적으로 변화시키는 새로운 인자 결합방법을 이용하여 신경망 학습량과 학습속도를 비교해 보고 계수조정을 통한 개선된 학습 영향을 살펴본다. 그리고 단순한 예제를 이용한 실증분석을 통하여 신경망 모형의 일반화 성능과 학습 속도 개선을 위한 각 인자들의 개별 효과와 결합 효과를 살펴보고 그 개선 방안을 제시한다.

  • PDF

A Study of Initial Determination for Performance Enhancement in Backpropagation (에러 역전파 학습 성능 향상을 위한 초기 가중치 결정에 관한 연구)

  • 김웅명;이현수
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.333-335
    • /
    • 1998
  • 에러 역전파 신경망에서 학습속도와 수렴률은 초기 가중의 분포에 따라 크게 영향을 받는다. 본 연구에서는 이를 위하여 비교사 학습 신경망(Hebbian learning rule)을 이용한 새로운 초기 가중치 결정 방법을 제안한다. 또는 비교사 학습 신경망이 에러 역전파 신경망 학습에 적당하도록 은닉층의 각 뉴런과 연결된 가중치의 norm을 이용하여 학습하였다. 시뮬레이션을 통하여 기존 에러 역전파 신경망 학습과 그 성능을 비교한 결과 제안한 초기 가중치 표현이 학습속도와 수렴능력에서 우수함을 나타낸다.

  • PDF

Effects of Lecturer Appearance and Speech Rate on Learning Flow and Teaching Presence in Video Learning (동영상 학습에서 교수자 출연여부와 발화속도가 학습몰입과 교수실재감에 미치는 효과)

  • Tai, Xiao-Xia;Zhu, Hui-Qin;Kim, Bo-Kyeong
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.22 no.1
    • /
    • pp.267-274
    • /
    • 2021
  • The purpose of this study is to investigate differences in learning flow and teaching presence according to the lecturer's appearance and the lecturer's speech rate. For this experiment, 183 freshman students from Xingtai University in China were selected as subjects of the experiment, and a total of four types of lecture videos were developed to test the lecturer's appearance and their speech rates. Data was analyzed through multivariate analysis of variance. According to the results of the analysis, first, learning flow and teaching presence of groups who experienced the presence of the lecturer appeared were significantly higher than the groups who learned without the appearance of the lecturer. Second, the groups who learned from videos with a fast speech rate showed higher learning flow and teaching presence than the group who learned at a slow speech rate. Third, there were no significant differences in both learning flow and teaching presence according to the lecturer's appearance and speech rate. This result provides a theoretical and practical basis for developing customized videos according to learners' characteristics.

How the Learning Speed and Tendency of Reinforcement Learning Agents Change with Prior Knowledge (사전 지식에 의한 강화학습 에이전트의 학습 속도와 경향성 변화)

  • Kim, Jisoo;Lee, Eun Hun;Kim, Hyeoncheol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.05a
    • /
    • pp.512-515
    • /
    • 2020
  • 학습 속도가 느린 강화학습을 범용적으로 활용할 수 있도록 연구가 활발하게 이루어지고 있다. 사전 지식을 제공해서 학습 속도를 높일 수 있지만, 잘못된 사전 지식을 제공했을 위험이 존재한다. 본 연구는 불확실하거나 잘못된 사전 지식이 학습에 어떤 영향을 미치는지 살펴본다. OpenAI Gym 라이브러리를 이용해서 만든 Gamble 환경, Cliff 환경, 그리고 Maze 환경에서 실험을 진행했다. 그 결과 사전 지식을 통해 에이전트의 행동에 경향성을 부여할 수 있다는 것을 확인했다. 또한, 경로탐색에 있어서 잘못된 사전 지식이 얼마나 학습을 방해하는지 알아보았다.

Improvement of the Gonu game using progressive deepening in reinforcement learning (강화학습에서 점진적인 심화를 이용한 고누게임의 개선)

  • Shin, YongWoo
    • Journal of Korea Game Society
    • /
    • v.20 no.6
    • /
    • pp.23-30
    • /
    • 2020
  • There are many cases in the game. So, Game have to learn a lot. This paper uses reinforcement learning to improve the learning speed. However, because reinforcement learning has many cases, it slows down early in learning. So, the speed of learning was improved by using the minimax algorithm. In order to compare the improved performance, a Gonu game was produced and tested. As for the experimental results, the win rate was high, but the result of a tie occurred. The game tree was further explored using progressive deepening to reduce tie cases and win rate has improved by about 75%.

An Improvement of the Outline Mede Error Backpropagation Algorithm Learning Speed for Pattern Recognition (패턴인식에서 온라인 오류역전파 알고리즘의 학습속도 향상방법)

  • 이태승;황병원
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04b
    • /
    • pp.616-618
    • /
    • 2002
  • MLP(multilayer perceptron)는 다른 패턴인식 방법에 비해 몇 가지 이점이 있어 다양한 문제영역에서 사용되고 있다 그러나 MLP의 학습에 일반적으로 사용되는 EBP(error backpropagation) 알고리즘은 학습시간이 비교적 오래 걸린다는 단점이 있으며, 이는 실시간 처리를 요구하는 문제나 대규모 데이터 및 MLP 구조로 인해 학습시간이 상당히 긴 문제에서 제약으로 작용한다. 패턴인식에 사용되는 학습데이터는 풍부한 중복특성을 내포하고 있으므로 패턴마다 MLP의 내부변수를 갱신하는 은라인 계열의 학습방식이 속도의 향상에 상당한 효과가 있다. 일반적인 온라인 EBP 알고리즘에서는 내부 가중치 갱신시 고정된 학습률을 적용한다. 고정 학습률을 적절히 선택함으로써 패턴인식 응용에서 상당한 속도개선을 얻을 수 있지만, 학습률을 고정함으로써 온라인 방식에서 패턴별 갱신의 특성을 완전히 활용하지 못하는 비효율성이 발생한다. 또한, 학습도중 패턴군이 학습된 패턴과 그렇지 못한 패턴으로 나뉘고 이 가운데 학습된 패턴은 학습을 위한 계산에 포함될 필요가 없음에도 불구하고, 기존의 온라인 EBP에서는 에폭에 할당된 모든 패턴을 일률적으로 계산에 포함시킨다. 이 문제에 대해 본 논문에서는 학습이 진행됨에 따라 패턴마다 적절한 학습률을 적용하고 필요한 패턴만을 학습에 반영하는 패턴별 가변학습률 및 학습생략(COIL) 방댑을 제안한다. 제안한 COIL의 성능을 입증하기 위해 화자증명과 음성인식을 실험하고 그 결과를 제시한다.

  • PDF