• 제목/요약/키워드: 학습속도

검색결과 1,099건 처리시간 0.027초

개선된 강화학습을 이용한 줄고누게임의 학습속도개선 (An improvement of the learning speed through Improved Reinforcement Learning on Jul-Gonu Game)

  • 신용우;정태충
    • 인터넷정보학회논문지
    • /
    • 제10권3호
    • /
    • pp.9-15
    • /
    • 2009
  • 보드게임은 많은 수의 말들과 상태공간을 갖고 있다. 그래서 학습이 많은 시간동안 학습을 하여야 한다. 또한 상대방과의 대결이 1 대 1 로 이루어지지 않고, 여러 말 대 여러 말로 이루어지므로 전략적인 사고가 필요하다. 그러므로 최적의 학습을 적용하여야 한다. 본 논문에서는 강화학습 알고리즘을 이용하였다. 보상 값을 받아 보드게임 말이 학습하게 하여 지능적으로 움직이게 하였다. 학습 도중에 동일한 최선 값이 있을 때, 줄고누 문제 영역 지식을 활용한 휴리스틱을 사용해 학습의 속도 향상을 시도하였다. 단순 구현된 말과 개선 구현된 말을 비교하기 위해 보드게임을 제작하였다. 그래서 일방공격형 말과 승부를 하게 하였다. 실험결과 개선 구현된 말의 성능이 학습속도 측면에서 월등히 향상됨을 알 수 있었다.

  • PDF

오류 역전도 알고리즘의 학습속도 향상기법 (An Enhancement of Learning Speed of the Error - Backpropagation Algorithm)

  • 심범식;정의용;윤충화;강경식
    • 한국정보처리학회논문지
    • /
    • 제4권7호
    • /
    • pp.1759-1769
    • /
    • 1997
  • 다층신경회로망의 학습방법인 오류역전도 알고리즘은 연관기억장치, 음성인식, 패턴인식, 로보틱스등과 같은 다양한 응용분야에 널리 사용되고 있다. 그럼에도 불구하고 계속 많은 논문들이 역전도 알고리즘에 대해 발표되고 있는 실정이다. 이러한 연구 동향의 주된 이유는, 뉴런 갯수와 학습 패턴의 갯수가 큰 경우에 역전도 알고리즘의 학습속도가 상당히 느리다는 사실때문이다. 본 연구에서는 가변학습율, 가변모멘텀율, 그리고 시그모이드 함수의 가변기울기를 이용한 새로운 학습속도 가속기법을 개발하였다. 학습이 수행되는 도중에, 이러한 파라메터들은 전체 오류의 변화량에 따라 연속적으로 조정되며, 제안된 기법은 기존의 역전도 알고리즘에 비해 획기적으로 학습시간을 단축시키는 결과를 보였다. 제안된 기법의 효율성을 입증하기 위하여, 처음에는 난수발생기로 생성한 이진 데이터를 이용하여 에포크(epoch) 횟수를 비교할 때 훌륭한 속도 향상을 보였으며, 또한, 기계학습(machine learning)의 벤치마크 학습자료로 많이 사용되는 이진 Monk's data, 4, 5, 6, 7비트 패리티 검사 문제와 실수 Iris data에도 적용하였다.

  • PDF

다층 구조 신경회로망의 학습 속도 향상을 위한 활성화 함수의 변화 (Variation of activation functions for accelerating the learning speed of the multilayer neural network)

  • 이병도;이민호
    • 센서학회지
    • /
    • 제8권1호
    • /
    • pp.45-52
    • /
    • 1999
  • 이 논문에서는 오차 역전파 학습 알고리듬의 학습 속도를 향상시키기 위한 새로운 학습 방법을 제안한다. 제안하고자 하는 방법은 시그모이드 형태를 갖는 신경회로망의 활성화 함수(activation function) 자체에 고차항(higher order)을 적절히 이용하여 초기 학습 단계에서 발생할 수 있는 조기 포화(premature saturation) 현상을 계산량의 큰 증가 없이 효과적으로 대처할 수 있다. 고차항을 이용함으로써 은닉층 활성화 함수의 도합수가 작은 값으로 감소함에 따라 신경망의 연결 강도를 학습시키는 학습율은 적응적으로 큰 값을 갖게 된다. 또한, 은닉층에 고차항을 이용하는 제안한 방법에 모멘텀(momentum) 학습 알고리듬을 결합하는 새로운 hybrid 학습 방법을 제안한다. 컴퓨터 모의 실험을 통해 제안하고자 하는 학습 방법과 기존의 방법들과의 학습 속도 성능을 비교한다.

  • PDF

거리를 고려한 줄고누게임의 학습속도 개선 (An Improvement of the Learning Speed through Considered Distance on Jul-Gonu Game)

  • 신용우;정태충
    • 한국게임학회 논문지
    • /
    • 제10권1호
    • /
    • pp.105-113
    • /
    • 2010
  • 보드게임은 많은 수의 말들과 상태공간을 갖고 있다. 그래서 많은 시간동안 학습을 하여야 한다. 또한 상대방과의 대결이 1 대 1로 이루어지지 않고, 여러 말 대 여러 말로 이루어지므로 전략적인 사고가 필요하다. 그러므로 최적의 학습을 적용하여야 한다. 학습 도중에 동일한 최선 값이 있을 때, 줄고누의 문제 영역 지식을 활용한 휴리스틱을 사용해 학습의 속도 향상을 시도하였다. 강화학습을 이용한 말과 제안한 개선된 강화학습을 이용한 말을 비교하기 위해 줄고누게임을 제작하였다. 그래서 일방적으로 공격을 하는 말과 승부를 하게 하였다. 개선된 말은 거리를 고려하여 상대방 말을 공격하였다. 실험결과 개선된 강화학습을 이용한 말의 성능이 학습속도 측면에서 향상됨을 알 수 있었다.

관리자의 조절초점이 조직학습활동에 미치는 차별적 영향에 대한 실증 연구 (An Empirical Study on the Influence of the Regulatory Focus of Managers on Organizational Learning Activities)

  • 김영균
    • 한국산업정보학회논문지
    • /
    • 제25권6호
    • /
    • pp.85-94
    • /
    • 2020
  • 급변하는 마케팅 환경에서 조직학습의 중요성이 증대되고 있다. 다양한 관리자들의 특성 중 조절초점이론과 기업의 상층부 이론을 결합하여 조절초점이 조직의 학습활동에의 세 가지 영역(학습활동의 넓이, 깊이, 속도)에 미치는 영향을 연구하였다. 수도권의 중소중견 기업의 중간관리자 이상의 간부들을 중심으로 설문을 진행하였다. 관리자의 촉진초점은 학습의 넓이와 깊이 그리고 속도에 모두 정의 영향을 미치는 것을 확인하였고, 특히, 학습의 넓이 예방초점보다 유의미하게 높은 수준의 영향을 미치는 것을 확인하였다.

반복 학습 제어를 이용한 2관성 공진계의 진동 억제에 관한 연구 (Study on Vibration Suppression of 2-Mass Resonant System Using Iterative Learning Control)

  • 이학성
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 V
    • /
    • pp.2585-2588
    • /
    • 2003
  • 2 관성 공진계는 마른 응답을 위해 제어이득을 크게 하면 공진에 의해 축비틀림 진동이 일어나는 경우가 많다. 본 논문에서는 반복 학습 제어기법을 활용하여 불확실한 모델 계수를 포함하는 2 관성 공진계의 진동억제를 시도한다. 2관성 공진계의 경우 제어 대상이 되는 부하측 속도는 학습 제어로 직접 적용하기가 힘들고 또한 측정 또한 어렵다. 본 논문에서는 부하측 속도와 전동기측 속도간의 관계를 이용하여 직접 부하측 속도를 제어하는 대신 전동기측 속도를 제어하여 간접적으로 부하측 속도를 제어하였다. 제안된 방식은 전형적인 2 관성 공진계에 모의 실험을 통해 적용되었고, 정확한 모델이 없이도 진동 없는 마른 응답특성을 보여준다.

  • PDF

다층퍼셉트론의 오류역전파 학습과 계층별 학습의 비교 분석 (Comparative Analysis on Error Back Propagation Learning and Layer By Layer Learning in Multi Layer Perceptrons)

  • 곽영태
    • 한국정보통신학회논문지
    • /
    • 제7권5호
    • /
    • pp.1044-1051
    • /
    • 2003
  • 본 논문은 MLP의 학습 방법으로 사용되는 EBP학습, Cross Entropy함수, 계층별 학습을 소개하고, 필기체 숫자인식 문제를 대상으로 각 학습 방법의 장단점을 비교한다. 실험 결과, EBP학습은 학습 초기에 학습 속도가 다른 학습 방법에 비해 느리지만, 일반화 성능이 좋다. 또한, EBP학습의 단점을 보안한 Cross Entropy 함수는 학습 속도가 EBP학습보다 빠르다. 그러나, 출력층의 오차 신호가 목표 벡터에 대해 선형적으로 학습하기 때문에, 일반화 성능이 EBP학습보다 낮다. 그리고, 계층별 학습은 학습 초기에, 학습 속도가 가장 빠르다. 그러나, 일정한 시간 후, 더 이상 학습이 진행되지 않기 때문에, 일반화 성능이 가장 낮은 결과를 얻었다. 따라서, 본 논문은 MLP를 응용하고자 할 때, 학습 방법의 선택 기준을 제시한다.

개선된 유전자 알고리즘과 역전파 신경망 알고리즘을 이용한 비선형 모의자료의 학습비교 (A Comparison on the Learning Effect of Simulated Nonlinear Data Using a Modified Generic and Backpropagation Algorithm)

  • 윤여창
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (B)
    • /
    • pp.694-696
    • /
    • 2005
  • 본 논문에서는 개선된 유전자 알고리즘과 역전파 신경망 알고리즘의 특징을 살펴보고, 비선형 모의자료를 이용하여 개선된 유전자 알고리즘 기반의 신경망 학습 효과와 역전파 신경망 알고리즘을 이용한 신경망 학습 효과를 비교해 본다. 유전자 알고리즘을 이용한 신경망 학습에는 개선된 신경망 제어기를 이용한다. 역전파 알고리즘을 이용한 신경망 학습에는 일반화 성능향상을 위한 인자들의 결합효과를 이용한다. 모의실험을 통하여 두 가지의 학습에서 학습 수령의 정도와 학습 속도 등을 비교하는 모의실험 결과를 개선된 유전자 알고리즘과 신경망 알고리즘의 학습 결과와 항께 제시한다. 모의실험의 결과로서 유전자 알고리즘을 적용한 개선된 신경망 제어기를 통한 학습 결과가 일반 신경망 학습 결과보다 초기 가중값을 작은 범위에서 발생시킬 때 수렴 정확도 및 학습 속도에서 좋은 결과를 나타내 주고 있다.

  • PDF

합성곱 신경망의 학습 가속화를 위한 방법 (A Method for accelerating training of Convolutional Neural Network)

  • 최세진;정준모
    • 문화기술의 융합
    • /
    • 제3권4호
    • /
    • pp.171-175
    • /
    • 2017
  • 최근 CNN(Convolutional Neural Network)의 구조가 복잡해지고 신견망의 깊이가 깊어지고 있다. 이에 따라 신경망의 학습에 요구되는 연산량 및 학습 시간이 증가하게 되었다. 최근 GPGPU 및 FPGA를 이용하여 신경망의 학습 속도를 가속화 하는 방법에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 NVIDIA GPGPU를 제어하는 CUDA를 이용하여 CNN의 특징추출부와 분류부에 대한 연산을 가속화하는 방법을 제시한다. 특징추출부와 분류부에 대한 연산을 GPGPU의 블록 및 스레드로 할당하여 병렬로 처리하였다. 본 논문에서 제안하는 방법과 기존 CPU를 이용하여 CNN을 학습하여 학습 속도를 비교하였다. MNIST 데이터세트에 대하여 총 5 epoch을 학습한 결과 제안하는 방법이 CPU를 이용하여 학습한 방법에 비하여 약 314% 정도 학습 속도가 향상된 것을 확인하였다.

뒤틀림 현상이 없는 FSOM 학습 알고리즘 (Improved Fast SOM learning algorithm without cross-over)

  • 정선정;정순호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2001년도 춘계학술발표논문집 (하)
    • /
    • pp.1029-1032
    • /
    • 2001
  • 자기구성 특징지도(Self-Organizing feature Map : SOM) 및 $L^*$ 등의 자가 학습 신경망의 알고리즘들은 학습 결과 중에 바람직하지 못한 뒤틀림 현상(cross-over)을 생성하게 되므로 재학습으로 인한 전반적인 학습 시간의 지연을 초래한다. 이 논문에서는 비교적 학습 속도가 빠른 $L^*$의 점증적 학습 구조를 기본으로 하여 뒤틀림 현상 방지를 목적으로 초기 학습 단계에서 학습 가중치들의 노드들을 재조정하는 개선된 알고리즘을 제안한다. 이러한 알고리즘의 실험 결과는 모두 정상적인 학습 결과를 보이고 학습의 시행 착오적인 재실행이 없으므로 전반적인 학습 속도는 기존의 알고리즘보다 빠르게 됨을 보인다.

  • PDF