• Title/Summary/Keyword: 역전파 학습 알고리즘

Search Result 290, Processing Time 0.027 seconds

On the enhancement of the learning efficiency of the adaptive back propagation neural network using the generating and adding the hidden layer node (은닉층 노드의 생성추가를 이용한 적응 역전파 신경회로망의 학습능률 향상에 관한 연구)

  • Kim, Eun-Won;Hong, Bong-Wha
    • Journal of the Institute of Electronics Engineers of Korea TE
    • /
    • v.39 no.2
    • /
    • pp.66-75
    • /
    • 2002
  • This paper presents an adaptive back propagation algorithm that its able to enhancement for the learning efficiency with updating the learning parameter and varies the number of hidden layer node by the generated error, adaptively. This algorithm is expected to escaping from the local minimum and make the best environment for the convergence of the back propagation neural network. On the simulation tested this algorithm on three learning pattern. One was exclusive-OR learning and the another was 3-parity problem and 7${\times}$5 dot alphabetic font learning. In result that the probability of becoming trapped in local minimum was reduce. Furthermore, the neural network enhanced to learning efficient about 17.6%~64.7% for the existed back propagation. 

Comparison of Different Schemes for Speed Sensorless Control of Induction Motor Drives by Neural Network (신경회로망을 이용한 유도전동기의 속도 센서리스 방식에 대한 비교)

  • 국윤상;김윤호;최원범
    • The Transactions of the Korean Institute of Power Electronics
    • /
    • v.5 no.2
    • /
    • pp.131-139
    • /
    • 2000
  • 일반적으로 시스템 인식과 제어에 이용하는 다층 신경회로망은 기존의 역전파 알고리즘을 이용한다. 그러나 결선강도에 대한 오차의 기울기를 구하는 방법이기 때문에 국부적 최소점에 빠지기 쉽고, 수렴속도가 매우 늦으며 초기 결선강도 값들이나 학습계수에 민감하게 반응한다. 이와 같은 단점을 개선하기 위하여 확장된 칼만 필터링 기법을 역전파 알고리즘에 결합하였으나 계산상의 복잡성 때문에 망의 크기가 증가하면 실제 적용할 수 없다. 최근 신경회로망을 선형과 비선형 구간으로 구분하고 칼만 필터링 기법을 도입하여 수렴속도를 빠르게 하고 초기 결선강도 값에 크게 영향을 받지 않도록 개선하였으나, 여전히 은닉층의 선형 오차값을 역전파 알고리즘에 의해서 계산하기 때문에 학습계수에 민감하다는 단점이 있다. 본 논문에서는 위에서 언급한 기존의 신경회로망 알고리즘의 문제점을 개선하기 위하여 은닉층의 목표값을 최적기법에 의하여 직접계산하고 각각의 결선강도 값은 반복최소 자승법으로 온라인 학습하는 알고리즘을 제안하고 이들 신경회로망 알고리즘과 비교하고자 한다. 여러 가지 시뮬레이션과 실험을 통하여 제안된 방법이 초기 결선강도에 크게 영향을 받지 않으며, 기존의 학습계수 선정에 따른 문제점을 해결함으로써 신경회로망 모델에 기초한 실시간 제어기 설계에 응용할 수 있도록 하였다. 또한, 유도전동기의 속도추정과 제어에 적용하여 좋은 결과를 보였다.

  • PDF

Neural -Q met,hod based on $\varepsilon$-SVR ($\varepsilon$-SVR을 이용한 Neural-Q 기법)

  • 조원희;김영일;박주영
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.12a
    • /
    • pp.162-165
    • /
    • 2002
  • Q-learning은 강화학습의 한 방법으로서, 여러 분야에 널리 응용되고 있는 기법이다. 최근에는 Linear Quadratic Regulation(이하 LQR) 문제에 성공적으로 적용된 바 있는데, 특히, 시스템모델의 파라미터에 대한 구체적인 정보가 없는 상태에서 적절한 입력과 출력만을 가지고 학습을 통해 문제를 해결할 수 있어서 상황에 따라서 매우 실용적인 대안이 될 수 있다. Neural Q-learning은 이러한 Q-learning의 Q-value를 MLP(multilayer perceptron) 신경망의 출력으로 대치시킴으로써, 비선형 시스템의 최적제어 문제를 다룰 수 있게 한 방법이다. 그러나, Neural Q방식은 신경망의 구조를 먼저 결정한 후 역전파 알고리즘을 이용하여 학습하는 절차를 취하기 때문에, 시행착오를 통하여 신경망 구조를 결정해야 한다는 점, 역전파 알고리즘의 적용으로 인해 신경망의 연결강도 값들이 지역적 최적해로 수렴한다는 점등의 문제점을 상속받는 한계가 있다. 따라서, 본 논문에서는 Neural-0 학습의 도구로, 역전파 알고리즘으로 학습되는 MLP 신경망을 사용하는 대신 최근 들어 여러 분야에서 그 성능을 인정받고 있는 서포트 벡터 학습법을 사용하는 방법을 택하여, $\varepsilon$-SVR(Epsilon Support Vector Regression)을 이용한 Q-value 근사 기법을 제안하고 관련 수식을 유도하였다. 그리고, 모의 실험을 통하여, 제안된 서포트 벡터학습 기반 Neural-Q 방법의 적용 가능성을 알아보았다.

A Separate Learning Algorithm of Two-Layered Networks with Target Values of Hidden Nodes (은닉노드 목표 값을 가진 2개 층 신경망의 분리학습 알고리즘)

  • Choi, Bum-Ghi;Lee, Ju-Hong;Park, Tae-Su
    • Journal of KIISE:Software and Applications
    • /
    • v.33 no.12
    • /
    • pp.999-1007
    • /
    • 2006
  • The Backpropagation learning algorithm is known to have slow and false convergence aroused from plateau and local minima. Many substitutes for backpropagation announced so far appear to pay some trade-off for convergence speed and stability of convergence according to parameters. Here, a new algorithm is proposed, which avoids some of those problems associated with the conventional backpropagation problems, especially with local minima, and gives relatively stable and fast convergence with low storage requirement. This is the separate learning algorithm in which the upper connections, hidden-to-output, and the lower connections, input-to-hidden, separately trained. This algorithm requires less computational work than the conventional backpropagation and other improved algorithms. It is shown in various classification problems to be relatively reliable on the overall performance.

Pattern Recognition using Robust Feedforward Neural Networks (로버스트 다층전방향 신경망을 이용한 패턴인식)

  • Hwang, Chang-Ha;Kim, Sang-Min
    • Journal of the Korean Data and Information Science Society
    • /
    • v.9 no.2
    • /
    • pp.345-355
    • /
    • 1998
  • The back propagation(BP) algorithm allows multilayer feedforward neural networks to learn input-output mappings from training samples. It iteratively adjusts the network parameters(weights) to minimize the sum of squared approximation errors using a gradient descent technique. However, the mapping acquired through the BP algorithm may be corrupt when errorneous training data are employed. In this paper two types of robust backpropagation algorithms are discussed both from a theoretical point of view and in the case studies of nonlinear regression function estimation and handwritten Korean character recognition. For future research we suggest Bayesian learning approach to neural networks and compare it with two robust backpropagation algorithms.

  • PDF

Implementation of back propagation algorithm for wearable devices using FPGA (FPGA를 이용한 웨어러블 디바이스를 위한 역전파 알고리즘 구현)

  • Choi, Hyun-Sik
    • The Journal of Korean Institute of Next Generation Computing
    • /
    • v.15 no.2
    • /
    • pp.7-16
    • /
    • 2019
  • Neural networks can be implemented in variety of ways, and specialized chips is being developed for hardware improvement. In order to apply such neural networks to wearable devices, the compactness and the low power operation are essential. In this point of view, a suitable implementation method is a digital circuit design using field programmable gate array (FPGA). To implement this system, the learning algorithm which takes up a large part in neural networks must be implemented within FPGA for better performance. In this paper, a back propagation algorithm among various learning algorithms is implemented using FPGA, and this neural network is verified by OR gate operation. In addition, it is confirmed that this neural network can be used to analyze various users' bio signal measurement results by learning algorithm.

Developed BackPropagation which solve the problem of Local maxima (Local maxima 를 해결하기 위해 개선된 오류역전파 알고리즘)

  • Seo, Won-Taek;Cho, Beom-Joon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.605-608
    • /
    • 2001
  • 다층 신경망의 학습에 쓰이는 오류 역전파 학습은 매우 효과적이지만 학습 속도가 너무 느리고 최적의 은닉충의 뉴런의 수를 결정하는 해답은 아직 없는 실정이다. 또한 가끔은 국부 최소점(Local maxima)에 빠져 학습이 끝내 이루어지지 않는 경우가 있다. 이에 본 논문에서는 이러한 Local maxima 를 효과적으로 탈출 할 수 있는 방법에 대해서 연구해 보았다. 국부 최소점은 연결강도와 전체 오차 사이의 이차원 공간에서 표현할 수 있는데 본 알고리즘은 이러한 연결강도와 오차와의 관계를 인위적으로 변화시켜 결론적으로 Local maxima 를 탈출하게 하는 방법을 소개한다. 본 연구에서 사용된 방법은 네트웍이 학습중에 Local maxima 에 빠졌을 때 은닉층의 뉴런의 수를 추가하여 인위적으로 연결강도 평면의 위상을 변조시킨다. 또한 은닉충의 뉴런의 수를 동적으로 변화 시키면서 최적의 뉴런의 수를 결정할 수 있게 하였다. 위 알고리즘의 성능을 평가하기 위해서 XOR 문제와 $10{\times}8$ 영문폰트와 숫자의 학습에 적용하여 일반적인 역전파 학습과 비교 평가하였다.

  • PDF

Alternate Learning Algorithm of Multilayer Perceptron (다중 계층 퍼셉트론의 교대학습 알고리즘)

  • Choi Bum-Ghi;Lee Ju-Hong;Park Tae-Su
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.325-328
    • /
    • 2006
  • 역전파 학습 방법은 속도가 느리고, 지역 최소점으로 빠져 수렴에 실패하는 경우가 많다고 알려져 있다. 이제까지 알려진 역전파의 대체 방법들은 수렴 속도와 인자에 따른 수렴의 안정성에 대한 불균형을 해소 하는데 치중했다. 기존의 전통적인 역전파에서 발생하는 위와 같은 문제를 해결하기 위하여, 본 논문에서는 적은 용량의 저장 공간만을 요구하며 수렴이 빠르고 상대적으로 안정성이 보장되는 알고리즘을 제안한다. 이 방법은 상위연결(upper connections), 은닉층-출력층(hidden to output), 하위 연결(lower connections), 입력층-은닉층(input to hidden)에 대해 개별적으로 훈련을 시키는 교대 학습 방법을 적용한다.

  • PDF

Fuzzy Multilayer Perceptron by Using Self-Generation (자가 생성을 이용한 퍼지 다층 퍼셉트론)

  • 백인호;김광백
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2003.05a
    • /
    • pp.469-473
    • /
    • 2003
  • 다층 구조 신경망에서 널리 사용되는 오류 역전파 알고리즘은 초기 가중치와 불충분한 은닉층의 노드수로 인하여 지역 최소화에 빠질 가능성이 있다. 따라서 본 논문에서는 오류 역전파 알고리즘에서 은닉층의 노드 수를 설정하는 문제와 ARTI에서 경계 변수의 설정에 따라 인식률이 저하되는 문제점을 개선하기 위하여 ARTI과 Max-Min 신경망을 결합한 퍼지 다층 퍼셉트론을 제안한다. 제안된 자가 생성을 이용한 퍼지 다층 퍼셉트론은 입력층에서 은닉층으로 노드를 생성시키는 방식은 ARTI을 적용하였고, 가중치 조정은 특정 패턴에 대한 저장 패턴을 수정하도록 하는 winner-take-all 방식을 적용하였다. 제안된 학습 방법의 성능을 평가하기 위하여 학생증 영상을 대상으로 실험한 결과, 기존의 오류 역전파 알고즘보다 연결 가중치들이 지역 최소화에 위치할 가능성이 줄었고 학습 속도 및 정체 현상이 개선되었다.

  • PDF

Auto-Tuning Method of Learning Rate for Performance Improvement of Backpropagation Algorithm (역전파 알고리즘의 성능개선을 위한 학습율 자동 조정 방식)

  • Kim, Joo-Woong;Jung, Kyung-Kwon;Eom, Ki-Hwan
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.39 no.4
    • /
    • pp.19-27
    • /
    • 2002
  • We proposed an auto-tuning method of learning rate for performance improvement of backpropagation algorithm. Proposed method is used a fuzzy logic system for automatic tuning of learning rate. Instead of choosing a fixed learning rate, the fuzzy logic system is used to dynamically adjust learning rate. The inputs of fuzzy logic system are ${\Delta}$ and $\bar{{\Delta}}$, and the output is the learning rate. In order to verify the effectiveness of the proposed method, we performed simulations on a N-parity problem, function approximation, and Arabic numerals classification. The results show that the proposed method has considerably improved the performance compared to the backpropagation, the backpropagation with momentum, and the Jacobs' delta-bar-delta.