Abstract
This paper proposes an efficient learning algorithm for improving the training performance of the
neural network. The proposed method improves the training performance by applying the backpropagation
algorithm of a global optimization method which is a hybrid of a stochastic approximation
and a conjugate gradient method. The approximate initial point for f a ~gtl obal optimization is estimated
first by applying the stochastic approximation, and then the conjugate gradient method, which is the
fast gradient descent method, is applied for a high speed optimization. The proposed method has been
applied to the parity checking and the pattern classification, and the simulation results show that the performance
of the proposed method is superior to those of the conventional backpropagation and the backpropagation
algorithm which is a hyhrid of the stochastic approximation and steepest descent method.
본 논문에서는 신경망의 학습성능을 개선하기 위해 확룰적 근사법과 공액기울기법에 기초를 둔 새로운 학습방법을 제안하였다. 제안된 방법에서는 확률적 근사법과 공액기울기법을 조합 사용한 전역 최적화 기법의 역전파 알고리즘을 적용함으로써 학습성능을 최대한 개선할 수 있도록 하였다. 확률적 근사법은 국소최소점을 벗어나 전역최적점에 치우친 근사점을 결정해 주는 기능을 하도록 하며, 이점을 초기값으로 하여 결정론적 기법의 공액기울기법을 적용함으로써 빠른 수렴속도로 전역최적점으로의 수렴확률을 놓였다. 제안된 방법을 패리티 검사와 패턴 분류에 각각 적용하여 그 타당성과 성능을 확인한 결과 제안된 방법은 초기값을 무작위로 설정하는 기울기하강법에 기초를 둔 기존의 역전파 알고리즘이나 확률적 근사법과 기울기하강법에 기초를 둔 역전파 알고리즘에 비해 최적해로의 수렴 확률과 그 수렴속도가 우수함을 확인할 수 있었다.