Abstract
Multi-Layer Perceptron network has been mainly applied to many practical problems because of its nonlinear mapping ability. However the generalization ability of MLP networks may be affected by the number of hidden nodes, the initial values of weights and the training errors. These factors, if improperly chosen, may result in poor generalization ability of MLP networks. It is important to identify these factors and their interaction in order to control effectively the generalization ability of MLP networks. In this paper, we have empirically identified the factors that affect the generalization ability of MLP networks, and compared their relative effects on the generalization performance for the conventional and visualized weight selecting methods using the controller box.
다층 퍼셉트론(Multi-Layer Perceptron, MLP) 구조는 그의 비선형 적합능력으로 인하여 매우 다양한 실제 문제에 적용되고 있다. 그러나 일반화된 MLP 구조의 적합능력은 은닉노드의 개수. 초기 가중 값 그리고 학습 회수 또는 학습 오차와 같은 구조인자(factor)들에 크게 영향을 받는다. 만약 이들 구조인자가 부적절하게 선택되면 일반화된 MLP 구조의 적합능력이 매우 왜곡될 수 있다. 따라서 MLP구조에 영향을 주는 인자들의 결합 영향을 살펴보는 것은 중요한 문제이다. 이 논문에서는 제어상자(controller box)를 통한 학습결과와 더불어 MLP구조를 일반화할 때 영향을 줄 수 있는 신경망의 일반적인 구조인자 들을 실증적으로 살펴보고 이들의 상대효과를 비교한다.