Abstract
In this paper, we evaluate the learning ability of non-monotonic DMM(Deterministic Boltzmann Machine) network through numerical simulations. The simulation results show that the proposed system has higher performance than monotonic DBM network model. Non-monotonic DBM network also show an interesting result that network itself adjusts the number of hidden layer neurons. DBM network can be realized with fewer components than other neural network models. These results enhance the utilization of non-monotonic neurons in the large scale integration of neuro-chips.
본 연구에서는 학습기근을 갖는 결정론적 볼츠만 머신의 은닉충 뉴런에 비단조 활성화 함수를 적요한 경위의 학습성능을 XOR 문제와 ADD 학습에 대하여 수지 시뮬레이션을 통하여분석한다. 단조 활성화함수를 사용한 경우와 비교하여 학습 수렴률, 학습안정도, 및 학습 속도에 있어서 성능이 크게 향상됨을 확인하였다. 또한 네트워크의 막전위 분포를 조사함으로서 end-cut-off 타입의 비단조 함수를 이용한 경우에 나타는 다음 층의 뉴런에 영향을 주지 않는 뉴런의 출현, 즉, 신경회로망에 있어서 은닉층 뉴런늬 수을 자율적으로 조정하는것을 확인하였따. 이것은 학습문제에 대하여 네트워크 은닉층 뉴런의 수를 명확하게 결정할수 없는 현재의 상황에 있어서는 새로운 돌파구가 될것으로 기대된다.