• 제목/요약/키워드: non-monotonic neuron

검색결과 3건 처리시간 0.019초

비단조 뉴런 모델을 이용한 결정론적 볼츠만 머신 (Deterministic Boltzmann Machine Based on Nonmonotonic Neuron Model)

  • 강형원;박철영
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅲ
    • /
    • pp.1553-1556
    • /
    • 2003
  • In this paper, We evaluate the learning ability of non-monotonic DBM(Deterministic Boltzmann Machine) network through numerical simulations. The simulation results show that the proposed system has higher performance than monotonic DBM network model. Non-monotonic DBM network also show an interesting result that network itself adjusts the number of hidden layer neurons. DBM network can be realized with fewer components than other neural network models. These results enhance the utilization of non-monotonic neurons in the large scale integration of neuro-chips.

  • PDF

비단조 뉴런에 의한 결정론적 볼츠만머신의 성능 개선 (Performance Improvement of Deterministic Boltzmann Machine Based on Nonmonotonic Neuron)

  • 강형원;박철영
    • 한국산업정보학회:학술대회논문집
    • /
    • 한국산업정보학회 2003년도 춘계학술대회
    • /
    • pp.52-56
    • /
    • 2003
  • In this paper, We evaluate the learning ability of non-monotonic DBM(Deterministic Boltzmann Machine) network through numerical simulations. The simulation results show that the proposed system has higher performance than monotonic DBM network model. Non-monotonic DBM network also show an interesting result that network itself adjusts the number of hidden layer neurons. DBM network can be realized with fewer components than other neural network models. These results enhance the utilization of non-monotonic neurons in the large scale integration of neuro-chips.

  • PDF

은닉층에 비단조 뉴런을 갖는 결정론적 볼츠만 머신의 학습능력에 관한 연구 (Learning Ability of Deterministic Boltzmann Machine with Non-Monotonic Neurons in Hidden Layer)

  • 박철영
    • 한국지능시스템학회논문지
    • /
    • 제11권6호
    • /
    • pp.505-509
    • /
    • 2001
  • 본 연구에서는 학습기근을 갖는 결정론적 볼츠만 머신의 은닉충 뉴런에 비단조 활성화 함수를 적요한 경위의 학습성능을 XOR 문제와 ADD 학습에 대하여 수지 시뮬레이션을 통하여분석한다. 단조 활성화함수를 사용한 경우와 비교하여 학습 수렴률, 학습안정도, 및 학습 속도에 있어서 성능이 크게 향상됨을 확인하였다. 또한 네트워크의 막전위 분포를 조사함으로서 end-cut-off 타입의 비단조 함수를 이용한 경우에 나타는 다음 층의 뉴런에 영향을 주지 않는 뉴런의 출현, 즉, 신경회로망에 있어서 은닉층 뉴런늬 수을 자율적으로 조정하는것을 확인하였따. 이것은 학습문제에 대하여 네트워크 은닉층 뉴런의 수를 명확하게 결정할수 없는 현재의 상황에 있어서는 새로운 돌파구가 될것으로 기대된다.

  • PDF