• 제목/요약/키워드: Elman 신경망

검색결과 23건 처리시간 0.021초

중소하천유역에서 Hybrid Neural Networks에 의한 수문학적 예측 (Hydrological Forecasting Based on Hybrid Neural Networks in a Small Watershed)

  • 김성원;이순탁;조정식
    • 한국수자원학회논문집
    • /
    • 제34권4호
    • /
    • pp.303-316
    • /
    • 2001
  • 본 연구에서는 중소하천수계에서 수문학적 예측을 위하여 Hybrid Neural Networks의 일종인 반경기초함수(RBF) 신경망모형이 적용되었다. RBF 신경망모형은 4종류의 매개변수로 구성되어 있으며, 지율 및 지도훈련과정으로 이루어져있다. 반경기초함수로서 가우스핵함수(GKF)가 이용되었으며, GKF의 매개변수인 중심과 폭은 K-Means 군집알고리즘에 의해 최적화 된다. 그리고 RBF 신경망모형의 매개변수인 중심, 폭, 연결강도와 편차벡터는 훈련을 통하여 최적 매개변수의 값이 결정되며, 이 매개변수들을 이용하여 모형의 검증과정이 이루어진다. RBF 신경망모형은 한국의 IHP 대표유역중 하나인 위천유역에 적용하였으며, 모형의 훈련과 검증을 위하여 10개의 강우사상을 선택하였다. 또한 RBF 신경망모형과 비교검토하기 위하여 엘만 신경망(ENN)모형을 이용하였으며, ENN 모형은 일단게 할선역전파(OSSBP) 및 탄성역전파(RBP)알고리즘으로 이루어져 있다. 모형의 훈련과 검증과정을 통하여 RBF 신경망모형이 ENN 모형보다 양호한 결과를 나타내는 것으로 분석되었다. RBF 신경망모형은 훈련시키는데 시간이 적게 들고, 이론적 배경이 부족한 수문학자들도 쉽게 사용할 수 있는 신경망모형이다.

  • PDF

신경망 학습 변수의 시변 제어에 관한 연구 (A study on time-varying control of learning parameters in neural networks)

  • 박종철;원상철;최한고
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2000년도 추계종합학술대회논문집
    • /
    • pp.201-204
    • /
    • 2000
  • This paper describes a study on the time-varying control of parameters in learning of the neural network. Elman recurrent neural network (RNN) is used to implement the control of parameters. The parameters of learning and momentum rates In the error backpropagation algorithm ate updated at every iteration using fuzzy rules based on performance index. In addition, the gain and slope of the neuron's activation function are also considered time-varying parameters. These function parameters are updated using the gradient descent algorithm. Simulation results show that the auto-tuned learning algorithm results in faster convergence and lower system error than regular backpropagation in the system identification.

  • PDF

2단 회귀신경망의 숫자음 인식에관한 연구 (A study on the spoken digit recognition performance of the Two-Stage recurrent neural network)

  • 안점영
    • 한국통신학회논문지
    • /
    • 제25권3B호
    • /
    • pp.565-569
    • /
    • 2000
  • We compose the two-stage recurrent neural network that returns both signals of a hidden and an output layer to the hidden layer. It is tested on the basis of syllables for Korean spoken digit from /gong/to /gu. For these experiments, we adjust the neuron number of the hidden layer, the predictive order of input data and self-recurrent coefficient of the decision state layer. By the experimental results, the recognition rate of this neural network is between 91% and 97.5% in the speaker-dependent case and between 80.75% and 92% in the speaker-independent case. In the speaker-dependent case, this network shows an equivalent recognition performance to Jordan and Elman network but in the speaker-independent case, it does improved performance.

  • PDF