• 제목/요약/키워드: Multilayer perceptrons

검색결과 65건 처리시간 0.024초

Input Noise Immunity of Multilayer Perceptrons

  • Lee, Young-Jik;Oh, Sang-Hoon
    • ETRI Journal
    • /
    • 제16권1호
    • /
    • pp.35-43
    • /
    • 1994
  • In this paper, the robustness of the artificial neural networks to noise is demonstrated with a multilayer perceptron, and the reason of robustness is due to the statistical orthogonality among hidden nodes and its hierarchical information extraction capability. Also, the misclassification probability of a well-trained multilayer perceptron is derived without any linear approximations when the inputs are contaminated with random noises. The misclassification probability for a noisy pattern is shown to be a function of the input pattern, noise variances, the weight matrices, and the nonlinear transformations. The result is verified with a handwritten digit recognition problem, which shows better result than that using linear approximations.

  • PDF

신경망을 이용한 HMM의 오인식 보상에 관한 연구 (A study on compensation of incorrect recognition on HMM using multilayer perceptrons)

  • 표창수;김창근;허강인
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 2000년도 하계학술발표대회 논문집 제19권 1호
    • /
    • pp.27-30
    • /
    • 2000
  • 본 논문은 HMM(Hidden Markov Model)을 이용하여 인식을 수행할 경우의 오류를 최소화 할 수 있는 후 처리 과정으로 신경망을 결합시켜 HMM 단독으로 사용하였을 때 보다 높은 인식률을 얻을 수 있는 HMM과 신경망의 하이브리드시스템을 제안한다. HMM을 이용하여 학습한 후 학습에 참여하지 않은 데이터를 인식하였을 때 오인식 데이터를 정인식으로 인식하도록 HMM의 출력으로 얻은 각 출력확률을 후 처리에 사용될 MLP(Multilayer Perceptrons)의 학습용으로 사용하여 MLP를 학습하여 HMM과 MLP을 결합한 하이브리드 모델을 만든다. 이와 같은 HMM과 신경망을 결합한 하이브리드 모델을 사용하여 단독 숫자음과 4연 숫자음 데이터에서 실험한 결과 HMM 단독으로 사용하였을 때 보다 각각 약 $4.5\%$, $1.3\%$의 인식률 향상이 있었다. 기존의 하이브리드 시스템이 갖는 많은 학습시간이 소요되는 문제점과 실시간 음성인식시스템을 구현할 때의 학습데이터의 부족으로 인한 인식률 저하를 해결할 수 있는 방법임을 확인할 수 있었다.

  • PDF

An Implementation of Speaker Verification System Based on Continuants and Multilayer Perceptrons

  • Lee, Tae-Seung;Park, Sung-Won;Lim, Sang-Seok;Hwang, Byong-Won
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 ISIS 2003
    • /
    • pp.216-219
    • /
    • 2003
  • Among the techniques to protect private information by adopting biometrics, speaker verification is expected to be widely used due to advantages in convenient usage and inexpensive implementation cost Speaker verification should achieve a high degree of the reliability in the verification nout the flexibility in speech text usage, and the efficiency in verification system complexity. Continuants have excellent speaker-discriminant power and the modest number of phonemes in the category, and multilayer perceptrons (MLPs) have superior recognition ability and fast operation speed. In consequence, the two provide viable ways for speaker verification system to obtain the above properties. This paper implements a system to which continuants and MLPs are applied, and evaluates the system using a Korean speech database. The results of the experiment prove that continuants and MLPs enable the system to acquire the three properties.

  • PDF

Robust On-line Training of Multilayer Perceptrons via Direct Implementation of Variable Structure Systems Theory

  • Topalov, Andon V.;Kaynak, Okyay
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 ISIS 2003
    • /
    • pp.300-303
    • /
    • 2003
  • An Algorithm based on direct implementation of variable structure systems theory approach is proposed for on-line training of multilayer perceptrons. Network structures which have multiple inputs, single output and one hidden layer are considered and the weights are assumed to have capabilities for continuous time adaptation. The zero level set of the network learning error is regarded as a sliding surface in the learning parameters space. A sliding mode trajectory can be brought on and reached in finite time on such a sliding manifold. Results from simulated on-line identification task for a two-link planar manipulator dynamics are also presented.

  • PDF

LLE(Locally Linear Embedding)의 함수관계에 대한 다층퍼셉트론 학습 (Training of Locally Linear Embedding using Multilayer Perceptrons)

  • 오상훈
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2007년도 추계 종합학술대회 논문집
    • /
    • pp.217-220
    • /
    • 2007
  • 고차원의 데이터를 저차원으로 차원축소 하는 것은 일반적인 문제에서 항상 나타난다. 이때, 고차원에서 데이터 간의 인접한 관계를 유지하면서 저차원으로 변형시켜주는 방법으로 LLE(Locally Linear Embedding)이 제안되었다. 이 방법은 비록 최적의 해를 찾아주지만, 학습되지 않은 데이터가 주어지면 다시 전체 데이터를 상대로 처리를 하여야 한다. 이 논문에서는, 주어진 학습데이터 만을 상대로 LLE의 관계를 수행할 수 있는 다층퍼셉트론을 학습시켜, 학습되지 않은 데이터가 입력되는 경우 다층퍼셉트론의 출력으로 LLE 처리를 하는 방법을 제안한다.

  • PDF

비선형 변환에 의한 중간층 뉴런 상관계수 감소 (Decreasing of Correlations Among Hidden Neurons of Multilayer Perceptrons)

  • 오상훈
    • 한국콘텐츠학회논문지
    • /
    • 제3권3호
    • /
    • pp.98-102
    • /
    • 2003
  • 다층퍼셉트론의 중간층 뉴런이 지닌 역할을 정보처리의 관점에서 밝혀내기 위해서, 이 논문에서는 중간층 뉴런의 가중치 합들 간의 상관계수가 비선형 변환에 의해 감소하게 됨을 증명하였다. 고립단어 인식을 다층퍼셉트론에 학습시킨 경우의 시뮬레이션으로 이러한 증명이 맞음도 보였다. 이 결과로부터 중간층 뉴런이 지닌 비선형 변환은 정보의 중복을 감소시키는 효과가 있음을 알 수 있다.

  • PDF

An Adaptive Learning Rate with Limited Error Signals for Training of Multilayer Perceptrons

  • Oh, Sang-Hoon;Lee, Soo-Young
    • ETRI Journal
    • /
    • 제22권3호
    • /
    • pp.10-18
    • /
    • 2000
  • Although an n-th order cross-entropy (nCE) error function resolves the incorrect saturation problem of conventional error backpropagation (EBP) algorithm, performance of multilayer perceptrons (MLPs) trained using the nCE function depends heavily on the order of nCE. In this paper, we propose an adaptive learning rate to markedly reduce the sensitivity of MLP performance to the order of nCE. Additionally, we propose to limit error signal values at out-put nodes for stable learning with the adaptive learning rate. Through simulations of handwritten digit recognition and isolated-word recognition tasks, it was verified that the proposed method successfully reduced the performance dependency of MLPs on the nCE order while maintaining advantages of the nCE function.

  • PDF

동적 변화구조의 역전달 신경회로와 로보트의 역 기구학 해구현에의 응용 (A Dynamically Reconfiguring Backpropagation Neural Network and Its Application to the Inverse Kinematic Solution of Robot Manipulators)

  • 오세영;송재명
    • 대한전기학회논문지
    • /
    • 제39권9호
    • /
    • pp.985-996
    • /
    • 1990
  • An inverse kinematic solution of a robot manipulator using multilayer perceptrons is proposed. Neural networks allow the solution of some complex nonlinear equations such as the inverse kinematics of a robot manipulator without the need for its model. However, the back-propagation (BP) learning rule for multilayer perceptrons has the major limitation of being too slow in learning to be practical. In this paper, a new algorithm named Dynamically Reconfiguring BP is proposed to improve its learning speed. It uses a modified version of Kohonen's Self-Organizing Feature Map (SOFM) to partition the input space and for each input point, select a subset of the hidden processing elements or neurons. A subset of the original network results from these selected neuron which learns the desired mapping for this small input region. It is this selective property that accelerates convergence as well as enhances resolution. This network was used to learn the parity function and further, to solve the inverse kinematic problem of a robot manipulator. The results demonstrate faster learning than the BP network.

인공신경망을 이용한 대대전투간 작전지속능력 예측 (A study on Forecasting The Operational Continuous Ability in Battalion Defensive Operations using Artificial Neural Network)

  • 심홍기;김승권
    • 지능정보연구
    • /
    • 제14권3호
    • /
    • pp.25-39
    • /
    • 2008
  • 본 연구는 인공신경망을 이용하여 대대급 방어 작전에서 임의시점에서의 작전지속능력을 예측하는 데 있다. 전투결과에 대한 수학적 모델링은 이를 위한 많은 요인들이 가지는 시?공간적 가변성으로 인해 전투력을 평가하는데 많은 문제점이 있었다. 따라서 이번 연구에서는 대대 전투지휘훈련간 각 부대의 생존률을 전방향 다층 신경망(Feed-Forward Multilayer Perceptrons, MLP)과 일반 회귀신경망(General Regression Neural Network, GRNN)모형에 적용하여 임무달성 여부를 예측하였다. 실험 결과 매개변수들의 비선형적인 관계에도 불구하고 각각 82.62%, 85.48%의 적중률을 보여 일반회귀신경망 모형이 지휘관이 상황을 인식하고 예비대 투입 우선순위 선정 등 실시간 지휘결심을 하는데 도움을 줄 수 있는 방법임을 보여준다.

  • PDF

Text filtering by Boosting Linear Perceptrons

  • O, Jang-Min;Zhang, Byoung-Tak
    • 한국지능시스템학회논문지
    • /
    • 제10권4호
    • /
    • pp.374-378
    • /
    • 2000
  • in information retrieval, lack of positive examples is a main cause of poor performance. In this case most learning algorithms may not characteristics in the data to low recall. To solve the problem of unbalanced data, we propose a boosting method that uses linear perceptrons as weak learnrs. The perceptrons are trained on local data sets. The proposed algorithm is applied to text filtering problem for which only a small portion of positive examples is available. In the experiment on category crude of the Reuters-21578 document set, the boosting method achieved the recall of 80.8%, which is 37.2% improvement over multilayer with comparable precision.

  • PDF