• 제목/요약/키워드: perceptron learning

검색결과 346건 처리시간 0.027초

영상 인식을 위한 생리학적 퍼지 단층 학습 알고리즘 (Physiological Fuzzy Single Layer Learning Algorithm for Image Recognition)

  • 김영주
    • 한국지능시스템학회논문지
    • /
    • 제11권5호
    • /
    • pp.406-412
    • /
    • 2001
  • 본 논문은 기존의 퍼지 단층 퍼셉트론 알고리즘의 학습 시간과 수렴성을 개선하기 위해 인간 신경계의 생리학적 뉴런 구조를 분석하며 퍼지 논리를 이용한 새로운 뉴런 구조를 제시하고, 이를 바탕으로 생리학적 퍼지 단층 퍼셉트론(P-FLSP: Physiological Fuzzy Single Layer Perceptron)에 대한 학습 모형과 학습 알고리즘을 제안한다. 제안된 학습 알고리즘의 성능을 평가하기 위해 Exclusive OR 문제, 3-bit parity 문제 그리고 차량 번호판 인식 문제 등에 적용하여 피곤의 피지 단층 퍼셉트론 알고리즘과 성능을 비교, 분석하였다. 실험 결과에서는 제안된 학습 알고리즘(P-FSLP)이 기존의 퍼지 단층 학습 알고리즘보다 지역 최소화에 빠질 가능성이 감소하였으며 학습 시간과 수렴성도 개선되었을 뿐만 아니라, 영상 인식등에 대한 응용 가능성도 제시되었다.

  • PDF

홀로그램 렌즈 배열을 이용한 단층 인식자의 광학적 구현 (Optical Implementation of Single-Layer Perceptron Using Holographic Lenslet Arrays)

  • 신상길
    • 한국광학회:학술대회논문집
    • /
    • 한국광학회 1990년도 제5회 파동 및 레이저 학술발표회 5th Conference on Waves and lasers 논문집 - 한국광학회
    • /
    • pp.126-130
    • /
    • 1990
  • A single-layer Perceptron with 4x4 input neurons and one output neuron is optically implemented. Holo-graphic lenslet arrays are usee for the programmable optical interconnection topology. The hologram is bleached in order to increase the diffraction efficiency. It is shown that the performance of Perceptron depends on the learning rate, the inertia rate, and the correlation of input patterns.

  • PDF

선형 활성화 함수를 이용한 개선된 퍼지 단층 퍼셉트론 (An Enhanced Fuzzy Single Layer Perceptron With Linear Activation Function)

  • 박충식;조재현;김광백
    • 한국정보통신학회논문지
    • /
    • 제11권7호
    • /
    • pp.1387-1393
    • /
    • 2007
  • 기존의 단층 퍼셉트론은 출력 노드가 선형 분리 가능한 패턴들만을 분류할 수 있고 XOR과 같은 비선형 문제에 대해서는 분류할 수 없는 단점이 있다. 퍼지 단층 퍼셉트론은 퍼지 소속 함수(Fuzzy Membership Function)를 적용하여 단층 구조로 XOR 문제와 같은 고전적인 문제를 개선하였다. 그러나 퍼지 단층 퍼셉트론은 기존의 단층 퍼셉트론과 마찬가지로 결정 경계선이 진동하는 경우가 생기며 초기 가중치의 범위와 학습률에 따라 수렴성이 매우 낮아지는 단점이 있다. 따라서 본 논문에서는 바이어스항을 도입하여 결정 경계선이 진동하는 것을 방지하여 수렴성을 개선시키고 선형 활성화 함수를 제안하고 학습률과 모멘텀 개념을 도입 한 개선된 델타규칙을 적용함으로써 학습 시간을 단축시키는 개선된 퍼지 단층 퍼셉트론 알고리즘을 제안한다. 제안된 방법과 퍼지 단층 퍼셉트론간의 학습 성능을 분석하기 위하여 인공 신경망에서 벤치마크로 사용되는 XOR 문제와 패턴 분류에 적용하여 Epoch 수와 수렴성을 비교한 결과, 제안된 방법이 기존의 퍼지 단층 퍼셉트론보다 학습 시간이 적게 소요되고 수렴성이 개선된 것을 확인하였다.

NETLA Based Optimal Synthesis Method of Binary Neural Network for Pattern Recognition

  • Lee, Joon-Tark
    • 한국지능시스템학회논문지
    • /
    • 제14권2호
    • /
    • pp.216-221
    • /
    • 2004
  • This paper describes an optimal synthesis method of binary neural network for pattern recognition. Our objective is to minimize the number of connections and the number of neurons in hidden layer by using a Newly Expanded and Truncated Learning Algorithm (NETLA) for the multilayered neural networks. The synthesis method in NETLA uses the Expanded Sum of Product (ESP) of the boolean expressions and is based on the multilayer perceptron. It has an ability to optimize a given binary neural network in the binary space without any iterative learning as the conventional Error Back Propagation (EBP) algorithm. Furthermore, NETLA can reduce the number of the required neurons in hidden layer and the number of connections. Therefore, this learning algorithm can speed up training for the pattern recognition problems. The superiority of NETLA to other learning algorithms is demonstrated by an practical application to the approximation problem of a circular region.

다층신경망 기반 화자증명 시스템에서 학습 데이터 감축을 통한 화자등록속도 향상방법 (A Method on the Improvement of Speaker Enrolling Speed for a Multilayer Perceptron Based Speaker Verification System through Reducing Learning Data)

  • 이백영;황병원;이태승
    • 한국음향학회지
    • /
    • 제21권6호
    • /
    • pp.585-591
    • /
    • 2002
  • 다층 신경망 (MLP: multilayer perceptron)은 기존의 패턴인식 방법에 비해 몇 가지 이점을 제공하지만 학습에 비교적 많은 시간을 요구한다. 이 점은 화자증명 시스템의 인식방법으로서 다층 신경망을 사용할 경우 등록시간이 길어지는 문제를 발생시킨다. 본 논문에서는 기존의 시스템에서 채택한 화자군집 방법을 응용하여 다층 신경망 학습에 필요한 배경화자 수를 줄임으로써 화자등록 시간을 단축하는 방법을 제안하고, 지속음을 인식단위로 하는 다층 신경망 화자증명 시스템에 이 방법을 적용한 실험결과를 통해 그 효과를 확인한다.

오류 역전파 학습에서 확률적 가중치 교란에 의한 전역적 최적해의 탐색 (Searching a global optimum by stochastic perturbation in error back-propagation algorithm)

  • 김삼근;민창우;김명원
    • 전자공학회논문지C
    • /
    • 제35C권3호
    • /
    • pp.79-89
    • /
    • 1998
  • The Error Back-Propagation(EBP) algorithm is widely applied to train a multi-layer perceptron, which is a neural network model frequently used to solve complex problems such as pattern recognition, adaptive control, and global optimization. However, the EBP is basically a gradient descent method, which may get stuck in a local minimum, leading to failure in finding the globally optimal solution. Moreover, a multi-layer perceptron suffers from locking a systematic determination of the network structure appropriate for a given problem. It is usually the case to determine the number of hidden nodes by trial and error. In this paper, we propose a new algorithm to efficiently train a multi-layer perceptron. OUr algorithm uses stochastic perturbation in the weight space to effectively escape from local minima in multi-layer perceptron learning. Stochastic perturbation probabilistically re-initializes weights associated with hidden nodes to escape a local minimum if the probabilistically re-initializes weights associated with hidden nodes to escape a local minimum if the EGP learning gets stuck to it. Addition of new hidden nodes also can be viewed asa special case of stochastic perturbation. Using stochastic perturbation we can solve the local minima problem and the network structure design in a unified way. The results of our experiments with several benchmark test problems including theparity problem, the two-spirals problem, andthe credit-screening data show that our algorithm is very efficient.

  • PDF

New Approach to Optimize the Size of Convolution Mask in Convolutional Neural Networks

  • Kwak, Young-Tae
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권1호
    • /
    • pp.1-8
    • /
    • 2016
  • Convolutional neural network (CNN) consists of a few pairs of both convolution layer and subsampling layer. Thus it has more hidden layers than multi-layer perceptron. With the increased layers, the size of convolution mask ultimately determines the total number of weights in CNN because the mask is shared among input images. It also is an important learning factor which makes or breaks CNN's learning. Therefore, this paper proposes the best method to choose the convolution size and the number of layers for learning CNN successfully. Through our face recognition with vast learning examples, we found that the best size of convolution mask is 5 by 5 and 7 by 7, regardless of the number of layers. In addition, the CNN with two pairs of both convolution and subsampling layer is found to make the best performance as if the multi-layer perceptron having two hidden layers does.

학습속도 개선과 학습데이터 축소를 통한 MLP 기반 화자증명 시스템의 등록속도 향상방법 (An Improvement of the MLP Based Speaker Verification System through Improving the learning Speed and Reducing the Learning Data)

  • 이백영;이태승;황병원
    • 대한전자공학회논문지SP
    • /
    • 제39권3호
    • /
    • pp.88-98
    • /
    • 2002
  • MLP(multilayer perceptron)는 다른 패턴인식 방법에 비해 몇 가지 유리한 이점을 지니고 있어 화자증명 시스템의 화자학습 및 인식 방법으로서 사용이 기대된다. 그러나 MLP의 학습은 학습에 이용되는 EBP(error backpropagation) 알고리즘의 저속 때문에 상당한 시간을 소요한다. 이 점은 화자증명 시스템에서 높은 화자인식률을 달성하기 위해서는 많은 배경화자가 필요하다는 점과 맞물려 시스템에 화자를 등록하기 위해 많은 시간이 걸린다는 문제를 낳는다. 화자증명 시스템은 화자 등록후 곧바로 증명 서비스를 제공해야 하기 때문에 이 문제를 해결해야 한다. 본 논문에서는 이 문제를 해결하기 위해 EBP의 학습속도를 개선하는 방법과, 기존의 화자증명 방법에서 화자군집 방법을 도입한 배경화자 축소방법을 사용하여 MLP 기반 화자증명 시스템에서 화자등록에 필요한 시간의 단축을 시도한다.

Wine Quality Classification with Multilayer Perceptron

  • Agrawal, Garima;Kang, Dae-Ki
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제10권2호
    • /
    • pp.25-30
    • /
    • 2018
  • This paper is about wine quality classification with multilayer perceptron using the deep neural network. Wine complexity is an issue when predicting the quality. And the deep neural network is considered when using complex dataset. Wine Producers always aim high to get the highest possible quality. They are working on how to achieve the best results with minimum cost and efforts. Deep learning is the possible solution for them. It can help them to understand the pattern and predictions. Although there have been past researchers, which shows how artificial neural network or data mining can be used with different techniques, in this paper, rather not focusing on various techniques, we evaluate how a deep learning model predicts for the quality using two different activation functions. It will help wine producers to decide, how to lead their business with deep learning. Prediction performance could change tremendously with different models and techniques used. There are many factors, which, impact the quality of the wine. Therefore, it is a good idea to use best features for prediction. However, it could also be a good idea to test this dataset without separating these features. It means we use all features so that the system can consider all the feature. In the experiment, due to the limited data set and limited features provided, it was not possible for a system to choose the effective features.

Multilayer Perceptron Model to Estimate Solar Radiation with a Solar Module

  • Kim, Joonyong;Rhee, Joongyong;Yang, Seunghwan;Lee, Chungu;Cho, Seongin;Kim, Youngjoo
    • Journal of Biosystems Engineering
    • /
    • 제43권4호
    • /
    • pp.352-361
    • /
    • 2018
  • Purpose: The objective of this study was to develop a multilayer perceptron (MLP) model to estimate solar radiation using a solar module. Methods: Data for the short-circuit current of a solar module and other environmental parameters were collected for a year. For MLP learning, 14,400 combinations of input variables, learning rates, activation functions, numbers of layers, and numbers of neurons were trained. The best MLP model employed the batch backpropagation algorithm with all input variables and two hidden layers. Results: The root-mean-squared error (RMSE) of each learning cycle and its average over three repetitions were calculated. The average RMSE of the best artificial neural network model was $48.13W{\cdot}m^{-2}$. This result was better than that obtained for the regression model, for which the RMSE was $66.67W{\cdot}m^{-2}$. Conclusions: It is possible to utilize a solar module as a power source and a sensor to measure solar radiation for an agricultural sensor node.