• 제목/요약/키워드: Layer-by-layer learning

검색결과 642건 처리시간 0.032초

Self-generation을 이용한 퍼지 지도 학습 알고리즘 (Fuzzy Supervised Learning Algorithm by using Self-generation)

  • 김광백
    • 한국멀티미디어학회논문지
    • /
    • 제6권7호
    • /
    • pp.1312-1320
    • /
    • 2003
  • 본 논문에서는 하나의 은닉층을 가지는 다층 구조 신경망이 고려되었다. 다층 구조 신경망에서 널리 사용되는 오루 역전파 학습 방법은 초기 가중치와 불충분한 은닉층 노드 수로 인하여 지역 최소화에 빠질 가능성이 있다. 따라서 본 논문에서는 퍼지 단층 퍼셉트론에 ART1을 결합한 방법으로, 은닉층의 노드를 자가 생성(self-generation)하는 퍼지 지도 학습 알고리즘을 제안한다. 입력층에서 은닉층으로 노드를 생성시키는 방식은 ART1을 수정하여 사용하였고, 가중치 조정은 특정 패턴에 대한 저장 패턴을 수정하도록 하는 winner-take-all 방식을 적용하였다. 제안된 학습 방법의 성능을 평가하기 위하여 학생증 영상을 대상으로 실험한 결과. 기존의 오류 역전파 알고즘보다 연결 가중치들이 지역 최소화에 위치할 가능성이 줄었고 학습 속도 및 정체 현상이 개선되었다.

  • PDF

내부 FC층을 갖는 새로운 CNN 구조의 설계 (Design of new CNN structure with internal FC layer)

  • 박희문;박성찬;황광복;최영규;박진현
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 춘계학술대회
    • /
    • pp.466-467
    • /
    • 2018
  • 최근 이미지 인식, 영상 인식, 음성 인식, 자연어 처리 등 다양한 분야에 인공지능이 적용되면서 딥러닝(Deep learning) 기술에 관한 관심이 높아지고 있다. 딥러닝 중에서도 가장 대표적인 알고리즘으로 이미지 인식 및 분류에 강점이 있고 각 분야에 많이 쓰이고 있는 CNN(Convolutional Neural Network)에 대한 많은 연구가 진행되고 있다. 본 논문에서는 일반적인 CNN 구조를 변형한 새로운 네트워크 구조를 제안하고자 한다. 일반적인 CNN 구조는 convolution layer, pooling layer, fully-connected layer로 구성된다. 그러므로 본 연구에서는 일반적인 CNN 구조 내부에 FC를 첨가한 새로운 네트워크를 구성하고자 한다. 이러한 변형은 컨볼루션된 이미지에 신경회로망이 갖는 장점인 일반화 기능을 포함시켜 정확도를 올리고자 한다.

  • PDF

Damage detection in structures using modal curvatures gapped smoothing method and deep learning

  • Nguyen, Duong Huong;Bui-Tien, T.;Roeck, Guido De;Wahab, Magd Abdel
    • Structural Engineering and Mechanics
    • /
    • 제77권1호
    • /
    • pp.47-56
    • /
    • 2021
  • This paper deals with damage detection using a Gapped Smoothing Method (GSM) combined with deep learning. Convolutional Neural Network (CNN) is a model of deep learning. CNN has an input layer, an output layer, and a number of hidden layers that consist of convolutional layers. The input layer is a tensor with shape (number of images) × (image width) × (image height) × (image depth). An activation function is applied each time to this tensor passing through a hidden layer and the last layer is the fully connected layer. After the fully connected layer, the output layer, which is the final layer, is predicted by CNN. In this paper, a complete machine learning system is introduced. The training data was taken from a Finite Element (FE) model. The input images are the contour plots of curvature gapped smooth damage index. A free-free beam is used as a case study. In the first step, the FE model of the beam was used to generate data. The collected data were then divided into two parts, i.e. 70% for training and 30% for validation. In the second step, the proposed CNN was trained using training data and then validated using available data. Furthermore, a vibration experiment on steel damaged beam in free-free support condition was carried out in the laboratory to test the method. A total number of 15 accelerometers were set up to measure the mode shapes and calculate the curvature gapped smooth of the damaged beam. Two scenarios were introduced with different severities of the damage. The results showed that the trained CNN was successful in detecting the location as well as the severity of the damage in the experimental damaged beam.

다층 퍼셉트론으 인식력 제어와 복원에 관한 연구 (A Study on the Control of Recognition Performance and the Rehabilitation of Damaged Neurons in Multi-layer Perceptron)

  • 박인정;장호성
    • 한국통신학회논문지
    • /
    • 제16권2호
    • /
    • pp.128-136
    • /
    • 1991
  • A neural network of multi layer perception type, learned by error back propagation learning rule, is generally used for the verification or clustering of similar type of patterns. When learning is completed, the network has a constant value of output depending on a pattern. This paper shows that the intensity of neuron's out put can be controlled by a function which intensifies the excitatory interconnection coefficients or the inhibitory one between neurons in output layer and those in hidden layer. In this paper the value of factor in the function to control the output is derived from the know values of the neural network after learning is completed And also this paper show that the amount of an increased neuron's output in output layer by arbitary value of the factor is derived. For the applications increased recognition performance of a pattern than has distortion is introduced and the output of partially damaged neurons are first managed and this paper shows that the reduced recognition performance can be recovered.

  • PDF

Segmentation of Objects with Multi Layer Perceptron by Using Informations of Window

  • Kwak, Young-Tae
    • Journal of the Korean Data and Information Science Society
    • /
    • 제18권4호
    • /
    • pp.1033-1043
    • /
    • 2007
  • The multi layer perceptron for segmenting objects in images only uses the input windows that are made from a image in a fixed size. These windows are recognized so each independent learning data that they make the performance of the multi layer perceptron poor. The poor performance is caused by not considering the position information and effect of input windows in input images. So we propose a new approach to add the position information and effect of input windows to the multi layer perceptron#s input layer. Our new approach improves the performance as well as the learning time in the multi layer perceptron. In our experiment, we can find our new algorithm good.

  • PDF

다각형 용기의 품질 향상을 위한 딥러닝 구조 개발 (Development of Deep Learning Structure to Improve Quality of Polygonal Containers)

  • 윤석문;이승호
    • 전기전자학회논문지
    • /
    • 제25권3호
    • /
    • pp.493-500
    • /
    • 2021
  • 본 논문에서는 다각형 용기의 품질 향상을 위한 딥러닝 구조 개발을 제안한다. 딥러닝 구조는 convolution 층, bottleneck 층, fully connect 층, softmax 층 등으로 구성된다. Convolution 층은 입력 이미지 또는 이전 층의 특징 이미지를 여러 특징 필터와 convolution 3x3 연산하여 특징 이미지를 얻어 내는 층이다. Bottleneck 층은 convolution 층을 통해 추출된 특징 이미지상의 특징들 중에서 최적의 특징들만 선별하여 convolution 1x1 ReLU로 채널을 감소시키고convolution 3x3 ReLU를 실시한다. Bottleneck 층을 거친 후에 수행되는 global average pooling 연산과정은 convolution 층을 통해 추출된 특징 이미지의 특징들 중에서 최적의 특징들만 선별하여 특징 이미지의 크기를 감소시킨다. Fully connect 층은 6개의 fully connect layer를 거쳐 출력 데이터가 산출된다. Softmax 층은 입력층 노드의 값과 연산을 진행하려는 목표 노드 사이의 가중치와 곱을 하여 합하고 활성화 함수를 통해 0~1 사이의 값으로 변환한다. 학습이 완료된 후에 인식 과정에서는 학습 과정과 마찬가지로 카메라를 이용한 이미지 획득, 측정 위치 검출, 딥러닝을 활용한 비원형 유리병 분류 등을 수행하여 비원형 유리병을 분류한다. 제안된 다각형 용기의 품질 향상을 위한 딥러닝 구조의 성능을 평가하기 위하여 공인시험기관에서 실험한 결과, 양품/불량 판별 정확도 99%로 세계최고 수준과 동일한 수준으로 산출되었다. 검사 소요 시간은 평균 1.7초로 비원형 머신비전 시스템을 사용하는 생산 공정의 가동 시간 기준 내로 산출되었다. 따라서 본 본문에서 제안한 다각형 용기의 품질 향상을 위한 딥러닝 구조의 성능의 그 효용성이 입증되었다.

다층퍼셉트론의 은닉노드 근사화를 이용한 개선된 오류역전파 학습 (Modified Error Back Propagation Algorithm using the Approximating of the Hidden Nodes in Multi-Layer Perceptron)

  • 곽영태;이영직;권오석
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제28권9호
    • /
    • pp.603-611
    • /
    • 2001
  • 본 논문은 학습 속도가 계층별 학습처럼 빠르며, 일반화 성능이 우수한 학습 방법을 제안한다. 제안한 방법은 최소 제곡법을 통해 구한 은닉층의 목표값을 이용하여 은닉층의 가중치를 조정하는 방법으로, 은닉층 경사 벡터의 크기가 작아 학습이 지연되는 것을 막을 수 있다. 필기체 숫자인식 문제를 대상으로 실험한 결과, 제안한 방법의 학습 속도는 오류역전파 학습과 수정된 오차 함수의 학습보다 빠르고, Ooyen의 방법과 계층별 학습과는 비슷했다. 또한, 일반화 성능은 은닉노드의 수에 관련없이 가장 좋은 결과를 얻었다. 결국, 제안한 방법은 계층별 학습의 학습 속도와 오류역전파 학습과 수정된 오차 함수의 일반화 성능을 장점으로 가지고 있음을 확인하였다.

  • PDF

변형하이브리드 학습규칙의 구현에 관한 연구 (A Study on the Implementation of Modified Hybrid Learning Rule)

  • 송도선;김석동;이행세
    • 전자공학회논문지B
    • /
    • 제31B권12호
    • /
    • pp.116-123
    • /
    • 1994
  • A modified Hybrid learning rule(MHLR) is proposed, which is derived from combining the Back Propagation algorithm that is known as an excellent classifier with modified Hebbian by changing the orginal Hebbian which is a good feature extractor. The network architecture of MHLR is multi-layered neural network. The weights of MHLR are calculated from sum of the weight of BP and the weight of modified Hebbian between input layer and higgen layer and from the weight of BP between gidden layer and output layer. To evaluate the performance, BP, MHLR and the proposed Hybrid learning rule (HLR) are simulated by Monte Carlo method. As the result, MHLR is the best in recognition rate and HLR is the second. In learning speed, HLR and MHLR are much the same, while BP is relatively slow.

  • PDF

신경회로망과 실험계획법을 이용한 타이어의 장력 추정 (Tension Estimation of Tire using Neural Networks and DOE)

  • 이동우;조석수
    • 한국정밀공학회지
    • /
    • 제28권7호
    • /
    • pp.814-820
    • /
    • 2011
  • It takes long time in numerical simulation because structural design for tire requires the nonlinear material property. Neural networks has been widely studied to engineering design to reduce numerical computation time. The numbers of hidden layer, hidden layer neuron and training data have been considered as the structural design variables of neural networks. In application of neural networks to optimize design, there are a few studies about arrangement method of input layer neurons. To investigate the effect of input layer neuron arrangement on neural networks, the variables of tire contour design and tension in bead area were assigned to inputs and output for neural networks respectively. Design variables arrangement in input layer were determined by main effect analysis. The number of hidden layer, the number of hidden layer neuron and the number of training data and so on have been considered as the structural design variables of neural networks. In application to optimization design problem of neural networks, there are few studies about arrangement method of input layer neurons. To investigate the effect of arrangement of input neurons on neural network learning tire contour design parameters and tension in bead area were assigned to neural input and output respectively. Design variables arrangement in input layer was determined by main effect analysis.

성능개선과 하드웨어구현을 위한 다층구조 양방향연상기억 신경회로망 모델 (A Multi-layer Bidirectional Associative Neural Network with Improved Robust Capability for Hardware Implementation)

  • 정동규;이수영
    • 전자공학회논문지B
    • /
    • 제31B권9호
    • /
    • pp.159-165
    • /
    • 1994
  • In this paper, we propose a multi-layer associative neural network structure suitable for hardware implementaion with the function of performance refinement and improved robutst capability. Unlike other methods which reduce network complexity by putting restrictions on synaptic weithts, we are imposing a requirement of hidden layer neurons for the function. The proposed network has synaptic weights obtainted by Hebbian rule between adjacent layer's memory patterns such as Kosko's BAM. This network can be extended to arbitary multi-layer network trainable with Genetic algorithm for getting hidden layer memory patterns starting with initial random binary patterns. Learning is done to minimize newly defined network error. The newly defined error is composed of the errors at input, hidden, and output layers. After learning, we have bidirectional recall process for performance improvement of the network with one-shot recall. Experimental results carried out on pattern recognition problems demonstrate its performace according to the parameter which represets relative significance of the hidden layer error over the sum of input and output layer errors, show that the proposed model has much better performance than that of Kosko's bidirectional associative memory (BAM), and show the performance increment due to the bidirectionality in recall process.

  • PDF