• Title/Summary/Keyword: 학습된 패턴

Search Result 1,569, Processing Time 0.046 seconds

An Improvement of the Outline Mede Error Backpropagation Algorithm Learning Speed for Pattern Recognition (패턴인식에서 온라인 오류역전파 알고리즘의 학습속도 향상방법)

  • 이태승;황병원
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04b
    • /
    • pp.616-618
    • /
    • 2002
  • MLP(multilayer perceptron)는 다른 패턴인식 방법에 비해 몇 가지 이점이 있어 다양한 문제영역에서 사용되고 있다 그러나 MLP의 학습에 일반적으로 사용되는 EBP(error backpropagation) 알고리즘은 학습시간이 비교적 오래 걸린다는 단점이 있으며, 이는 실시간 처리를 요구하는 문제나 대규모 데이터 및 MLP 구조로 인해 학습시간이 상당히 긴 문제에서 제약으로 작용한다. 패턴인식에 사용되는 학습데이터는 풍부한 중복특성을 내포하고 있으므로 패턴마다 MLP의 내부변수를 갱신하는 은라인 계열의 학습방식이 속도의 향상에 상당한 효과가 있다. 일반적인 온라인 EBP 알고리즘에서는 내부 가중치 갱신시 고정된 학습률을 적용한다. 고정 학습률을 적절히 선택함으로써 패턴인식 응용에서 상당한 속도개선을 얻을 수 있지만, 학습률을 고정함으로써 온라인 방식에서 패턴별 갱신의 특성을 완전히 활용하지 못하는 비효율성이 발생한다. 또한, 학습도중 패턴군이 학습된 패턴과 그렇지 못한 패턴으로 나뉘고 이 가운데 학습된 패턴은 학습을 위한 계산에 포함될 필요가 없음에도 불구하고, 기존의 온라인 EBP에서는 에폭에 할당된 모든 패턴을 일률적으로 계산에 포함시킨다. 이 문제에 대해 본 논문에서는 학습이 진행됨에 따라 패턴마다 적절한 학습률을 적용하고 필요한 패턴만을 학습에 반영하는 패턴별 가변학습률 및 학습생략(COIL) 방댑을 제안한다. 제안한 COIL의 성능을 입증하기 위해 화자증명과 음성인식을 실험하고 그 결과를 제시한다.

  • PDF

Neural-based Approach to Time Series Prediction with Discriminant Learning (차별학습에 의한 시계열 예측에 대한 신경망접근)

  • Jo, Tae-Ho Charles;Seo, Jerry
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.10a
    • /
    • pp.281-284
    • /
    • 2000
  • 시계열 예측에 있어서 과거의 측정치 보다 최근의 측정치가 미래의 측정치 예측에 중요한 영향을 미친다. 시계열 예측에 있어서 최근의 측정치와 과거의 측정치가 미래의 값을 예측하는 인자로서 차별화 되어 학습해야 할 것이다. 기존의 시계열에 대한 신경망 접근에서는 최근의 측정치에 대한 학습 패턴과 과거의 측정치에 대한 학습 패턴을 동일하게 학습하였다. 이 논문에서는 과거의 학습패턴과 최근의 학습 패턴을 학습 횟수 면에서 차별화 하였다. 이러한 학습을 이 논문에서는 차별학습이라 한다. 차별학습에서는 주어진 학습 패턴을 시간 순으로 나열하고 일정 개수로 분할한다. 시간의 역순에 의해 등차 또는 등비의 형태로 학습 횟수를 설정한다. 각 학습 패턴의 분말집단을 시간의 역순으로 일정 횟수를 감소시켜 학습 횟수를 설정하는 등차차별학습과 일정 비율로 감소시켜 학습횟수를 설정하는 등비차별학습을 소개한다. 기존의 신경망 접근 방법과 이 논문에서 제안한 신경망 접근방법을 비교하기 위해 Mackay-Galss 공식에 의해 인공적으로 생성된 시계열 데이터를 예로 사용하였다.

  • PDF

Development of Brain-Style Intelligent Information Processing Algorithm Through the Merge of Supervised and Unsupervised Learning: Generation of Exemplar Patterns for Training (교사학습과 비교사학습의 접목에 의한 두뇌방식의 지능 정보 처리 알고리즘 개발: 학습패턴의 생성)

  • 오상훈
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.41 no.6
    • /
    • pp.61-67
    • /
    • 2004
  • We propose a new algorithm to generate additional training patterns using the brain-style information processing algorithm, that is, supervised and unsupervised learning models. This will be useful in the case that we do not have enough number of training patterns because of limitation such as time consuming, economic problem, and so on. We adopt the independent component analysis as an unsupervised model for generating exempalr patterns and multilayer perceptions as supervised models for verifying usefulness of the generated patterns. After statistical analysis of the proposed pattern generation algorithm, we verify successful operations of our algorithm through simulation of handwritten digit recognition with various numbers of training patterns.

A Fast-Loaming Algorithm for MLP in Pattern Recognition (패턴인식의 MLP 고속학습 알고리즘)

  • Lee, Tae-Seung;Choi, Ho-Jin
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.8 no.3
    • /
    • pp.344-355
    • /
    • 2002
  • Having a variety of good characteristics against other pattern recognition techniques, Multilayer Perceptron (MLP) has been used in wide applications. But, it is known that Error Backpropagation (EBP) algorithm which MLP uses in learning has a defect that requires relatively long leaning time. Because learning data in pattern recognition contain abundant redundancies, in order to increase learning speed it is very effective to use online-based teaming methods, which update parameters of MLP pattern by pattern. Typical online EBP algorithm applies fixed learning rate for each update of parameters. Though a large amount of speedup with online EBP can be obtained by choosing an appropriate fixed rate, fixing the rate leads to the problem that the algorithm cannot respond effectively to different leaning phases as the phases change and the learning pattern areas vary. To solve this problem, this paper defines learning as three phases and proposes a Instant Learning by Varying Rate and Skipping (ILVRS) method to reflect only necessary patterns when learning phases change. The basic concept of ILVRS is as follows. To discriminate and use necessary patterns which change as learning proceeds, (1) ILVRS uses a variable learning rate which is an error calculated from each pattern and is suppressed within a proper range, and (2) ILVRS bypasses unnecessary patterns in loaming phases. In this paper, an experimentation is conducted for speaker verification as an application of pattern recognition, and the results are presented to verify the performance of ILVRS.

Pattern Selection for Classification Using the Bias and Variance of Ensemble Network (신경망 앙상블의 편기와 분산을 이용한 분류 패턴 선택)

  • 신현정;조성준
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10b
    • /
    • pp.307-309
    • /
    • 2001
  • 분류문제에서 유용한 학습패턴은 클래스들간의 분류경계에 근접한 정상패턴들을 말한다. 본 연구에서는 다양한 구조와 학습 파라미터를 가진 신경망 앙상블을 구성하고 그 출력값의 편기와 분산에 기초한 패턴절수를 정의한다. 전체 학습패턴 중 일정한 임계값 이상의 패턴점수를 가진 패턴들만이 학습패턴으로 선정된다. 제안한 방법은 두 개의 인공문제와 두 개의 실제문제 (UCI Repository)에 적응, 검증되었다. 그 결과 선택된 패턴만으로 학습한 경우, 메모리 공간 절약 및 계산시간 단축의 효과뿐만 아니라 복잡도가 큰 모델이라도 과적합을 하지 않았고 실험적으로 안정된 결과를 산출했으며, 적은 수의 학습패턴만으로도 일반화 성능을 향상시키거나 적어도 저하시키지 않았다는 것을 보였다.

  • PDF

A Learning Scheme for Hardware Implementation of Feedforward Neural Networks (FNNs의 하드웨어 구현을 위한 학습방안)

  • Park, Jin-Sung;Cho, Hwa-Hyun;Chae, Jong-Seok;Choi, Myung-Ryul
    • Proceedings of the KIEE Conference
    • /
    • 1999.07g
    • /
    • pp.2974-2976
    • /
    • 1999
  • 본 논문에서는 단일패턴과 다중패턴 학습이 가능한 FNNs(Feedforward Neural Networks)을 하드웨어로 구현하는데 필요한 학습방안을 제안한다. 제안된 학습방안은 기존의 하드웨어 구현에 이용되는 방식과는 전혀 다른 방식이며, 오히려 기존의 소프트웨어 학습방식과 유사하다. 기존의 하드웨어 구현에서 사용되는 방법은 오프라인 학습이나 단일패턴 온 칩(on-chip) 학습방식인데 반해, 제안된 학습방식은 단일/다중패턴은 칩 학습방식으로 다층 FNNs 회로와 학습회로 사이에 스위칭 회로를 넣어 구현되었으며, FNNs의 학습회로는 선형 시냅스 회로와 선형 곱셈기 회로를 사용하여MEBP(Modified Error Back-Propagation) 학습규칙을 구현하였다. 제안된 방식은 기존의 CMOS 공정으로 구현되었고 HSPICE 회로 시뮬레이터로 그 동작을 검증하였다 구현된 FNNs은 어떤 학습패턴 쌍에 의해 유일하게 결정되는 출력 전압을 생성한다. 제안된 학습방안은 향후 학습 가능한 대용량 신경망의 구현에 매우 적합하리라 예상된다.

  • PDF

An Incremental Multi Partition Averaging Algorithm Based on Memory Based Reasoning (메모리 기반 추론 기법에 기반한 점진적 다분할평균 알고리즘)

  • Yih, Hyeong-Il
    • Journal of IKEEE
    • /
    • v.12 no.1
    • /
    • pp.65-74
    • /
    • 2008
  • One of the popular methods used for pattern classification is the MBR (Memory-Based Reasoning) algorithm. Since it simply computes distances between a test pattern and training patterns or hyperplanes stored in memory, and then assigns the class of the nearest training pattern, it is notorious for memory usage and can't learn additional information from new data. In order to overcome this problem, we propose an incremental learning algorithm (iMPA). iMPA divides the entire pattern space into fixed number partitions, and generates representatives from each partition. Also, due to the fact that it can not learn additional information from new data, we present iMPA which can learn additional information from new data and not require access to the original data, used to train. Proposed methods have been successfully shown to exhibit comparable performance to k-NN with a lot less number of patterns and better result than EACH system which implements the NGE theory using benchmark data sets from UCI Machine Learning Repository.

  • PDF

Enhanced Self-Generation Supervised Learning Alrorithm Using ARTI and Delta-Bar-Delta Method (ART1과 Delta-Bar-Delta 방법을 이용한 개선된 자가 생성 지도 학습 알고리즘)

  • 백인호;김태경;김광백
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2003.09b
    • /
    • pp.71-75
    • /
    • 2003
  • 오류 역전파 학습 알고리즘을 이용하여 영상 인식에 적용 할 경우에는 은닉층의 노드 수를 경험적으로 설정하므로, 학습시간과 지역최소화 및 정체현상이 발생한다. 그리고 ARTI 알고리즘은 입력 패턴과 저장 패턴간의 측정 방법인 유사성 검증 방법과 경계 변수의 설정에 따라 인식률이 좌우된다. 경계 변수의 값이 크면 입력 패턴과 저장 패턴사이에 약간의 차이만 있어도 새로운 카테고리(Category)로 분류하고, 반대로 경계 변수의 값이 적으면 입력 패턴과 저장 패턴 사이에 많은 차이가 있더라도 유사성이 인정되어 입력 패턴들을 대략적으로 분류한다. 따라서 ART1 알고리즘을 영상 인식에 적용하기 위해서는 경계 변수를 경험적으로 설정하므로 인식률에 부정적인 영향을 갖는 문제점이 있다. 따라서 본 논문에서는 개선된 ART1 알고리즘과 지도 학습 방법을 결합하여 신경망의 은닉층 노드를 동적으로 변화시키는 자가 생성지도 학습 알고리즘을 제안한다. 제안된 신경망에서 입력층과 은닉층의 학습 구조에는 ART1 알고리즘을 개선하여 적용하고, 은닉층과 출력층의 학습 구조에는 은닉층에서 승자로 선택된 노드와 출력층 노드와 연결된 가중치만을 조정하고 Delta-Bar-Delta 알고리즘을 적용한다. 제안된 방법의 학습 성능을 분석하기 위하여 학생증 영상에서 추출한 학번 패턴 분류에 적용한 결과, 기존의 신경망 학습 알고리즘보다 학습 성능이 개선됨을 확인하였다.

  • PDF

Suggestions for learning design patterns based on the Dreyfus model (드라이퍼스 모델 기반 디자인 패턴 학습 모델 제안)

  • Moon, HyunJun;Kim, Jungsun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.01a
    • /
    • pp.335-336
    • /
    • 2021
  • 디자인 패턴은 클래스와 객체를 활용한 23가지의 개발자 의도를 만족시켜주는 최선의 실천법들을 정리한 것이다. 디자인 패턴은 설계 경험과 객체지향 패러다임의 기반 지식들을 필요하므로 실질적인 패턴 학습에 어려움이 있다. 디자인 패턴 학습에 대한 도움을 제시해 줄 수 있는 가이드라인으로 기술 습득 모델에 활용하는 드라이퍼스 모델을 적용하는 것을 제안하고자 한다. 드라이퍼스 단계별 모델을 기반으로 단계 별 디자인 패턴 학습 단계를 제시한다.

  • PDF

An Enhanced Counterpropagation Algorithm for Effective Pattern Recognition (효과적인 패턴 인식을 위한 개선된 Counterpropagation 알고리즘)

  • Kim, Tae-Hyung;Woo, Young-Woon;Cho, Jae-Hyun;Kim, Kwang-Baek
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2007.10a
    • /
    • pp.422-426
    • /
    • 2007
  • CP(Counterpropagation) 알고리즘은 Kohonen의 경쟁 네트워크와 Grossberg의 아웃스타(outstar) 구조의 결합으로 이루어진 것으로 패턴 매칭, 패턴 분류, 통계적인 분석 및 데이터 압축 등 활용분야가 다양하고, 다른 신경망 모델에 비해 학습이 매우 빠르다는 장점이 있다. 하지만 CP 알고리즘은 충분한 경쟁층의 수가 설정되지 않아 경쟁층에서 학습이 불안정하고, 여권 코드와 같이 다양한 패턴으로 그성된 경우에는 패턴들을 정확히 분류할 수 없는 단점이 있다. 그리고 CP 알고리즘은 출력층에서 연결강도를 조정할 때, 학습률에 따라 학습 및 인식 성능이 좌우된다. 따라서 본 논문에서는 패턴 인식 성능을 개선하기 위해 다수의 경쟁층을 설정하고, 입력 벡터와 숭자 뉴런의 대표 벡터간의 차이와 숭자 뉴런의 빈도수를 학습률 조정에 반영하여 학습률을 동적으로 조정하여 경쟁층에서 안정적으로 학습되도록 하고, 출력층의 연결강도 조정시 이전 연결 강도 변화량을 반영하는 모멘텀(momentum)학습법을 적용한 개선된 CP 알고리즘을 제안한다. 학습 성능을 확인하기 위해서 실제 여권에서 추출된 개별 코드를 대상으로 실험한 결과, 본 논문에서 개선한 CP 알고리즘이 기존의 CP 알고리즘보다 패턴 분류의 정확성과 인식 성능이 개선된 것을 확인하였다.

  • PDF