• 제목/요약/키워드: Incremental Learning Method

검색결과 71건 처리시간 0.027초

함수 근사를 위한 점증적 서포트 벡터 학습 방법 (Incremental Support Vector Learning Method for Function Approximation)

  • 임채환;박주영
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(3)
    • /
    • pp.135-138
    • /
    • 2002
  • This paper addresses incremental learning method for regression. SVM(support vector machine) is a recently proposed learning method. In general training a support vector machine requires solving a QP (quadratic programing) problem. For very large dataset or incremental dataset, solving QP problems may be inconvenient. So this paper presents an incremental support vector learning method for function approximation problems.

  • PDF

점증적 모델에서 최적의 네트워크 구조를 구하기 위한 학습 알고리즘 (An Learning Algorithm to find the Optimized Network Structure in an Incremental Model)

  • 이종찬;조상엽
    • 인터넷정보학회논문지
    • /
    • 제4권5호
    • /
    • pp.69-76
    • /
    • 2003
  • 본 논문에서는 패턴 분류를 위한 새로운 학습 알고리즘을 소개한다. 이 알고리즘은 학습 데이터 집합에 포함된 오류 때문에 네트워크 구조가 너무 복잡하게 되는 점증적 학습 알고리즘의 문제를 해결하기 위해 고안되었다. 이 문제를 위한 접근 방법으로 미리 정의된 판단기준을 가지고 학습 과정을 중단하는 전지 방법을 사용한다. 이 과정에서 적절한 처리과정에 의해 3층 전향구조를 가지는 반복적 모델이 점증적 모델로부터 유도된다 여기서 이 네트워크 구조가 위층과 아래층 사이에 완전연결이 아니라는 점을 주목한다. 전지 방법의 효율성을 확인하기 위해 이 네트워크는 EBP로 다시 학습한다. 이 결과로부터 제안된 알고리즘이 시스템 성능과 네트워크 구조를 이루는 노드의 수 면에서 효과적임을 발견할 수 있다.

  • PDF

얼굴 추적에서의 Staggered Multi-Scale LBP를 사용한 선택적인 점진 학습 (Selective Incremental Learning for Face Tracking Using Staggered Multi-Scale LBP)

  • 이용걸;최상일
    • 전자공학회논문지
    • /
    • 제52권5호
    • /
    • pp.115-123
    • /
    • 2015
  • 점진 학습은 비교적 높은 얼굴 추적 성능을 보이지만, 환경적인 변화로 인해 추적에 오차가 발생하면 그 이후의 추적에 오차가 전파되어 추적 성능이 감소한다는 단점이 있다. 본 논문에서는, 다양한 변이 조건에서 강인하게 동작할 수 있는 선택적인 점진 학습 방법을 제안한다. 먼저, 개별 프레임에 대해 LBP(Local Binary Pattern) 특징을 추출하여 사용함으로써 조명 변이에 보다 강인하게 동작 할수 있고, Staggered Multi-Scale LBP를 사용하여 점진 학습에 사용할 패치(patch)를 선택하여 이전 프레임에서의 오차가 전파되는 것을 방지하였다. 실험을 통해, 제안한 방법이 조명 변이와 같은 환경적 변이가 존재하는 비디오 영상에 대해서도 기존의 추적 방법들보다 우수한 얼굴 추적 성능을 보이는 것을 확인할 수 있었다.

Flexible Incremental 알고리즘을 이용한 신경망의 단계적 구축 방법 (Stepwise Constructive Method for Neural Networks Using a Flexible Incremental Algorithm)

  • 박진일;정지석;조영임;전명근
    • 한국지능시스템학회논문지
    • /
    • 제19권4호
    • /
    • pp.574-579
    • /
    • 2009
  • 복잡한 비선형 회귀문제들에서 최적의 신경망을 구축하기 위해서는 구조의 선정 및 노이즈에 의한 과잉학습(overtraining)등에 따른 많은 문제들이 있다. 본 논문에서는 flexible incremental 알고리즘을 이용하여 단계적으로 최적의 신경망을 구축하는 방법을 제안한다. Flexible incremental 알고리즘은 예측 잔류오차를 최소화하기 위해 단계적으로 추가되어지는 은닉노드 개수를 검증데이터를 이용하여 신축성 있게 조절하고, 빠른 학습을 위하여 ELM (Extreme Learning Machine)을 이용한다. 제안된 방법은 신경망의 구축과정에서 사용자의 어떠한 관여 없이도 빠른 학습과 적은 수의 은닉노드들에 의한 범용 근사화 (universal approximation)가 가능한 신경망의 구축이 가능한 장점을 가지고 있다. 다양한 종류의 벤치마크 데이터들을 이용한 실험 결과를 통하여 제안된 방법이 실제 회귀문제들에서 우수한 성능을 가짐을 확인하였다.

Fault-tolerant control system for once-through steam generator based on reinforcement learning algorithm

  • Li, Cheng;Yu, Ren;Yu, Wenmin;Wang, Tianshu
    • Nuclear Engineering and Technology
    • /
    • 제54권9호
    • /
    • pp.3283-3292
    • /
    • 2022
  • Based on the Deep Q-Network(DQN) algorithm of reinforcement learning, an active fault-tolerance method with incremental action is proposed for the control system with sensor faults of the once-through steam generator(OTSG). In this paper, we first establish the OTSG model as the interaction environment for the agent of reinforcement learning. The reinforcement learning agent chooses an action according to the system state obtained by the pressure sensor, the incremental action can gradually approach the optimal strategy for the current fault, and then the agent updates the network by different rewards obtained in the interaction process. In this way, we can transform the active fault tolerant control process of the OTSG to the reinforcement learning agent's decision-making process. The comparison experiments compared with the traditional reinforcement learning algorithm(RL) with fixed strategies show that the active fault-tolerant controller designed in this paper can accurately and rapidly control under sensor faults so that the pressure of the OTSG can be stabilized near the set-point value, and the OTSG can run normally and stably.

Text-Independent Speaker Identification System Based On Vowel And Incremental Learning Neural Networks

  • Heo, Kwang-Seung;Lee, Dong-Wook;Sim, Kwee-Bo
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.1042-1045
    • /
    • 2003
  • In this paper, we propose the speaker identification system that uses vowel that has speaker's characteristic. System is divided to speech feature extraction part and speaker identification part. Speech feature extraction part extracts speaker's feature. Voiced speech has the characteristic that divides speakers. For vowel extraction, formants are used in voiced speech through frequency analysis. Vowel-a that different formants is extracted in text. Pitch, formant, intensity, log area ratio, LP coefficients, cepstral coefficients are used by method to draw characteristic. The cpestral coefficients that show the best performance in speaker identification among several methods are used. Speaker identification part distinguishes speaker using Neural Network. 12 order cepstral coefficients are used learning input data. Neural Network's structure is MLP and learning algorithm is BP (Backpropagation). Hidden nodes and output nodes are incremented. The nodes in the incremental learning neural network are interconnected via weighted links and each node in a layer is generally connected to each node in the succeeding layer leaving the output node to provide output for the network. Though the vowel extract and incremental learning, the proposed system uses low learning data and reduces learning time and improves identification rate.

  • PDF

미리 순서가 매겨진 학습 데이타를 이용한 효과적인 증가학습 (Efficient Incremental Learning using the Preordered Training Data)

  • 이선영;방승양
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권2호
    • /
    • pp.97-107
    • /
    • 2000
  • 증가학습은 점진적으로 학습 데이타를 늘려가며 신경망을 학습시킴으로써 일반적으로 학습시간을 단축시킬 뿐만 아니라 신경망의 일반화 성능을 향상시킨다. 그러나, 기존의 증가학습은 학습 데이타를 선정하는 과정에서 데이타의 중요도를 반복적으로 평가한다. 본 논문에서는 분류 문제의 경우 학습이 시작되기 전에 데이타의 중요도를 한 번만 평가한다. 제안된 방법에서는 분류 문제의 경우 클래스 경계에 가까운 데이타일수록 그 데이타의 중요도가 높다고 보고 이러한 데이타를 선택하는 방법을 제시한다. 두가지 합성 데이타와 실세계 데이타의 실험을 통해 제안된 방법이 기존의 방법보다 학습 시간을 단축시키며 일반화 성능을 향상시킴을 보인다.

  • PDF

Design and Implementation of Incremental Learning Technology for Big Data Mining

  • Min, Byung-Won;Oh, Yong-Sun
    • International Journal of Contents
    • /
    • 제15권3호
    • /
    • pp.32-38
    • /
    • 2019
  • We usually suffer from difficulties in treating or managing Big Data generated from various digital media and/or sensors using traditional mining techniques. Additionally, there are many problems relative to the lack of memory and the burden of the learning curve, etc. in an increasing capacity of large volumes of text when new data are continuously accumulated because we ineffectively analyze total data including data previously analyzed and collected. In this paper, we propose a general-purpose classifier and its structure to solve these problems. We depart from the current feature-reduction methods and introduce a new scheme that only adopts changed elements when new features are partially accumulated in this free-style learning environment. The incremental learning module built from a gradually progressive formation learns only changed parts of data without any re-processing of current accumulations while traditional methods re-learn total data for every adding or changing of data. Additionally, users can freely merge new data with previous data throughout the resource management procedure whenever re-learning is needed. At the end of this paper, we confirm a good performance of this method in data processing based on the Big Data environment throughout an analysis because of its learning efficiency. Also, comparing this algorithm with those of NB and SVM, we can achieve an accuracy of approximately 95% in all three models. We expect that our method will be a viable substitute for high performance and accuracy relative to large computing systems for Big Data analysis using a PC cluster environment.

SVDD기반의 점진적 학습기능을 갖는 얼굴인식 시스템 (Face Recognition System with SVDD-based Incremental Learning Scheme)

  • 강우성;나진희;안호석;최진영
    • 로봇학회논문지
    • /
    • 제1권1호
    • /
    • pp.66-72
    • /
    • 2006
  • In face recognition, learning speed of face is very important since the system should be trained again whenever the size of dataset increases. In existing methods, training time increases rapidly with the increase of data, which leads to the difficulty of training with a large dataset. To overcome this problem, we propose SVDD (Support Vector Domain Description)-based learning method that can learn a dataset of face rapidly and incrementally. In experimental results, we show that the training speed of the proposed method is much faster than those of other methods. Moreover, it is shown that our face recognition system can improve the accuracy gradually by learning faces incrementally at real environments with illumination changes.

  • PDF

INCREMENTAL INDUCTIVE LEARNING ALGORITHM IN THE FRAMEWORK OF ROUGH SET THEORY AND ITS APPLICATION

  • Bang, Won-Chul;Bien, Zeung-Nam
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1998년도 The Third Asian Fuzzy Systems Symposium
    • /
    • pp.308-313
    • /
    • 1998
  • In this paper we will discuss a type of inductive learning called learning from examples, whose task is to induce general description of concepts from specific instances of these concepts. In many real life situations, however, new instances can be added to the set of instances. It is first proposed within the framework of rough set theory, for such cases, an algorithm to find minimal set of rules for decision tables without recalculation for overcall set of instances. The method of learning presented here is base don a rough set concept proposed by Pawlak[2][11]. It is shown an algorithm to find minimal set of rules using reduct change theorems giving criteria for minimum recalculation with an illustrative example. Finally, the proposed learning algorithm is applied to fuzzy system to learn sampled I/O data.

  • PDF