• 제목/요약/키워드: Incremental Training

검색결과 52건 처리시간 0.026초

미리 순서가 매겨진 학습 데이타를 이용한 효과적인 증가학습 (Efficient Incremental Learning using the Preordered Training Data)

  • 이선영;방승양
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권2호
    • /
    • pp.97-107
    • /
    • 2000
  • 증가학습은 점진적으로 학습 데이타를 늘려가며 신경망을 학습시킴으로써 일반적으로 학습시간을 단축시킬 뿐만 아니라 신경망의 일반화 성능을 향상시킨다. 그러나, 기존의 증가학습은 학습 데이타를 선정하는 과정에서 데이타의 중요도를 반복적으로 평가한다. 본 논문에서는 분류 문제의 경우 학습이 시작되기 전에 데이타의 중요도를 한 번만 평가한다. 제안된 방법에서는 분류 문제의 경우 클래스 경계에 가까운 데이타일수록 그 데이타의 중요도가 높다고 보고 이러한 데이타를 선택하는 방법을 제시한다. 두가지 합성 데이타와 실세계 데이타의 실험을 통해 제안된 방법이 기존의 방법보다 학습 시간을 단축시키며 일반화 성능을 향상시킴을 보인다.

  • PDF

Incremental Multi-classification by Least Squares Support Vector Machine

  • Oh, Kwang-Sik;Shim, Joo-Yong;Kim, Dae-Hak
    • Journal of the Korean Data and Information Science Society
    • /
    • 제14권4호
    • /
    • pp.965-974
    • /
    • 2003
  • In this paper we propose an incremental classification of multi-class data set by LS-SVM. By encoding the output variable in the training data set appropriately, we obtain a new specific output vectors for the training data sets. Then, online LS-SVM is applied on each newly encoded output vectors. Proposed method will enable the computation cost to be reduced and the training to be performed incrementally. With the incremental formulation of an inverse matrix, the current information and new input data are used for building another new inverse matrix for the estimation of the optimal bias and lagrange multipliers. Computational difficulties of large scale matrix inversion can be avoided. Performance of proposed method are shown via numerical studies and compared with artificial neural network.

  • PDF

중소기업에서의 내부마케팅과 구성원들의 점진적 혁신의 관계에 대한 연구 (The relationship between internal marketing and incremental innovation in small business)

  • 안관영
    • 대한안전경영과학회지
    • /
    • 제13권4호
    • /
    • pp.171-177
    • /
    • 2011
  • This paper reviewed the relationship between internal marketing and incremental innovation, and the moderating effect of firm size. The results of hierarchical multiple regression analysis, based on the responses from 322 employees in small business, showed that almost internal marketing factors effects positively on incremental innovation. All internal marketing factors(CEO support, compensation system, education & training, internal communication, authority delegation) appeared to be related positively with process innovation and service innovation. And all other factors(compensation system, education & training, internal communication, authority delegation) except CEO support showed to have positive relationship with operation innovation. In the moderating effects, internal communication effects more positively on incremental innovation in large firm-size than in small firm-size. But delegation effects more positively on incremental innovation in small firm-size than in large firm-size.

중소기업에서 관리시스템과 점진적 혁신의 관계 및 지식이전의 매개효과 (The relationship between managerial system and incremental innovation, and the mediating effect of knowledge transfer in small business)

  • 장경생;안관영
    • 대한안전경영과학회지
    • /
    • 제19권2호
    • /
    • pp.135-146
    • /
    • 2017
  • The purpose of this study is to review the relationship between managerial system and incremental innovation, and the mediating effect of knowledge transfer in small business. In order to verify and achieve the purposes mentioned above, questionnaire data were gathered and analysed from 255 enterprise managers in western Kangwon-do province. Empirical survey's findings are as follows; First, CEO's support and education/training appeared to be positively related with knowledge transfer. Second, managerial system and knowledge transfer appeared to be positively related with incremental innovation. Third, knowledge transfer had mediating effect on the relationships of CEO's support-incremental innovation and education/training-incremental innovation.

Flexible Incremental 알고리즘을 이용한 신경망의 단계적 구축 방법 (Stepwise Constructive Method for Neural Networks Using a Flexible Incremental Algorithm)

  • 박진일;정지석;조영임;전명근
    • 한국지능시스템학회논문지
    • /
    • 제19권4호
    • /
    • pp.574-579
    • /
    • 2009
  • 복잡한 비선형 회귀문제들에서 최적의 신경망을 구축하기 위해서는 구조의 선정 및 노이즈에 의한 과잉학습(overtraining)등에 따른 많은 문제들이 있다. 본 논문에서는 flexible incremental 알고리즘을 이용하여 단계적으로 최적의 신경망을 구축하는 방법을 제안한다. Flexible incremental 알고리즘은 예측 잔류오차를 최소화하기 위해 단계적으로 추가되어지는 은닉노드 개수를 검증데이터를 이용하여 신축성 있게 조절하고, 빠른 학습을 위하여 ELM (Extreme Learning Machine)을 이용한다. 제안된 방법은 신경망의 구축과정에서 사용자의 어떠한 관여 없이도 빠른 학습과 적은 수의 은닉노드들에 의한 범용 근사화 (universal approximation)가 가능한 신경망의 구축이 가능한 장점을 가지고 있다. 다양한 종류의 벤치마크 데이터들을 이용한 실험 결과를 통하여 제안된 방법이 실제 회귀문제들에서 우수한 성능을 가짐을 확인하였다.

함수 근사를 위한 점증적 서포트 벡터 학습 방법 (Incremental Support Vector Learning Method for Function Approximation)

  • 임채환;박주영
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(3)
    • /
    • pp.135-138
    • /
    • 2002
  • This paper addresses incremental learning method for regression. SVM(support vector machine) is a recently proposed learning method. In general training a support vector machine requires solving a QP (quadratic programing) problem. For very large dataset or incremental dataset, solving QP problems may be inconvenient. So this paper presents an incremental support vector learning method for function approximation problems.

  • PDF

대용량 훈련 데이타의 점진적 학습에 기반한 얼굴 검출 방법 (Face Detection Based on Incremental Learning from Very Large Size Training Data)

  • 박지영;이준호
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권7호
    • /
    • pp.949-958
    • /
    • 2004
  • 본 연구는 대용량 훈련 데이타를 사용하는 얼굴 검출 분류기의 학습과정에서 새로운 데이터의 추가 학습이 가능한 새로운 방법을 제안한다. 추가되는 데이타로부터 새로운 정보를 학습하여 이미 습득된 기존의 지식을 갱신하는 것이 점진적 학습의 목표이다. 이러한 학습 기법에 기반한 분류기의 설계에서는 최종 분류기가 전체 훈련 데이타 집합의 특성을 반영하는 것이 매우 중요한 문제이다. 제안하는 알고리즘은 최적화된 최종 분류기 획득을 위하여 훈련 집합의 전역적인 특성을 대표하는 검증집합을 생성하고, 이 집단 내에서의 분류성능을 기준으로 중간단계 분류기들의 가중치를 결정한다. 각 중간단계 분류기는 개변 데이타 집합의 학습 결과로써 가중치 기반 결합 방식에 의해 최종 분류기로 구성된다. 반복적인 실험을 통해, 제안한 알고리즘을 사용하여 학습한 얼굴 검출 분류기의 성능이 AdaBoost 및 Learn++기반의 분류기보다 우수한 검출 성능을 보임을 확인하였다.

재귀적 분할 평균에 기반한 점진적 규칙 추출 알고리즘 (An Incremental Rule Extraction Algorithm Based on Recursive Partition Averaging)

  • 한진철;김상귀;윤충화
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제34권1호
    • /
    • pp.11-17
    • /
    • 2007
  • 패턴 분류에 많이 사용되는 기법 중의 하나인 메모리 기반 추론 알고리즘은 단순히 메모리에 저장된 학습패턴 또는 초월평면과 테스트 패턴간의 거리를 계산하여 가장 가까운 학습패턴의 클래스로 분류하기 때문에 테스트 패턴을 분류하는 기준을 설명할 수 없다는 문제점을 가지고 있다. 이 문제를 해결하기 위하여, 메모리 기반 학습 기법인 RPA를 기반으로 학습패턴들에 내재된 규칙성을 표현하는 IF-THEN 형태의 규칙을 생성하는 점진적 학습 알고리즘을 제안하였다. 하지만, RPA에 의해 생성된 규칙은 주어진 학습패턴 집합에만 충실히 학습되어 overfitting 현상을 보이게 되며, 또한 패턴 공간의 과도한 분할로 인하여 필요 이상으로 많은 개수의 규칙이 생성된다. 따라서, 본 논문에서는 생성된 규칙으로부터 불필요한 조건을 제거함으로써 ovefitting 현상을 해결함과 동시에 생성되는 규칙의 개수를 줄일 수 있는 점진적 규칙 추출 알고리즘을 제안하였으며, UCI Machine Learning Repository의 벤치마크 데이터를 이용하여 제안한 알고리즘의 성능을 입증하였다.

점진적 패턴 선택에 의한 다충 퍼셉트론의 효율적 구성 및 학습 (Efficient Construction and Training Multilayer Perceptrons by Incremental Pattern Selection)

  • 장병탁
    • 한국정보처리학회논문지
    • /
    • 제3권3호
    • /
    • pp.429-438
    • /
    • 1996
  • 본 논문에서는 주어진 문제를 해결하기 위해 사용될 최적의 다충 퍼센트론을 구성 하기 위한 하나의 점진적 학습 방법을 제시한다. 고정된 크기의 트레이닝 패턴 집합을 반복적으로 사용하는 기존의 알고리즘들과는 달리, 제시되는 방법에서는 학습 패턴의 수를 점차 증가시키면서 전체 데이터를 학습하기 위해 필요하고도 충분한 은닉뉴런의 수를 찾는다. 이와 같이 신경망 크기의 최적화에 학습 패턴을 점차적으로 선택하여 늘려나감으로써 일반화 능력과 학습 속도가 기존의 방법에서보다 향상됨을 필기체 숫자인식 문제에 있어서 실험적으로 보여준다.

  • PDF

Unsupervised Incremental Learning of Associative Cubes with Orthogonal Kernels

  • Kang, Hoon;Ha, Joonsoo;Shin, Jangbeom;Lee, Hong Gi;Wang, Yang
    • 한국지능시스템학회논문지
    • /
    • 제25권1호
    • /
    • pp.97-104
    • /
    • 2015
  • An 'associative cube', a class of auto-associative memories, is revisited here, in which training data and hidden orthogonal basis functions such as wavelet packets or Fourier kernels, are combined in the weight cube. This weight cube has hidden units in its depth, represented by a three dimensional cubic structure. We develop an unsupervised incremental learning mechanism based upon the adaptive least squares method. Training data are mapped into orthogonal basis vectors in a least-squares sense by updating the weights which minimize an energy function. Therefore, a prescribed orthogonal kernel is incrementally assigned to an incoming data. Next, we show how a decoding procedure finds the closest one with a competitive network in the hidden layer. As noisy test data are applied to an associative cube, the nearest one among the original training data are restored in an optimal sense. The simulation results confirm robustness of associative cubes even if test data are heavily distorted by various types of noise.