• 제목/요약/키워드: Feature selection

검색결과 1,068건 처리시간 0.04초

자질 선정 기준과 가중치 할당 방식간의 관계를 고려한 문서 자동분류의 개선에 대한 연구 (An Empirical Study on Improving the Performance of Text Categorization Considering the Relationships between Feature Selection Criteria and Weighting Methods)

  • 이재윤
    • 한국문헌정보학회지
    • /
    • 제39권2호
    • /
    • pp.123-146
    • /
    • 2005
  • 이 연구에서는 문서 자동분류에서 분류자질 선정과 가중치 할당을 위해서 일관된 전략을 채택하여 kNN 분류기의 성능을 향상시킬 수 있는 방안을 모색하였다. 문서 자동 분류에서 분류자질 선정 방식과 자질 가중치 할당 방식은 자동분류 알고리즘과 함께 분류성능을 좌우하는 중요한 요소이다. 기존 연구에서는 이 두 방식을 결정할 때 상반된 전략을 사용해왔다. 이 연구에서는 색인파일 저장공간과 실행시간에 따른 분류성능을 기준으로 분류자질 선정 결과를 평가해서 기존 연구와 다른 결과를 얻었다. 상호정보량과 같은 저빈도 자질 선호 기준이나 심지어는 역문헌빈도를 이용해서 분류 자질을 선정하는 것이 kNN 분류기의 분류 효과와 효율 면에서 바람직한 것으로 나타났다. 자질 선정기준으로 저빈도 자질 선호 척도를 자질 선정 및 자질 가중치 할당에 일관되게 이용한 결과 분류성능의 저하 없이 kNN 분류기의 처리 속도를 약 3배에서 5배정도 향상시킬 수 있었다.

Landslide susceptibility assessment using feature selection-based machine learning models

  • Liu, Lei-Lei;Yang, Can;Wang, Xiao-Mi
    • Geomechanics and Engineering
    • /
    • 제25권1호
    • /
    • pp.1-16
    • /
    • 2021
  • Machine learning models have been widely used for landslide susceptibility assessment (LSA) in recent years. The large number of inputs or conditioning factors for these models, however, can reduce the computation efficiency and increase the difficulty in collecting data. Feature selection is a good tool to address this problem by selecting the most important features among all factors to reduce the size of the input variables. However, two important questions need to be solved: (1) how do feature selection methods affect the performance of machine learning models? and (2) which feature selection method is the most suitable for a given machine learning model? This paper aims to address these two questions by comparing the predictive performance of 13 feature selection-based machine learning (FS-ML) models and 5 ordinary machine learning models on LSA. First, five commonly used machine learning models (i.e., logistic regression, support vector machine, artificial neural network, Gaussian process and random forest) and six typical feature selection methods in the literature are adopted to constitute the proposed models. Then, fifteen conditioning factors are chosen as input variables and 1,017 landslides are used as recorded data. Next, feature selection methods are used to obtain the importance of the conditioning factors to create feature subsets, based on which 13 FS-ML models are constructed. For each of the machine learning models, a best optimized FS-ML model is selected according to the area under curve value. Finally, five optimal FS-ML models are obtained and applied to the LSA of the studied area. The predictive abilities of the FS-ML models on LSA are verified and compared through the receive operating characteristic curve and statistical indicators such as sensitivity, specificity and accuracy. The results showed that different feature selection methods have different effects on the performance of LSA machine learning models. FS-ML models generally outperform the ordinary machine learning models. The best FS-ML model is the recursive feature elimination (RFE) optimized RF, and RFE is an optimal method for feature selection.

패턴 인식문제를 위한 유전자 알고리즘 기반 특징 선택 방법 개발 (Genetic Algorithm Based Feature Selection Method Development for Pattern Recognition)

  • 박창현;김호덕;양현창;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제16권4호
    • /
    • pp.466-471
    • /
    • 2006
  • 패턴 인식 문제에서 중요한 전처리 과정 중 하나는 특정을 선택하거나 추출하는 부분이다. 특정을 추출하는 방법으로는 PCA가 보통 사용되고 특정을 선택하는 방법으로는 SFS 나 SBS 등의 방법들이 자주 사용되고 있다. 본 논문은 진화 연산 방법으로써 비선형 최적화 문제에서 유용하게 사용되어 지고 있는 유전자 알고리즘을 특정 선택에 적용하는 유전자 알고리즘 특정 선택 (Genetic Algorithm Feature Selection: GAFS)방법을 개발하여 다른 특징 선택 알고리즘과의 비교를 통해 본 알고리즘의 성능을 관찰한다.

감성 인식을 위한 강화학습 기반 상호작용에 의한 특징선택 방법 개발 (Reinforcement Learning Method Based Interactive Feature Selection(IFS) Method for Emotion Recognition)

  • 박창현;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제12권7호
    • /
    • pp.666-670
    • /
    • 2006
  • This paper presents the novel feature selection method for Emotion Recognition, which may include a lot of original features. Specially, the emotion recognition in this paper treated speech signal with emotion. The feature selection has some benefits on the pattern recognition performance and 'the curse of dimension'. Thus, We implemented a simulator called 'IFS' and those result was applied to a emotion recognition system(ERS), which was also implemented for this research. Our novel feature selection method was basically affected by Reinforcement Learning and since it needs responses from human user, it is called 'Interactive feature Selection'. From performing the IFS, we could get 3 best features and applied to ERS. Comparing those results with randomly selected feature set, The 3 best features were better than the randomly selected feature set.

문서 분류 알고리즘을 이용한 한국어 스팸 문서 분류 성능 비교 (Comparing Korean Spam Document Classification Using Document Classification Algorithms)

  • 송철환;유성준
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 가을 학술발표논문집 Vol.33 No.2 (C)
    • /
    • pp.222-225
    • /
    • 2006
  • 한국은 다른 나라에 비해 많은 인터넷 사용자를 가지고 있다. 이에 비례해서 한국의 인터넷 유저들은 Spam Mail에 대해 많은 불편함을 호소하고 있다. 이러한 문제를 해결하기 위해 본 논문은 다양한 Feature Weighting, Feature Selection 그리고 문서 분류 알고리즘들을 이용한 한국어 스팸 문서 Filtering연구에 대해 기술한다. 그리고 한국어 문서(Spam/Non-Spam 문서)로부터 영사를 추출하고 이를 각 분류 알고리즘의 Input Feature로써 이용한다. 그리고 우리는 Feature weighting 에 대해 기존의 전통적인 방법이 아니라 각 Feature에 대해 Variance 값을 구하고 Global Feature를 선택하기 위해 Max Value Selection 방법에 적용 후에 전통적인 Feature Selection 방법인 MI, IG, CHI 들을 적용하여 Feature들을 추출한다. 이렇게 추출된 Feature들을 Naive Bayes, Support Vector Machine과 같은 분류 알고리즘에 적용한다. Vector Space Model의 경우에는 전통적인 방법 그대로 사용한다. 그 결과 우리는 Support Vector Machine Classifier, TF-IDF Variance Weighting(Combined Max Value Selection), CHI Feature Selection 방법을 사용할 경우 Recall(99.4%), Precision(97.4%), F-Measure(98.39%)의 성능을 보였다.

  • PDF

유전알고리즘을 이용한 최적 k-최근접이웃 분류기 (Optimal k-Nearest Neighborhood Classifier Using Genetic Algorithm)

  • 박종선;허균
    • Communications for Statistical Applications and Methods
    • /
    • 제17권1호
    • /
    • pp.17-27
    • /
    • 2010
  • 분류분석에 사용되는 k-최근접이웃 분류기에 유전알고리즘을 적용하여 의미 있는 변수들과 이들에 대한 가중치 그리고 적절한 k를 동시에 선택하는 알고리즘을 제시하였다. 다양한 실제 자료에 대하여 기존의 여러 방법들과 교차타당성 방법을 통하여 비교한 결과 효과적인 것으로 나타났다.

퍼지 매핑을 이용한 퍼지 패턴 분류기의 Feature Selection (Feature Selection of Fuzzy Pattern Classifier by using Fuzzy Mapping)

  • 노석범;김용수;안태천
    • 한국지능시스템학회논문지
    • /
    • 제24권6호
    • /
    • pp.646-650
    • /
    • 2014
  • 본 논문에서는 다차원 문제로 인하여 발생하는 패턴 분류 성능의 저하를 방지 하여 퍼지 패턴 분류기의 성능을 개선하기 위하여 다수의 Feature들 중에서 패턴 분류 성능 향상에 기여하는 Feature를 선택하기 위한 새로운 Feature Selection 방법을 제안 한다. 새로운 Feature Selection 방법은 각각의 Feature 들을 퍼지 클러스터링 기법을 이용하여 클러스터링 한 후 각 클러스터가 임의의 class에 속하는 정도를 계산하고 얻어진 값을 이용하여 해당 feature 가 fuzzy pattern classifier에 적용될 경우 패턴 분류 성능 개선 가능성을 평가한다. 평가된 성능 개선 가능성을 기반으로 이미 정해진 개수만큼의 Feature를 선택하는 Feature Selection을 수행한다. 본 논문에서는 제안된 방법의 성능을 평가, 비교하기 위하여 다수의 머신 러닝 데이터 집합에 적용한다.

유전 알고리즘을 이용한 특징 결합과 선택 (Feature Combination and Selection Using Genetic Algorithm for Character Recognition)

  • 이진선
    • 한국콘텐츠학회논문지
    • /
    • 제5권5호
    • /
    • pp.152-158
    • /
    • 2005
  • 문자 패턴에서 추출한 서로 다른 특징 집합을 결합함으로써 문자 인식 시스템의 성능을 향상시킬 수 있다. 이때 결합된 특징 벡터의 차원을 줄이기 위해 특징 선택을 수행해야 한다. 이 논문은 문자 인식 문제에서 특징 결합과 선택을 위한 일반적인 틀을 제시한다. 또한 필기 숫자 인식을 위한 설계와 구현을 제시한다. 이 설계에서는 필기 숫자 패턴에서 DDD 특징 집합과 AGD 특징 집합을 추출하며 특징 선택을 위해 유전 알고리즘을 사용한다. 실험 결과 CENPARMI 필기 숫자 데이터베이스에 대해 0.7%의 정확률 향상을 얻었다.

  • PDF

지지벡터기계의 변수 선택방법 비교 (Comparison of Feature Selection Methods in Support Vector Machines)

  • 김광수;박창이
    • 응용통계연구
    • /
    • 제26권1호
    • /
    • pp.131-139
    • /
    • 2013
  • 지지벡터기계는 잡음변수가 존재하는 경우에 성능이 저하될 수 있다. 또한 최종 분류기에서 각 변수들의 중요도를 알리 어려운 단점이 있다. 따라서 변수선택은 지지벡터기계의 해석력과 정확도를 높일 수 있다. 기존의 문헌상의 대부분의 연구는 선형 지지벡터기계에서 성근 해를 주는 벌점함수를 통해 변수를 선택에 관한 것이다. 실제로는 분류의 정확도를 높이기 위해 비선형 커널을 사용하는 경우가 일반적이다. 따라서 변수선택은 비선형 지지벡터기계에서도 마찬가지로 필요하다. 본 논문에서는 모의실험 및 실제자료를 통하여 비선형 지지벡터의 대표적인 변수선택법인 COSSO(component selection and smoothing operator)와 KNIFE(kernel iterative feature extraction)의 성능을 비교한다.

Effective Multi-label Feature Selection based on Large Offspring Set created by Enhanced Evolutionary Search Process

  • Lim, Hyunki;Seo, Wangduk;Lee, Jaesung
    • 한국컴퓨터정보학회논문지
    • /
    • 제23권9호
    • /
    • pp.7-13
    • /
    • 2018
  • Recent advancement in data gathering technique improves the capability of information collecting, thus allowing the learning process between gathered data patterns and application sub-tasks. A pattern can be associated with multiple labels, demanding multi-label learning capability, resulting in significant attention to multi-label feature selection since it can improve multi-label learning accuracy. However, existing evolutionary multi-label feature selection methods suffer from ineffective search process. In this study, we propose a evolutionary search process for the task of multi-label feature selection problem. The proposed method creates large set of offspring or new feature subsets and then retains the most promising feature subset. Experimental results demonstrate that the proposed method can identify feature subsets giving good multi-label classification accuracy much faster than conventional methods.