Abstract
In this paper, we propose an optimizing feature extraction method for multiclass problems assuming normal distributions. Initially, We start with an arbitrary feature vector Assuming that the feature vector is used for classification, we compute the classification error Then we move the feature vector slightly in the direction so that classification error decreases most rapidly This can be done by taking gradient We propose two search methods, sequential search and global search In the sequential search, an additional feature vector is selected so that it provides the best accuracy along with the already chosen feature vectors In the global search, we are not constrained to use the chosen feature vectors Experimental results show that the proposed algorithm provides a favorable performance.
본 논문에서는 다중 클래스 데이터를 위한 특징 추출 방법을 최적화하는 기법을 제안한다 제안된 특징 추출 기법은 분류 오차에 기반한 방법으로 특징 공간(feature space)을 탐색하여 가우시안 최대우도 분류기 (Gaussian ML Classifier)의 분류오차(classification error)가 최소가 되도록 하는 특징벡터 집합을 구하는 방법이다 제안된 방법은 임의의 초기 특징벡터를 설정한 후 steepest descent 알고리즘을 적용하여 분류오차가 감소하는 방향으로 초기벡터를 갱신시킨다 본 논문에서는 순차탐색 및 전체탐색 두 가지의 방법을 제안하며 순차탐색은 추가로 특징벡터를 구하는 경우 이미 구해진 특징벡터를 포함하여 최소의 분류오차를 얻을 수 있는 특징벡터를 구한다 반면에 전체탐색 방법은 추가의 특징벡터를 구할 경우 새로운 초기 특징벡터 집합을 설정하여 이미 구해진 특징벡터를 포함하는 제약을 받지 않는다. 실험결과 제안된 두 가지 방법은 기존의 특징추출 방법보다 우수한 성능을 보여주고 있다.