Abstract
In many applications, producing labeled data is costly and time consuming while an enormous amount of unlabeled data is available with little cost. Therefore, it is natural to ask whether we can take advantage of these unlabeled data in classification teaming. In machine learning literature, the co-training method has been widely used for this purpose. However, the current co-training method requires the entire features to be split into two independent sets. Therefore, in this paper, we improved the current co-training method in a number of ways, and proposed a new co-training method which do not need the feature split. Experimental results show that our proposed method can significantly improve the performance of the current co-training algorithm.
분류학습에서 높은 정확도를 유지하기 위해서는 충분한 분류 데이타가 필요하게 되는데 분류 데이타는 미 분류 데이타보다 생성하기가 어려운 경우가 많다. 따라서 미 분류 데이타를 활용하여 분류의 정확도를 향상시키는 것은 큰 효용성을 가지며 이러한 미 분류 데이타를 활용하는 대표적인 학습방법 중의 하나는 협력학습(co-training) 알고리즘이다. 이는 데이타를 두 개의 독립적인 속성그룹으로 나누어 두개의 분류자로 학습한 후 미 분류 데이타를 분류하고 그중 가장 신뢰성이 높은 데이타를 분류 데이터에 포함하고 이를 반복하는 학습모델이다. 하지만 이 방법은 전체 데이타의 속성을 독립적인 두개의 집합으로 분할하여야하는 제약이 있다. 따라서 본 연구에서는 이와 같은 문제점을 개선하여 보통의 데이터베이스에 적용시킬 수 있는 새로운 협력학습방법을 제시 하고자한다. 즉. 두 개의 독립적인 속성 그룹으로 나누는 가정을 따르지 않고 전체 속성을 사용할 수 있으며 두 개 이상의 분류자를 사용하는 새로운 협력학습방법을 제안하였다.