• 제목/요약/키워드: selection of classifiers

검색결과 130건 처리시간 0.031초

Hyperparameter Selection for APC-ECOC

  • Seok, Kyung-Ha
    • Journal of the Korean Data and Information Science Society
    • /
    • 제19권4호
    • /
    • pp.1219-1231
    • /
    • 2008
  • The main object of this paper is to develop a leave-one-out(LOO) bound of all pairwise comparison error correcting output codes (APC-ECOC). To avoid using classifiers whose corresponding target values are 0 in APC-ECOC and requiring pilot estimates we developed a bound based on mean misclassification probability(MMP). It can be used to tune kernel hyperparameters. Our empirical experiment using kernel mean squared estimate(KMSE) as the binary classifier indicates that the bound leads to good estimates of kernel hyperparameters.

  • PDF

A Step towards the Improvement in the Performance of Text Classification

  • Hussain, Shahid;Mufti, Muhammad Rafiq;Sohail, Muhammad Khalid;Afzal, Humaira;Ahmad, Ghufran;Khan, Arif Ali
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권4호
    • /
    • pp.2162-2179
    • /
    • 2019
  • The performance of text classification is highly related to the feature selection methods. Usually, two tasks are performed when a feature selection method is applied to construct a feature set; 1) assign score to each feature and 2) select the top-N features. The selection of top-N features in the existing filter-based feature selection methods is biased by their discriminative power and the empirical process which is followed to determine the value of N. In order to improve the text classification performance by presenting a more illustrative feature set, we present an approach via a potent representation learning technique, namely DBN (Deep Belief Network). This algorithm learns via the semantic illustration of documents and uses feature vectors for their formulation. The nodes, iteration, and a number of hidden layers are the main parameters of DBN, which can tune to improve the classifier's performance. The results of experiments indicate the effectiveness of the proposed method to increase the classification performance and aid developers to make effective decisions in certain domains.

Stock Price Prediction and Portfolio Selection Using Artificial Intelligence

  • Sandeep Patalay;Madhusudhan Rao Bandlamudi
    • Asia pacific journal of information systems
    • /
    • 제30권1호
    • /
    • pp.31-52
    • /
    • 2020
  • Stock markets are popular investment avenues to people who plan to receive premium returns compared to other financial instruments, but they are highly volatile and risky due to the complex financial dynamics and poor understanding of the market forces involved in the price determination. A system that can forecast, predict the stock prices and automatically create a portfolio of top performing stocks is of great value to individual investors who do not have sufficient knowledge to understand the complex dynamics involved in evaluating and predicting stock prices. In this paper the authors propose a Stock prediction, Portfolio Generation and Selection model based on Machine learning algorithms, Artificial neural networks (ANNs) are used for stock price prediction, Mathematical and Statistical techniques are used for Portfolio generation and Un-Supervised Machine learning based on K-Means Clustering algorithms are used for Portfolio Evaluation and Selection which take in to account the Portfolio Return and Risk in to consideration. The model presented here is limited to predicting stock prices on a long term basis as the inputs to the model are based on fundamental attributes and intrinsic value of the stock. The results of this study are quite encouraging as the stock prediction models are able predict stock prices at least a financial quarter in advance with an accuracy of around 90 percent and the portfolio selection classifiers are giving returns in excess of average market returns.

분류기 앙상블 선택을 위한 혼합 유전 알고리즘 (Hybrid Genetic Algorithm for Classifier Ensemble Selection)

  • 김영원;오일석
    • 정보처리학회논문지B
    • /
    • 제14B권5호
    • /
    • pp.369-376
    • /
    • 2007
  • 이 논문은 최적의 분류기 앙상블 선택을 위한 혼합 유전 알고리즘을 제안한다. 혼합 유전 알고리즘은 단순 유전알고리즘의 미세 조정력을 보완하기 위해 지역 탐색 연산을 추가한 것이다. 혼합 유전 알고리즘의 우수성을 입증하기 위해 단순 유전 알고리즘과 혼합 유전 알고리즘 각각을 비교 실험하였다. 또한 혼합 유전 알고리즘의 지역 탐색 연산으로 두 가지 방법(SSO: 순차 탐색 연산, CSO: 조합 탐색 연산)을 제안한다. 비교 실험 결과는 혼합 유전 알고리즘이 단순 유전 알고리즘에 비해 해를 탐색하는 능력이 우수하였다. 또한 분류기들의 상관관계를 고려한 CSO 방법이 SSO 방법보다 더 우수하였다.

부도예측을 위한 KNN 앙상블 모형의 동시 최적화 (Investigating Dynamic Mutation Process of Issues Using Unstructured Text Analysis)

  • 민성환
    • 지능정보연구
    • /
    • 제22권1호
    • /
    • pp.139-157
    • /
    • 2016
  • 앙상블 분류기란 개별 분류기보다 더 좋은 성과를 내기 위해 다수의 분류기를 결합하는 것을 의미한다. 이와 같은 앙상블 분류기는 단일 분류기의 일반화 성능을 향상시키는데 매우 유용한 것으로 알려져 있다. 랜덤 서브스페이스 앙상블 기법은 각각의 기저 분류기들을 위해 원 입력 변수 집합으로부터 랜덤하게 입력 변수 집합을 선택하며 이를 통해 기저 분류기들을 다양화 시키는 기법이다. k-최근접 이웃(KNN: k nearest neighbor)을 기저 분류기로 하는 랜덤 서브스페이스 앙상블 모형의 성과는 단일 모형의 성과를 개선시키는 데 효과적인 것으로 알려져 있으며, 이와 같은 랜덤 서브스페이스 앙상블의 성과는 각 기저 분류기를 위해 랜덤하게 선택된 입력 변수 집합과 KNN의 파라미터 k의 값이 중요한 영향을 미친다. 하지만, 단일 모형을 위한 k의 최적 선택이나 단일 모형을 위한 입력 변수 집합의 최적 선택에 관한 연구는 있었지만 KNN을 기저 분류기로 하는 앙상블 모형에서 이들의 최적화와 관련된 연구는 없는 것이 현실이다. 이에 본 연구에서는 KNN을 기저 분류기로 하는 앙상블 모형의 성과 개선을 위해 각 기저 분류기들의 k 파라미터 값과 입력 변수 집합을 동시에 최적화하는 새로운 형태의 앙상블 모형을 제안하였다. 본 논문에서 제안한 방법은 앙상블을 구성하게 될 각각의 KNN 기저 분류기들에 대해 최적의 앙상블 성과가 나올 수 있도록 각각의 기저 분류기가 사용할 파라미터 k의 값과 입력 변수를 유전자 알고리즘을 이용해 탐색하였다. 제안한 모형의 검증을 위해 국내 기업의 부도 예측 관련 데이터를 가지고 다양한 실험을 하였으며, 실험 결과 제안한 모형이 기존의 앙상블 모형보다 기저 분류기의 다양화와 예측 성과 개선에 효과적임을 알 수 있었다.

PfSGA를 이용한 MLP분류기의 구조 학습 및 수화인식에의 응용 (A Structural Learning of MLP Classifiers Using PfSGA and Its Application to Sign Language Recognition)

  • 김상운;신성효
    • 전자공학회논문지C
    • /
    • 제36C권11호
    • /
    • pp.75-83
    • /
    • 1999
  • 주어진 응용에 적합한 MLP 분류기의 위상 구조를 효율적으로 학습하기 위하여 종족 유전 알고리즘 (SGA)과 파라미터 프리 유전 알고리즘(PfGA)을 결합한 파라미터 프리 종족 유전 알고리즘(PfSGA)을 제안한다. SGA는 전체 탐색 공간을 은닉층 뉴런의 수에 따라 여러 개의 영역(종족)으로 분할한 후, 학습 과정 중 기준에 미달되는 종족에 대해서는 학습을 중단시킴으로써 불필요한 탐색을 줄이는 학습법이다. 그러나 SGA는 돌연변이나 교배 확률 등 학습 파라미터 설정에 따라 분류기의 성능이 달라진다. 따라서 이 논문에서는 SGA와 PfGA를 결합하여 파라미터 설정에 무관하도록 하였다. 벤치마크 데이터와 수화 단어에 대하여 실험한 결과 PfSGA는 기존의 SGA에 비해 학습 시간을 단축시킬 수 있으며, 파라미터의 설정에 영향을 받지 않았다. 또한 기존의 방법에 비해 오인식율과 위상 구조 등에 있어서 효율적임을 확인하였다.

  • PDF

Development of Correlation Based Feature Selection Method by Predicting the Markov Blanket for Gene Selection Analysis

  • Adi, Made;Yun, Zhen;Keong, Kwoh-Chee
    • 한국생물정보학회:학술대회논문집
    • /
    • 한국생물정보시스템생물학회 2005년도 BIOINFO 2005
    • /
    • pp.183-187
    • /
    • 2005
  • In this paper, we propose a heuristic method to select features using a Two-Phase Markov Blanket-based (TPMB) algorithm. The first phase, filtering phase, of TPMB algorithm works by filtering the obviously redundant features. A non-linear correlation method based on Information theory is used as a metric to measure the redundancy of a feature [1]. In second phase, approximating phase, the Markov Blanket (MB) of a system is estimated by employing the concept of cross entropy to identify the MB. We perform experiments on microarray data and report two popular dataset, AML-ALL [3] and colon tumor [4], in this paper. The experimental results show that the TPMB algorithm can significantly reduce the number of features while maintaining the accuracy of the classifiers.

  • PDF

Optimization of Domain-Independent Classification Framework for Mood Classification

  • Choi, Sung-Pil;Jung, Yu-Chul;Myaeng, Sung-Hyon
    • Journal of Information Processing Systems
    • /
    • 제3권2호
    • /
    • pp.73-81
    • /
    • 2007
  • In this paper, we introduce a domain-independent classification framework based on both k-nearest neighbor and Naive Bayesian classification algorithms. The architecture of our system is simple and modularized in that each sub-module of the system could be changed or improved efficiently. Moreover, it provides various feature selection mechanisms to be applied to optimize the general-purpose classifiers for a specific domain. As for the enhanced classification performance, our system provides conditional probability boosting (CPB) mechanism which could be used in various domains. In the mood classification domain, our optimized framework using the CPB algorithm showed 1% of improvement in precision and 2% in recall compared with the baseline.

A Feature Vector Selection Method for Cancer Classification

  • Yun, Zheng;Keong, Kwoh-Chee
    • 한국생물정보학회:학술대회논문집
    • /
    • 한국생물정보시스템생물학회 2005년도 BIOINFO 2005
    • /
    • pp.23-28
    • /
    • 2005
  • The high-dimensionality and insufficiency of gene expression profiles and proteomic profiles makes feature selection become a critical step in efficiently building accurate models for cancer problems based on such data sets. In this paper, we use a method, called Discrete Function Learning algorithm, to find discriminatory feature vectors based on information theory. The target feature vectors contain all or most information (in terms of entropy) of the class attribute. Two data sets are selected to validate our approach, one leukemia subtype gene expression data set and one ovarian cancer proteomic data set. The experimental results show that the our method generalizes well when applied to these insufficient and high-dimensional data sets. Furthermore, the obtained classifiers are highly understandable and accurate.

  • PDF

Machine-Learning-Based User Group and Beam Selection for Coordinated Millimeter-wave Systems

  • Ju, Sang-Lim;Kim, Nam-il;Kim, Kyung-Seok
    • International journal of advanced smart convergence
    • /
    • 제9권4호
    • /
    • pp.156-166
    • /
    • 2020
  • In this paper, to improve spectral efficiency and mitigate interference in coordinated millimeter-wave systems, we proposes an optimal user group and beam selection scheme. The proposed scheme improves spectral efficiency by mitigating intra- and inter-cell interferences (ICI). By examining the effective channel capacity for all possible user combinations, user combinations and beams with minimized ICI can be selected. However, implementing this in a dense environment of cells and users requires highly complex computational abilities, which we have investigated applying multiclass classifiers based on machine learning. Compared with the conventional scheme, the numerical results show that our proposed scheme can achieve near-optimal performance, making it an attractive option for these systems.