• 제목/요약/키워드: Support Vector Machine

검색결과 1,794건 처리시간 0.045초

COMPARATIVE ANALYSIS ON MACHINE LEARNING MODELS FOR PREDICTING KOSPI200 INDEX RETURNS

  • Gu, Bonsang;Song, Joonhyuk
    • 한국수학교육학회지시리즈B:순수및응용수학
    • /
    • 제24권4호
    • /
    • pp.211-226
    • /
    • 2017
  • In this paper, machine learning models employed in various fields are discussed and applied to KOSPI200 stock index return forecasting. The results of hyperparameter analysis of the machine learning models are also reported and practical methods for each model are presented. As a result of the analysis, Support Vector Machine and Artificial Neural Network showed a better performance than k-Nearest Neighbor and Random Forest.

Support Vector Regression을 이용한 소프트웨어 개발비 예측 (Estimating Software Development Cost using Support Vector Regression)

  • 박찬규
    • 경영과학
    • /
    • 제23권2호
    • /
    • pp.75-91
    • /
    • 2006
  • The purpose of this paper is to propose a new software development cost estimation method using SVR(Support Vector Regression) SVR, one of machine learning techniques, has been attracting much attention for its theoretic clearness and food performance over other machine learning techniques. This paper may be the first study in which SVR is applied to the field of software cost estimation. To derive the new method, we analyze historical cost data including both well-known overseas and domestic software projects, and define cost drivers affecting software cost. Then, the SVR model is trained using the historical data and its estimation accuracy is compared with that of the linear regression model. Experimental results show that the SVR model produces more accurate prediction than the linear regression model.

Implementing a Branch-and-bound Algorithm for Transductive Support Vector Machines

  • Park, Chan-Kyoo
    • Management Science and Financial Engineering
    • /
    • 제16권1호
    • /
    • pp.81-117
    • /
    • 2010
  • Semi-supervised learning incorporates unlabeled examples, whose labels are unknown, as well as labeled examples into learning process. Although transductive support vector machine (TSVM), one of semi-supervised learning models, was proposed about a decade ago, its application to large-scaled data has still been limited due to its high computational complexity. Our previous research addressed this limitation by introducing a branch-and-bound algorithm for finding an optimal solution to TSVM. In this paper, we propose three new techniques to enhance the performance of the branch-and-bound algorithm. The first one tightens min-cut bound, one of two bounding strategies. Another technique exploits a graph-based approximation to a support vector machine problem to avoid the most time-consuming step. The last one tries to fix the labels of unlabeled examples whose labels can be obviously predicted based on labeled examples. Experimental results are presented which demonstrate that the proposed techniques can reduce drastically the number of subproblems and eventually computational time.

Incremental Local Outlier Factor를 이용한 Support Vector Machine의 성능 개선에 관한 연구 (A study on improvement of Support Vector Machine with Incremental Local Outlier Factor)

  • 김민규;손수일;유석인
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(C)
    • /
    • pp.354-357
    • /
    • 2011
  • Support Vector Machine (SVM)은 주어진 데이터 중에서 각 클래스를 잘 표현하는 Support Vector (SV)를 계산함으로써 새로운 데이터를 분류하는 알고리즘이다. SVM은 전체 데이터 분포를 고려하지 않기 때문에 잘못된 데이터에 의해 분류가 잘못될 가능성이 적다. 하지만, SV가 잘못되었을 경우에는 정확도가 감소하게 되는 문제점이 있다. 본 논문에서는 SV가 잘못 주어진 데이터일 가능성을 고려, 아웃라이어 검출 알고리즘인 Local Outlier Factor (LOF) 알고리즘을 이용해 주어진 데이터 중 잘못된 데이터를 제거함으로써 SVM의 분류 정확도를 높이는 알고리즘을 제안하였다. 추가적으로, Incremental LOF를 이용해 새로운 데이터 중 판단하기 어려운 데이터를 제거함으로써 SVM의 정확도를 보다 향상시켰다. 제안된 방법은 두 개의 클래스를 가진 데이터에 대해서 실험하였다.

분광 유사도 커널을 이용한 하이퍼스펙트럴 영상의 Support Vector Machine(SVM) 분류 (Support Vector Machine Classification of Hyperspectral Image using Spectral Similarity Kernel)

  • 최재완;변영기;김용일;유기윤
    • 대한공간정보학회지
    • /
    • 제14권4호통권38호
    • /
    • pp.71-77
    • /
    • 2006
  • 통계학습이론에 기반하고 있는 Support Vector Machine(SVM)은 구조적 위험 최소화원리를 바탕으로 하는 학습 알고리즘이다. 일반적으로SVM은 비선형 경계를 결정하고 자료를 분류하기 위해서 커널(kernel)을 사용한다. 그러나 기존의 커널들은 두 벡터간의 내적이나 거리차를 이용하여 유사도를 측정하기 때문에 하이퍼스펙트럴 영상분류에 효과적으로 적용될 수 없다. 본 논문에서는 이를 해결하기 위해서 분광유사도커널(Spectral similarity kernel)을 제안한다. 분광유사도 커널은 두 벡터의 거리차와 각 차이를 모두 계산하는 지역적 커널로 하이퍼스펙트럴 영상의 분광특성을 효과적으로 고려할 수 있다. 이를 검증하기 위해서 Hyperion 영상에 polynomial kernel, RBF kernel을 사용한 SVM 분류기와 분광유사도 커널을 사용한 SVM 분류기를 적용하여 토지피복분류를 시행하였다. 분류결과를 통해서 분광유사도 커널을 사용한 SVM 분류기가 정량적, 공간적으로 가장 우수한 결과를 보임을 확인하였다.

  • PDF

Support Vector Machine에 대한 커널 함수의 성능 분석 (Performance Analysis of Kernel Function for Support Vector Machine)

  • 심우성;성세영;정차근
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2009년도 정보 및 제어 심포지움 논문집
    • /
    • pp.405-407
    • /
    • 2009
  • SVM(Support Vector Machine) is a classification method which is recently watched in mechanical learning system. Vapnik, Osuna, Platt etc. had suggested methodology in order to solve needed QP(Quadratic Programming) to realize SVM so that have extended application field. SVM find hyperplane which classify into 2 class by converting from input space converter vector to characteristic space vector using Kernel Function. This is very systematic and theoretical more than neural network which is experiential study method. Although SVM has superior generalization characteristic, it depends on Kernel Function. There are three category in the Kernel Function as Polynomial Kernel, RBF(Radial Basis Function) Kernel, Sigmoid Kernel. This paper has analyzed performance of SVM against kernel using virtual data.

  • PDF

안전한 홈네트워크 서비스를 위한 계층적 분산 침입탐지에 관한 연구 (A Study on Hierarchical Distributed Intrusion Detection for Secure Home Networks Service)

  • 유재학;최성백;양성현;박대희;정용화
    • 정보보호학회논문지
    • /
    • 제18권1호
    • /
    • pp.49-57
    • /
    • 2008
  • 본 논문에서는 구조적으로 분산 침입탐지시스템의 구조를 계승하면서 동시에 홈네트워크의 환경을 최대한 고려하여 HNHDIDS(Home Network Hierarchical Distributed Intrusion Detection System)로 명명된 새로운 계층적 분산 침입탐지 시스템을 제안한다. 제안된 시스템은 단일 클래스 support vector machine(support vector data description)과 지역적 에이전트(agent)들을 계층적으로 결합한 구조로써, 홈네트워크의 환경을 위하여 최적화되었다. 만족스러운 침입 탐지율과 안전한 FNR(false negative rate) 수치 등을 실험을 통하여 확인함으로써 제안된 시스템이 홈네트워크 환경에 적합함을 검증하였다.

Support Vector Median Regression

  • Hwang, Chang-Ha
    • Journal of the Korean Data and Information Science Society
    • /
    • 제14권1호
    • /
    • pp.67-74
    • /
    • 2003
  • Median regression analysis has robustness properties which make it an attractive alternative to regression based on the mean. Support vector machine (SVM) is used widely in real-world regression tasks. In this paper, we propose a new SV median regression based on check function. And we illustrate how this proposed SVM performs and compare this with the SVM based on absolute deviation loss function.

  • PDF

Support Vector Machine을 이용한 유해 이미지 분류 (Adult Image Filtering using Support Vector Mchine)

  • 송철환;유성준
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 가을 학술발표논문집 Vol.33 No.2 (C)
    • /
    • pp.218-221
    • /
    • 2006
  • 본 논문은 인터넷의 대표적인 문제점중의 하나인 Adult Image 분류 연구에 대해 기술한다. 특히 우리는 이러한 Adult Image를 분류하기 위한 Data Set을 5가지 타입으로 구성한다. 이러한 각 Image에 대해 Color, Gradient, Edge Direction 특성의 Feature들을 추출하고 이를 Histogram으로 구성한다. 이렇게 구성된 Histogram을 Support Vector Machine에 적용하여 Adult Image를 분류한다. 그 결과, 우리는 8250개의 Test Set에 대하여 Recall(96.53%), Precision(97.33%), False Positive(2.96%), F-Measure(96.93%)의 성능 결과를 보여준다.

  • PDF

Multiclass Support Vector Machines with SCAD

  • Jung, Kang-Mo
    • Communications for Statistical Applications and Methods
    • /
    • 제19권5호
    • /
    • pp.655-662
    • /
    • 2012
  • Classification is an important research field in pattern recognition with high-dimensional predictors. The support vector machine(SVM) is a penalized feature selector and classifier. It is based on the hinge loss function, the non-convex penalty function, and the smoothly clipped absolute deviation(SCAD) suggested by Fan and Li (2001). We developed the algorithm for the multiclass SVM with the SCAD penalty function using the local quadratic approximation. For multiclass problems we compared the performance of the SVM with the $L_1$, $L_2$ penalty functions and the developed method.