• 제목/요약/키워드: Kernel models

검색결과 198건 처리시간 0.023초

Support Vector Regression을 이용한 GARCH 모형의 추정과 투자전략의 성과분석 (Estimation of GARCH Models and Performance Analysis of Volatility Trading System using Support Vector Regression)

  • 김선웅;최흥식
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.107-122
    • /
    • 2017
  • 주식시장의 주가 수익률에 나타나는 변동성은 투자 위험의 척도로서 재무관리의 이론적 모형에서뿐만 아니라 포트폴리오 최적화, 증권의 가격 평가 및 위험관리 등 투자 실무 영역에서도 매우 중요한 역할을 하고 있다. 변동성은 주가 수익률이 평균을 중심으로 얼마나 큰 폭의 움직임을 보이는가를 판단하는 지표로서 보통 수익률의 표준편차로 측정한다. 관찰 가능한 표준편차는 과거의 주가 움직임에서 측정되는 역사적 변동성(historical volatility)이다. 역사적 변동성이 미래의 주가 수익률의 변동성을 예측하려면 변동성이 시간 불변적(time-invariant)이어야 한다. 그러나 대부분의 변동성 연구들은 변동성이 시간 가변적(time-variant)임을 보여주고 있다. 이에 따라 시간 가변적 변동성을 예측하기 위한 여러 계량 모형들이 제안되었다. Engle(1982)은 변동성의 시간 가변적 특성을 잘 반영하는 변동성 모형인 Autoregressive Conditional Heteroscedasticity(ARCH)를 제안하였으며, Bollerslev(1986) 등은 일반화된 ARCH(GARCH) 모형으로 발전시켰다. GARCH 모형의 실증 분석 연구들은 실제 증권 수익률에 나타나는 두터운 꼬리 분포 특성과 변동성의 군집현상(clustering)을 잘 설명하고 있다. 일반적으로 GARCH 모형의 모수는 가우스분포로부터 추출된 자료에서 최적의 성과를 보이는 로그우도함수에 대한 최우도추정법에 의하여 추정되고 있다. 그러나 1987년 소위 블랙먼데이 이후 주식 시장은 점점 더 복잡해지고 시장 변수들이 많은 잡음(noise)을 띠게 됨에 따라 변수의 분포에 대한 엄격한 가정을 요구하는 최우도추정법의 대안으로 인공지능모형에 대한 관심이 커지고 있다. 본 연구에서는 주식 시장의 주가 수익률에 나타나는 변동성의 예측 모형인 GARCH 모형의 모수추정방법으로 지능형 시스템인 Support Vector Regression 방법을 제안한다. SVR은 Vapnik에 의해 제안된 Support Vector Machines와 같은 원리를 회귀분석으로 확장한 모형으로서 Vapnik의 e-insensitive loss function을 이용하여 비선형 회귀식의 추정이 가능해졌다. SVM을 이용한 회귀식 SVR은 두터운 꼬리 분포를 보이는 주식시장의 변동성과 같은 관찰치에서도 우수한 추정 성능을 보인다. 2차 손실함수를 사용하는 기존의 최소자승법은 부최적해로서 추정 오차가 확대될 수 있다. Vapnik의 손실함수에서는 입실론 범위내의 예측 오차는 무시하고 큰 예측 오차만 손실로 처리하기 때문에 구조적 위험의 최소화를 추구하게 된다. 금융 시계열 자료를 분석한 많은 연구들은 SVR의 우수성을 보여주고 있다. 본 연구에서는 주가 변동성의 분석 대상으로서 KOSPI 200 주가지수를 사용한다. KOSPI 200 주가지수는 한국거래소에 상장된 우량주 중 거래가 활발하고 업종을 대표하는 200 종목으로 구성된 업종 대표주들의 포트폴리오이다. 분석 기간은 2010년부터 2015년까지의 6년 동안이며, 거래일의 일별 주가지수 종가 자료를 사용하였고 수익률 계산은 주가지수의 로그 차분값으로 정의하였다. KOSPI 200 주가지수의 일별 수익률 자료의 실증분석을 통해 기존의 Maximum Likelihood Estimation 방법과 본 논문이 제안하는 지능형 변동성 예측 모형의 예측성과를 비교하였다. 주가지수 수익률의 일별 자료 중 학습구간에서 대칭 GARCH 모형과 E-GARCH, GJR-GARCH와 같은 비대칭 GARCH 모형에 대하여 모수를 추정하고, 검증 구간 데이터에서 변동성 예측의 성과를 비교하였다. 전체 분석기간 1,487일 중 학습 기간은 1,187일, 검증 기간은 300일 이다. MLE 추정 방법의 실증분석 결과는 기존의 많은 연구들과 비슷한 결과를 보여주고 있다. 잔차의 분포는 정규분포보다는 Student t분포의 경우 더 우수한 모형 추정 성과를 보여주고 있어, 주가 수익률의 비정규성이 잘 반영되고 있다고 할 수 있다. MSE 기준으로, SVR 추정의 변동성 예측에서는 polynomial 커널함수를 제외하고 linear, radial 커널함수에서 MLE 보다 우수한 예측 성과를 보여주었다. DA 지표에서는 radial 커널함수를 사용한 SVR 기반의 지능형 GARCH 모형이 가장 우수한 변동성의 변화 방향에 대한 방향성 예측력을 보여주었다. 추정된 지능형 변동성 모형을 이용하여 예측된 주식 시장의 변동성 정보가 경제적 의미를 갖는지를 검토하기 위하여 지능형 변동성 거래 전략을 도출하였다. 지능형 변동성 거래 전략 IVTS의 진입규칙은 내일의 변동성이 증가할 것으로 예측되면 변동성을 매수하고 반대로 변동성의 감소가 예상되면 변동성을 매도하는 전략이다. 만약 변동성의 변화 방향이 전일과 동일하다면 기존의 변동성 매수/매도 포지션을 유지한다. 전체적으로 SVR 기반의 GARCH 모형의 투자 성과가 MLE 기반의 GARCH 모형의 투자 성과보다 높게 나타나고 있다. E-GARCH, GJR-GARCH 모형의 경우는 MLE 기반의 GARCH 모형을 이용한 IVTS 전략은 손실이 나지만 SVR 기반의 GARCH 모형을 이용한 IVTS 전략은 수익으로 나타나고 있다. SVR 커널함수에서는 선형 커널함수가 더 좋은 투자 성과를 보여주고 있다. 선형 커널함수의 경우 투자 수익률이 +526.4%를 기록하고 있다. SVR 기반의 GARCH 모형을 이용하는 IVTS 전략의 경우 승률도 51.88%부터 59.7% 사이로 높게 나타나고 있다. 옵션을 이용하는 변동성 매도전략은 방향성 거래전략과 달리 하락할 것으로 예측된 변동성의 예측 방향이 틀려 변동성이 소폭 상승하거나 변동성이 하락하지 않고 제자리에 있더라도 옵션의 시간가치 요인 때문에 전체적으로 수익이 실현될 수도 있다. 정확한 변동성의 예측은 자산의 가격 결정뿐만 아니라 실제 투자에서도 높은 수익률을 얻을 수 있기 때문에 다양한 형태의 인공신경망을 활용하여 더 나은 예측성과를 보이는 변동성 예측 모형을 개발한다면 주식시장의 투자자들에게 좋은 투자 정보를 제공하게 될 것이다.

Detection of Multiple Salient Objects by Categorizing Regional Features

  • Oh, Kang-Han;Kim, Soo-Hyung;Kim, Young-Chul;Lee, Yu-Ra
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권1호
    • /
    • pp.272-287
    • /
    • 2016
  • Recently, various and effective contrast based salient object detection models to focus on a single target have been proposed. However, there is a lack of research on detection of multiple objects, and also it is a more challenging task than single target process. In the multiple target problem, we are confronted by new difficulties caused by distinct difference between properties of objects. The characteristic of existing models depending on the global maximum distribution of data point would become a drawback for detection of multiple objects. In this paper, by analyzing limitations of the existing methods, we have devised three main processes to detect multiple salient objects. In the first stage, regional features are extracted from over-segmented regions. In the second stage, the regional features are categorized into homogeneous cluster using the mean-shift algorithm with the kernel function having various sizes. In the final stage, we compute saliency scores of the categorized regions using only spatial features without the contrast features, and then all scores are integrated for the final salient regions. In the experimental results, the scheme achieved superior detection accuracy for the SED2 and MSRA-ASD benchmarks with both a higher precision and better recall than state-of-the-art approaches. Especially, given multiple objects having different properties, our model significantly outperforms all existing models.

A Novel Approach to Predict the Longevity in Alzheimer's Patients Based on Rate of Cognitive Deterioration using Fuzzy Logic Based Feature Extraction Algorithm

  • Sridevi, Mutyala;B.R., Arun Kumar
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.79-86
    • /
    • 2021
  • Alzheimer's is a chronic progressive disease which exhibits varied symptoms and behavioural traits from person to person. The deterioration in cognitive abilities is more noticeable through their Activities and Instrumental Activities of Daily Living rather than biological markers. This information discussed in social media communities was collected and features were extracted by using the proposed fuzzy logic based algorithm to address the uncertainties and imprecision in the data reported. The data thus obtained is used to train machine learning models in order to predict the longevity of the patients. Models built on features extracted using the proposed algorithm performs better than models trained on full set of features. Important findings are discussed and Support Vector Regressor with RBF kernel is identified as the best performing model in predicting the longevity of Alzheimer's patients. The results would prove to be of high value for healthcare practitioners and palliative care providers to design interventions that can alleviate the trauma faced by patients and caregivers due to chronic diseases.

Numerical investigation of turbulent lid-driven flow using weakly compressible smoothed particle hydrodynamics CFD code with standard and dynamic LES models

  • Tae Soo Choi;Eung Soo Kim
    • Nuclear Engineering and Technology
    • /
    • 제55권9호
    • /
    • pp.3367-3382
    • /
    • 2023
  • Smoothed Particle Hydrodynamics (SPH) is a Lagrangian computational fluid dynamics method that has been widely used in the analysis of physical phenomena characterized by large deformation or multi-phase flow analysis, including free surface. Despite the recent implementation of eddy-viscosity models in SPH methodology, sophisticated turbulent analysis using Lagrangian methodology has been limited due to the lack of computational performance and numerical consistency. In this study, we implement the standard and dynamic Smagorinsky model and dynamic Vreman model as sub-particle scale models based on a weakly compressible SPH solver. The large eddy simulation method is numerically identical to the spatial discretization method of smoothed particle dynamics, enabling the intuitive implementation of the turbulence model. Furthermore, there is no additional filtering process required for physical variables since the sub-grid scale filtering is inherently processed in the kernel interpolation. We simulate lid-driven flow under transition and turbulent conditions as a benchmark. The simulation results show that the dynamic Vreman model produces consistent results with experimental and numerical research regarding Reynolds averaged physical quantities and flow structure. Spectral analysis also confirms that it is possible to analyze turbulent eddies with a smaller length scale using the dynamic Vreman model with the same particle size.

다중요인모델에 기반한 텍스트 문서에서의 토픽 추출 및 의미 커널 구축 (Multiple Cause Model-based Topic Extraction and Semantic Kernel Construction from Text Documents)

  • 장정호;장병탁
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권5호
    • /
    • pp.595-604
    • /
    • 2004
  • 문서 집합 내의 개념 또는 의미 관계의 자동 분석은 보다 효율적인 정보 획득과 단어 이상의 개념 수준에서의 문서간 비교를 가능케 한다. 본 논문에서는 다중요인모델에 기반 하여 텍스트 문서로부터 토픽들을 추출하고 이로부터 의미 커널(semantic kernel)을 구축하여 문서간 유사도를 측정하는 방안을 제시한다. 텍스트 문서는 내재된 토픽들의 다양한 결합에 의해 생성된다고 가정하며 하나의 토픽은 공통 주제에 관련되거나 적어도 자주 같이 나타나는 단어들의 집합으로 정의한다. 다중요인모델은 은닉층을 갖는 하나의 네트워크 형태로 표현되며, 토픽을 표현하는 단어 집합은 은닉노드로부터의 가중치가 높은 단어들로 구성된다. 일반적으로 이러한 다중요인 네트워크에서의 학습과 추론과정을 용이하게 하기 위해서는 근사적 확률 추정 기법이 요구되는데, 본 논문에서는 헬름홀츠 머신에 의한 방법을 활용한다. TDT-2 문서 집합에 대한 실험에서 토픽별로 관련 있는 단어 집합들을 추출할 수 있었으며, 4개의 텍스트 집합에 대한문서 검색 실험에서는 다중요인모델의 분석결과에 기반 한 의미 커널을 사용함으로써 기본 벡터공간 모델에 비해 평균정확도 면에서 통계적으로 유의한 수준의 성능 향상을 얻을 수 있었다.

GCM과 수문모형의 불확실성을 고려한 기후변화에 따른 한반도 미래 수자원 전망 (Future Korean Water Resources Projection Considering Uncertainty of GCMs and Hydrological Models)

  • 배덕효;정일원;이병주;이문환
    • 한국수자원학회논문집
    • /
    • 제44권5호
    • /
    • pp.389-406
    • /
    • 2011
  • 본 연구에서는 GCM 및 유출모형의 불확실성을 고려하여 기후변화에 따른 미래 한반도 수자원의 변화를 전망하고, 그 결과에서 나타나는 불확실성을 평가하고자 하였다. 온실가스 배출시나리오와 GCMs의 불확실성을 고려하기 위해 IPCC AR4에 적용되었던 3개 시나리오(A2, A1B, B1)에 대한 13 GCMs 결과를 이용하였으며, 유출모형 구조 및 증발산량 산정방법에 따른 영향을 고려하기 위해 PRMS, SWAT, SLURP 모형을 선정하였고 각 모형별로 2~3개의 증발산량 방법을 고려하였다. 결과적으로 우리나라 109개 중권역 유역에 대해 312개의 결과가 제시되었으며, 이를 이용하여Gaussian kernel density function을 산정함으로써 평가결과의 앙상블 평균과 불확실성을 동시에 제시하였다. 분석 결과 여름철과 겨울철 유출량은 증가, 봄철은 감소할 것으로 전망되었다. 연평균유출량은 전체유역에서 증가할 것으로 전망되었으며, 공간적으로는 한강유역이 위치한 북쪽유역이 남쪽유역에 비해연 유출량이 더 크게 증가할 것으로 전망되었다. 연평균유출량의 증가는 여름철 유출량 증가에 따른 결과로, 기후변화의 영향은 한국에서 유출량의 계절편중을 심화시켜 수자원 관리를 더욱 어렵게 할 것으로 전망되었다. 평가결과에서 나타난 불확실성은 겨울철 유출량에서 가장 크고 여름철 유출량에서 가장 적은 것으로 나타났다.

표면 파라미터 계산시 모델링 인자에 따른 조정계산 추정 성능의 사전 비교분석 (A-priori Comparative Assessment of the Performance of Adjustment Models for Estimation of the Surface Parameters against Modeling Factors)

  • 서수영
    • Spatial Information Research
    • /
    • 제19권2호
    • /
    • pp.29-36
    • /
    • 2011
  • 본 연구는 표면 파라미터 추정시 고려하는 주요 인자별로 각 조정모델들을 분류하고 그들의 추정정확도를 사전분석함으로써 이들 모델링 인자들이 각 대상파라미터의 추정에 주는 영향을 정량적으로 분석하였다. 현재 지표면형상에 대한 정보를 취득하기 위하여 라이다영상, 항공영상, SAR영상 등 다양한 자료가 활용되고 있고, 이들로부터 지표면 형상을 정량적으로 분석하기 위해서는 임의지점 주위의 관측값들을 이용하여 해당 지점의 형상을 구체적으로 파악하게 된다. 이러한 형상정보는 관측값 범위지정, 가중치방식, 그리고 수학적모델링 등 여러 인자들을 선정하여 산정할 수 있지만, 각 선정인자에 따라 표면의 형상정보는 다르게 산정되고 또한 그 정확도도 상이하게 된다. 따라서, 본 연구에서는 표면의 형상정보추출시 조정계산 인자들 따른 이러한 정확도를 비교함으로써 인자별 추정 정확도 변화 경향에 대한 진단을 실시하였다. 본 연구에서는 표면형상정보로 표고, 경사, 곡면의 2차계수를 대상으로 하고, 수학적함수, 커널크기, 가중유형별로 조정계산모델들을 구성하여 사전통계량을 계산하였고, 이에 따라 전통계량 변화를 비교 분석함으로써, 각 조정모델의 추정성능을 조정계산인자에 따라 정량적으로 비교분석하였다.

유전자 알고리즘을 이용한 다분류 SVM의 최적화: 기업신용등급 예측에의 응용 (Optimization of Multiclass Support Vector Machine using Genetic Algorithm: Application to the Prediction of Corporate Credit Rating)

  • 안현철
    • 경영정보학연구
    • /
    • 제16권3호
    • /
    • pp.161-177
    • /
    • 2014
  • 기업신용등급은 금융시장의 신뢰를 구축하고 거래를 활성화하는데 있어 매우 중요한 요소로서, 오래 전부터 학계에서는 보다 정확한 기업신용등급 예측을 가능케 하는 다양한 모형들을 연구해 왔다. 구체적으로 다중판별분석(Multiple Discriminant Analysis, MDA)이나 다항 로지스틱 회귀분석(multinomial logistic regression analysis, MLOGIT)과 같은 통계기법을 비롯해, 인공신경망(Artificial Neural Networks, ANN), 사례기반추론(Case-based Reasoning, CBR), 그리고 다분류 문제해결을 위해 확장된 다분류 Support Vector Machines(Multiclass SVM)에 이르기까지 다양한 기법들이 학자들에 의해 적용되었는데, 최근의 연구결과들에 따르면 이 중에서도 다분류 SVM이 가장 우수한 예측성과를 보이고 있는 것으로 보고되고 있다. 본 연구에서는 이러한 다분류 SVM의 성능을 한 단계 더 개선하기 위한 대안으로 유전자 알고리즘(GA, Genetic Algorithm)을 활용한 최적화 모형을 제안한다. 구체적으로 본 연구의 제안모형은 유전자 알고리즘을 활용해 다분류 SVM에 적용되어야 할 최적의 커널 함수 파라미터값들과 최적의 입력변수 집합(feature subset)을 탐색하도록 설계되었다. 실제 데이터셋을 활용해 제안모형을 적용해 본 결과, MDA나 MLOGIT, CBR, ANN과 같은 기존 인공지능/데이터마이닝 기법들은 물론 지금까지 가장 우수한 예측성과를 보이는 것으로 알려져 있던 전통적인 다분류 SVM 보다도 제안모형이 더 우수한 예측성과를 보임을 확인할 수 있었다.

상대오차예측을 이용한 자동차 보험의 손해액 예측: 패널자료를 이용한 연구 (Predicting claim size in the auto insurance with relative error: a panel data approach)

  • 박흥선
    • 응용통계연구
    • /
    • 제34권5호
    • /
    • pp.697-710
    • /
    • 2021
  • 상대오차를 이용한 예측법은 상대오차(혹은 퍼센트오차)가 중요시되는 분야, 특히 계량경제학이나 소프트웨어 엔지니어링, 또는 정부기관 공식통계 부분에서 기존 예측방법 외에 선호되는 예측방법이다. 그 동안 상대오차를 이용한 예측법은 선형 혹은 비선형 회귀분석 뿐 아니라, 커널회귀를 이용한 비모수 회귀모형, 그리고 정상시계열분석에 이르기까지 그 범위가 확장되어 왔다. 그러나, 지금까지의 분석은 고정효과(fixed effect)만을 고려한 것이어서 임의효과(random effect)에 관한 상대오차 예측법에 대한 확장이 필요하였다. 본 논문의 목적은 상대오차예측법을 일반화선형혼합모형(GLMM)에 속한 감마회귀(gamma regression), 로그정규회귀(lognormal regression), 그리고 역가우스회귀(inverse gaussian regression)의 패널자료(panel data)에 적용시키는데 있다. 이를 위해 실제 자동차 보험회사의 손해액 자료를 사용하였고, 최량예측량과 최량상대오차예측량을 각각 적용-비교해 보았다.

비압축성 유동 해석을 위한 입자법 수치 시뮬레이션 기술 개발 (Development of Numerical Simulation of Particle Method for Solving Incompressible Flow)

  • 이병혁;류민철;김용수;김영훈;박종천
    • 한국해양공학회지
    • /
    • 제21권4호
    • /
    • pp.8-14
    • /
    • 2007
  • A particle method recognized as one of gridless methods has been developed to investigate incompressible viscous flaw. The method is more feasible and effective than conventional grid methods for solving the flaw field with complicated boundary shapes or multiple bodies. The method is consists of particle interaction models representing pressure gradient, diffusion, incompressibility and the boundary conditions. In the present study, the models in case of various simulation condition were checked with the analytic solution, and applied to the two-dimensional Poiseuille flow in order to validate the developed method.