• 제목/요약/키워드: Machine Learning & Training

검색결과 789건 처리시간 0.025초

한국표준산업분류를 기준으로 한 문서의 자동 분류 모델에 관한 연구 (A Study on Automatic Classification Model of Documents Based on Korean Standard Industrial Classification)

  • 이재성;전승표;유형선
    • 지능정보연구
    • /
    • 제24권3호
    • /
    • pp.221-241
    • /
    • 2018
  • 지식사회에 들어서며 새로운 형태의 자본으로서 정보의 중요성이 강조되고 있다. 그리고 기하급수적으로 생산되는 디지털 정보의 효율적 관리를 위해 정보 분류의 중요성도 증가하고 있다. 본 연구에서는 기업의 기술사업화 의사결정에 도움이 될 수 있는 맞춤형 정보를 자동으로 분류하여 제공하기 위하여, 기업의 사업 성격을 나타내는 한국표준산업분류(이하 'KSIC')를 기준으로 정보를 분류하는 방법을 제안하였다. 정보 혹은 문서의 분류 방법은 대체로 기계학습을 기반으로 연구되어 왔으나 KSIC를 기준으로 분류된 충분한 학습데이터가 없어, 본 연구에서는 문서간 유사도를 계산하는 방식을 적용하였다. 구체적으로 KSIC 각 코드별 설명문을 수집하고 벡터 공간 모델을 이용하여 분류 대상 문서와의 유사도를 계산하여 가장 적합한 KSIC 코드를 제시하는 방법과 모델을 제시하였다. 그리고 IPC 데이터를 수집한 후 KSIC를 기준으로 분류하고, 이를 특허청에서 제공하는 KSIC-IPC 연계표와 비교함으로써 본 방법론을 검증하였다. 검증 결과 TF-IDF 계산식의 일종인 LT 방식을 적용하였을 때 가장 높은 일치도를 보였는데, IPC 설명문에 대해 1순위 매칭 KSIC의 일치도는 53%, 5순위까지의 누적 일치도는 76%를 보였다. 이를 통해 보다 정량적이고 객관적으로 중소기업이 필요로 할 기술, 산업, 시장정보에 대한 KSIC 분류 작업이 가능하다는 점을 확인할 수 있었다. 또한 이종 분류체계 간 연계표를 작성함에 있어서도 본 연구에서 제공하는 방법과 결과물이 전문가의 정성적 판단에 도움이 될 기초 자료로 활용될 수 있을 것으로 판단된다.

다중모형조합기법을 이용한 상품추천시스템 (Product Recommender Systems using Multi-Model Ensemble Techniques)

  • 이연정;김경재
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.39-54
    • /
    • 2013
  • 전자상거래의 폭발적 증가는 소비자에게 더 유리한 많은 구매 선택의 기회를 제공한다. 이러한 상황에서 자신의 구매의사결정에 대한 확신이 부족한 소비자들은 의사결정 절차를 간소화하고 효과적인 의사결정을 위해 추천을 받아들인다. 온라인 상점의 상품추천시스템은 일대일 마케팅의 대표적 실현수단으로써의 가치를 인정받고 있다. 그러나 사용자의 기호를 제대로 반영하지 못하는 추천시스템은 사용자의 실망과 시간낭비를 발생시킨다. 본 연구에서는 정확한 사용자의 기호 반영을 통한 추천기법의 정교화를 위해 데이터마이닝과 다중모형조합기법을 이용한 상품추천시스템 모형을 제안하고자 한다. 본 연구에서 제안하는 모형은 크게 두 개의 단계로 이루어져 있으며, 첫 번째 단계에서는 상품군 별 우량고객 선정 규칙을 도출하기 위해서 로지스틱 회귀분석 모형, 의사결정나무 모형, 인공신경망 모형을 구축한 후 다중모형조합기법인 Bagging과 Bumping의 개념을 이용하여 세 가지 모형의 결과를 조합한다. 두 번째 단계에서는 상품군 별 연관관계에 관한 규칙을 추출하기 위하여 장바구니분석을 활용한다. 상기의 두 단계를 통하여 상품군 별로 구매가능성이 높은 우량고객을 선정하여 그 고객에게 관심을 가질만한 같은 상품군 또는 다른 상품군 내의 다른 상품을 추천하게 된다. 제안하는 상품추천시스템은 실제 운영 중인 온라인 상점인 'I아트샵'의 데이터를 이용하여 프로토타입을 구축하였고 실제 소비자에 대한 적용가능성을 확인하였다. 제안하는 모형의 유용성을 검증하기 위하여 제안 상품추천시스템의 추천과 임의 추천을 통한 추천의 결과를 사용자에게 제시하고 제안된 추천에 대한 만족도를 조사한 후 대응표본 T검정을 수행하였으며, 그 결과 사용자의 만족도를 유의하게 향상시키는 것으로 나타났다.

풍해 예측 결과 재분류를 통한 위험 감지확률의 개선 연구 (A Case Study: Improvement of Wind Risk Prediction by Reclassifying the Detection Results)

  • 김수옥;황규홍
    • 한국농림기상학회지
    • /
    • 제23권3호
    • /
    • pp.149-155
    • /
    • 2021
  • 농업기상재해 조기경보시스템에서는 일 최대순간 풍속에 과수의 낙과 피해 임계풍속을 대입하여 농작물의 풍해 위험을 예측, 자원농가에게 제공하고 있다. 강풍의 위험 예측확률을 높이기 위한 방법으로써, 기존 방식에서 '안전'으로 분류된 데이터들 중 실제로는 풍해위험이 있는 경우를 찾아내는 인공신경망 이항분류 기법을 도입하였다. 학습데이터는 전라남북도와 경북 및 경남 일부지역의 총 210개소 기상청 종관 및 방재기상관측지점에서 수집된 2019년 전체 일별 풍속자료이며, 최적 모델 도출을 위한 검증데이터는 동일지점의 2020년 1월 1일~12월 12일 자료를, 인공신경망 기법 사용 전/후의 풍해위험예측 성능 평가는 2020년 12월 13일~2021년 2월 18일까지의 자료를 사용하였다. 풍해위험 임계풍속은 과수의 낙과 피해기준으로 주로 사용되고 있는 11m/s를 설정하였다. 또한 2020년 동일 기간의 일 최대순간풍속 실측값으로 Weibull 분포를 작성한 후, 추정값과 임계풍속간의 편차를 이용하여 누적확률값을 계산, 풍해 경보에서 한 단계 낮은 주의보를 판단하고 인공신경망 기법 적용 결과와 비교하였다. 평가기간 중 기존의 풍해 위험 탐지확률은 65.36%였으나 인공신경망 기법으로 재분류 과정을 거친 후 93.62%로 크게 개선되었다. 반면, 오보율이 함께 증가되어(13.46% → 37.64%), 전반적인 정확도는 감소하였다. 한편 Weibull 분포를 이용하여 풍해주의보 구간을 두었을 때는 정확도 83.46%으로 인공신경망 기법에 비해 전반적인 예측 정확도는 더 높았던 반면 위험 탐지확률은 88.79%로 더 낮게 나타났다. 따라서, 상대적으로 위험예보의 미예측이 중대한 문제가 되는 사례에서 인공신경망 방식이 유용할 것으로 보인다.

초분광 이미지를 이용한 배나무 화상병에 대한 최적 분광 밴드 선정 (Spectral Band Selection for Detecting Fire Blight Disease in Pear Trees by Narrowband Hyperspectral Imagery)

  • 강예성;박준우;장시형;송혜영;강경석;유찬석;김성헌;전새롬;강태환;김국환
    • 한국농림기상학회지
    • /
    • 제23권1호
    • /
    • pp.15-33
    • /
    • 2021
  • 화상병이란 erwinia amylovora라는 강한 전염성을 보유하고 있어 감염 시 1년 내에 과수를 고사시키며 그 중심으로 반경 500m이내에 과수 재배를 불가능하게 만드는 세균성 바이러스이다. 이 화상병은 과수의 잎과 가지를 진한 갈색 또는 검은색으로 변색시키기 때문에 분광학적으로 검출이 가능하다고 판단되며 이는 다중분광센서를 탑재한 무인기를 이용하는 것이 효율적이다. 그러나 다중분광센서는 적은 중심 파장과 함께 넓은 반치전폭(FWHM)을 가지고 있어 화상병에 가장 민감하게 반응하는 파장 대역을 파악하기 어렵다. 그렇기 때문에, 본 논문에서는 화상병에 감염된 잎과 가지와 비감염된 잎과 가지의 초분광 이미지를 5 nm FWHM으로 취득한 후 각각 10 nm, 25 nm, 50 nm와 80 nm FWHM로 평준화한 후 샘플을 7:3, 5:5와 3:7의 비율로 훈련데이터와 검증데이터로 나누어 의사결정트리 기법으로 최적의 파장을 선정하고 overall accuracy (OA)와 kappa coefficient (KC)를 이용한 분류 정확도 평가를 통해 배나무 화상병 검출가능성을 확인하였다. 화상병에 감염 및 비감염된 잎과 가지의 초분광 반사율을 비교한 결과, green, red edge 및 NIR 영역에서 차이가 두드러지게 나타났으며 첫 번째 분류 노드로 선택된 파장 영역은 대체로 750 nm와 800 nm였다. 잎과 가지 영역의 영상데이터를 의사결정트리 기법을 이용하여 분류정확도를 종합적으로 비교한 결과, 50nm FWHM 인 4개 대역(450, 650, 750, 950nm)은 10nm FWHM인 8개 대역(440, 580, 660, 680, 680, 710, 730, 740nm)의 분류 정확도 차이가 OA에서 1.8%와 KC에서 4.1%로 나타나 더 낮은 비용의 밴드패스필터인 50nm FWHM을 이용하는 것이 더 유리하다고 판단된다. 또한 기존의 50nm FWHM 파장대역들에 25nm FWHM파장대역들(550, 800nm)을 추가하는 것을 통해 화상병 검출뿐만 아니라 농업에서 다양한 역할을 수행할 수 있는 다중분광센서를 개발할 수 있다고 판단된다.

심층신경망과 천리안위성 2A호를 활용한 지상기온 추정에 관한 연구 (Estimation for Ground Air Temperature Using GEO-KOMPSAT-2A and Deep Neural Network)

  • 엄태윤;김광년;조용한;송근용;이윤정;이윤곤
    • 대한원격탐사학회지
    • /
    • 제39권2호
    • /
    • pp.207-221
    • /
    • 2023
  • 본 연구는 천리안위성 2A호의 Level 1B (L1B) 정보를 사용해 지상기온을 추정하기 위한 심층신경망(deep neural network, DNN) 기법을 적용하고 검증을 실시하였다. 지상기온은 지면으로부터 1.5 m 높이의 대기온도로 일상생활뿐만 아니라 폭염이나 한파와 같은 이슈에 밀접한 관련을 갖는다. 지상기온은 지표면 온도와 대기의 열 교환에 의해 결정되므로 위성으로부터 산출된 지표면 온도(land surface temperature, LST)를 이용한 지상기온 추정 연구가 활발하였다. 하지만 천리안위성 2A호 산출물 LST는 Level 2 정보로 구름영향이 없는 픽셀만 산출되는 한계가 있다. 따라서 본 연구에서는 Advanced Meteorological Imager 센서에서 측정된 원시데이터에 오직 복사와 위치보정을 마친 L1B 정보를 사용해 지상기온을 추정하기 위한 DNN 모델을 제시하고 그 성능을 가늠하기 위해 위성 LST와 지상관측 기온 사이의 선형회귀모델을 기준모델로 사용하였다. 연구기간은 2020년부터 2022년까지 3년으로 평가기간 2022년을 제외한 기간은 훈련기간으로 설정했다. 평가지표는 기상청의 종관기상관측소에서 정시에 관측된 기온정보로 평균 제곱근 오차를 사용하였다. 관측지점에서 추출된 픽셀 중 손실된 픽셀의 비율은 LST는 57.91%, L1B는 1.63%를 보였으며 LST의 비율이 낮은 이유는 구름의 영향 때문이다. 제안한 DNN의 구조는 16개 L1B 자료와 태양정보를 입력 받는 층과 은닉층 4개, 지상기온 1개를 출력하는 층으로 구성하였다. 연구결과 구름의 영향이 없는 경우 DNN 모델이 root mean square error (RMSE) 2.22℃로 기준모델의 RMSE 3.55℃ 보다 낮은 오차를 보였고, 흐린 조건을 포함한 총 RMSE는 3.34℃를 나타내면서 구름의 영향을 제거할 수 있을 것으로 보였다. 하지만 계절과 시간에 따른 분석결과 여름과 겨울철에 모델의 결정계수가 각각 0.51과 0.42로 매우 낮게 나타났고 일 변동의 분산이 0.11과 0.21로 나타났다. 가시채널을 고려해 태양 위치정보를 추가한 결과에서 결정계수가 0.67과 0.61로 개선되었고 시간에 따른 일 변동의 분산도 0.03과 0.1로 감소하면서 모든 계절과 시간대에 더 일반화된 모델을 생성할 수 있었다.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

인공지능 기술 기반 인슈어테크와 디지털보험플랫폼 성공사례 분석: 중국 평안보험그룹을 중심으로 (Analysis of Success Cases of InsurTech and Digital Insurance Platform Based on Artificial Intelligence Technologies: Focused on Ping An Insurance Group Ltd. in China)

  • 이재원;오상진
    • 지능정보연구
    • /
    • 제26권3호
    • /
    • pp.71-90
    • /
    • 2020
  • 최근 전 세계 보험업계에도 기계학습, 자연어 처리, 딥러닝 등의 인공지능 기술 활용을 통한 디지털 전환이 급속도로 확산하고 있다. 이에 따라 인공지능 기술을 기반으로 한 인슈어테크와 플랫폼 비즈니스 성공을 이룬 해외 보험사들도 증가하고 있다. 대표적으로 중국 최대 민영기업인 평안보험그룹은 '금융과 기술', '금융과 생태계'를 기업의 핵심 키워드로 내세우며 끊임없는 혁신에 도전한 결과, 인슈어테크와 디지털플랫폼 분야에서 괄목할만한 성과를 보이며 중국의 글로벌 4차 산업혁명을 선도하고 있다. 이에 본 연구는 평안보험그룹 인슈어테크와 플랫폼 비즈니스 활동을 ser-M 분석 모델을 통해 분석하여 국내 보험사들의 인공지능 기술기반 비즈니스 활성화를 위한 전략적 시사점을 제공하고자 했다. ser-M 분석 모델은 기업의 경영전략을 주체, 환경, 자원, 메커니즘 관점에서 통합적으로 해석이 가능한 프레임으로, 최고경영자의 비전과 리더십, 기업의 역사적 환경, 다양한 자원 활용, 독특한 메커니즘 관계가 통합적으로 해석되도록 연구하였다. 사례분석 결과, 평안보험은 안면·음성·표정 인식 등 핵심 인공지능 기술을 활용하여 세일즈, 보험인수, 보험금 청구, 대출 서비스 등 업무 전 영역을 디지털로 혁신함으로써 경비 절감과 고객서비스 발전을 이루었다. 또한 '중국 내 온라인 데이터'와 '회사가 축적한 방대한 오프라인 데이터 및 통찰력'을 인공지능, 빅데이터 분석 등 신기술과 결합하여 금융 서비스와 디지털 서비스 사업이 통합된 디지털 플랫폼을 구축하였다. 이러한 평안보험그룹의 성공 배경을 ser-M 관점에서 분석해 보면, 창업자 마밍즈 회장은 4차 산업혁명 시대의 디지털 기술발전, 시장경쟁 및 인구 구조의 변화를 빠르게 포착하여 새로운 비전을 수립하고 디지털 기술중시의 민첩한 리더십을 발휘하였다. 환경변화에 대응한 창업자 주도의 강력한 리더십을 바탕으로 인공지능 기술 투자, 우수 전문인력 확보, 빅데이터 역량 강화 등 내부자원을 혁신하고, 외부 흡수역량의 결합, 다양한 업종 간의 전략적 제휴를 통해 인슈어테크와 플랫폼 비즈니스를 성공적으로 끌어냈다. 이와 같은 성공사례 분석을 통하여 인슈어테크와 디지털플랫폼 도입을 본격 준비하고 있는 국내 보험사들에게 디지털 시대에 필요한 경영 전략과 리더십에 대한 시사점을 줄 수 있다.

텍스트 마이닝을 이용한 감정 유발 요인 'Emotion Trigger'에 관한 연구 (A Study of 'Emotion Trigger' by Text Mining Techniques)

  • 안주영;배정환;한남기;송민
    • 지능정보연구
    • /
    • 제21권2호
    • /
    • pp.69-92
    • /
    • 2015
  • 최근 소셜 미디어의 사용이 폭발적으로 증가함에 따라 이용자가 직접 생성하는 방대한 데이터를 분석하기 위한 다양한 텍스트 마이닝(text mining) 기법들에 대한 연구가 활발히 이루어지고 있다. 이에 따라 텍스트 분석을 위한 알고리듬(algorithm)의 정확도와 수준 역시 높아지고 있으나, 특히 감성 분석(sentimental analysis)의 영역에서 언어의 문법적 요소만을 적용하는데 그쳐 화용론적 의미론적 요소를 고려하지 못한다는 한계를 지닌다. 본 연구는 이러한 한계를 보완하기 위해 기존의 알고리듬 보다 의미 자질을 폭 넓게 고려할 수 있는 Word2Vec 기법을 적용하였다. 또한 한국어 품사 중 형용사를 감정을 표현하는 '감정어휘'로 분류하고, Word2Vec 모델을 통해 추출된 감정어휘의 연관어 중 명사를 해당 감정을 유발하는 요인이라고 정의하여 이 전체 과정을 'Emotion Trigger'라 명명하였다. 본 연구는 사례 연구(case study)로 사회적 이슈가 된 세 직업군(교수, 검사, 의사)의 특정 사건들을 연구 대상으로 선정하고, 이 사건들에 대한 대중들의 인식에 대해 분석하고자 한다. 특정 사건들에 대한 일반 여론과 직접적으로 표출된 개인 의견 모두를 고려하기 위하여 뉴스(news), 블로그(blog), 트위터(twitter)를 데이터 수집 대상으로 선정하였고, 수집된 데이터는 유의미한 연구 결과를 보여줄 수 있을 정도로 그 규모가 크며, 추후 다양한 연구가 가능한 시계열(time series) 데이터이다. 본 연구의 의의는 키워드(keyword)간의 관계를 밝힘에 있어, 기존 감성 분석의 한계를 극복하기 위해 Word2Vec 기법을 적용하여 의미론적 요소를 결합했다는 점이다. 그 과정에서 감정을 유발하는 Emotion Trigger를 찾아낼 수 있었으며, 이는 사회적 이슈에 대한 일반 대중의 반응을 파악하고, 그 원인을 찾아 사회적 문제를 해결하는데 도움이 될 수 있을 것이다.

비대칭적 전이효과와 SVM을 이용한 변동성 매도전략의 수익성 개선 (Performance Improvement on Short Volatility Strategy with Asymmetric Spillover Effect and SVM)

  • 김선웅
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.119-133
    • /
    • 2020
  • Fama에 의하면 효율적 시장에서는 일시적으로 높은 수익을 얻을 수는 있지만 꾸준히 시장의 평균적인 수익을 초과하는 투자전략을 만드는 것은 불가능하다. 본 연구의 목적은 변동성의 장중 비대칭적 전이효과를 이용하는 변동성 매도전략을 기준으로 투자 성과를 추가적으로 개선하기 위하여 SVM을 활용하는 투자 전략을 제안하고 그 투자성과를 분석하고자 한다. 한국 시장에서 변동성의 비대칭적 전이효과는 미국 시장의 변동성이 상승한 날은 한국 시장의 아침 동시호가에 변동성 상승이 모두 반영되지만, 미국 시장의 변동성이 하락한 날은 한국 시장의 변동성이 아침 동시호가에서 뿐만 아니라 장 마감까지 계속해서 하락하는 이상현상을 말한다. 분석 자료는 2008년부터 2018년까지의 S&P 500, VIX, KOSPI 200, V-KOSPI 200 등의 일별 시가지수와 종가지수이다. 11년 동안의 분석 결과, 미국 시장의 변동성이 상승으로 마감한 날은 그 영향력이 한국 시장의 아침 동시호가 변동성에 모두 반영되지만, 미국 시장의 변동성이 하락으로 마감한 날은 그 영향력이 한국 시장의 아침 동시호가뿐만 아니라 오후 장 마감까지도 계속해서 유의적으로 영향을 미치고 있다. 시장이 효율적이라면 미국 시장의 전일 변동성 변화는 한국 시장의 아침 동시호가에 모두 반영되고 동시호가 이후에는 추가적인 영향력이 없어야 한다. 이러한 변동성의 장중 비정상적 전이 패턴을 이용하는 변동성 매도전략을 제안하였다. 미국 시장의 전날 변동성이 하락한 경우 한국 시장에서 아침 동시호가에 변동성을 매도하고 장 마감시에 포지션을 청산하는 변동성 데이트레이딩전략을 분석하였다. 연수익률은 120%, 위험지표인 MDD는 -41%, 위험과 수익을 고려한 성과지수인 Sharpe ratio는 0.27을 기록하고 있다. SVM 알고리즘을 이용해 변동성 데이트레이딩전략의 성과 개선을 시도하였다. 2008년부터 2014년까지의 입력자료를 이용하여 V-KOSPI 200 변동성지수의 시가-종가 변동 방향을 예측하고, 시가-종가 변동율이(-)로 예측되는 경우에만 변동성 매도포지션을 진입하였다. 거래비용을 고려하면 2015년부터 2018년까지 테스트기간의 연평균수익률은 123%로 기준 전략 69%보다 크게 높아지고, 위험지표인 MDD도 -41%에서 -29%로 낮아져, Sharpe ratio가 0.32로 개선되고 있다. 연도별로도 모두 수익을 기록하면서 안정적 수익구조를 보여주고 있고, 2015년을 제외하고는 투자 성과가 개선되고 있다.