• 제목/요약/키워드: XGboost

검색결과 252건 처리시간 0.018초

POST-TAVR ECG 기반의 PPI 예측 모델 연구 (Research of PPI prediction model based on POST-TAVR ECG)

  • 송인서;양세모;이강윤
    • 인터넷정보학회논문지
    • /
    • 제25권2호
    • /
    • pp.29-38
    • /
    • 2024
  • 경피적 대동맥 판막 치환술(TAVR) 후에는 인공 심박동기 삽입술(PPI)을 비롯한 TAVR 이후 합병증에 대한 철저한 관리가 필요하며 그에 따라 정확한 예측 모델에 대한 필요성이 점점 증가하고 있다. 본 연구는 기존의 이미지 의존적 방법론에서 벗어나 ECG 정보를 중심으로 예측하는 XGBoost 기반의 최적의 PPI 예측 모델을 개발했다. 이 모델은 심전도상의 특정 신호들인 DeltaPR, DeltaQRS 등을 주요 지표로 삼아, 환자의 전도 장애 및 PPI와의 연관성을 파악하며, 기존의 이미지와 ECG 데이터를 결합한 모델과 ECG 기반의 모델 보다 뛰어난 AUC 0.91 성능을 달성하였다. 본 연구에서 제안하는 모델은 두 병원의 데이터를 기반으로 최적의 PPI 예측 모델을 구현 및 검증하였으며, 검증 결과 ECG 데이터의 특성이 PPI 예측에 큰 영향을 미치며 95.28%의 높은 유사도를 보였다. 이로써 본 연구의 예측 모델이 다양한 병원 데이터에도 효과적으로 적용될 수 있음을 확인하였다. 최적의 머신러닝 알고리즘을 사용하여 PPI와 각 특성 간의 상관관계를 명확히 했으며, 고비용의 의료 이미지에 의존하지 않고 ECG 데이터를 사용하여 높은 정확도로 PPI를 예측할 수 있음을 입증하였다. 이는 의료 결정 과정에서 인간 개입의 의존도를 줄이며, 신뢰할 수 있고 실용적인 PPI 예측 모델 개발로의 중요한 진전을 의미한다.

Boot storm Reduction through Artificial Intelligence Driven System in Virtual Desktop Infrastructure

  • Heejin Lee;Taeyoung Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권7호
    • /
    • pp.1-9
    • /
    • 2024
  • 본 연구에서는 부트 스톰을 완화하고 서비스 안정성 향상을 위하여 AI 기반 VDI 사용 예측 시스템, 가상머신 부팅 스케줄러 시스템으로 구성된 부트 스톰 완화 방안인 BRAIDS를 제안한다. 가상 데스크톱 인프라(Virtual Desktop Infrastructure, VDI)는 조직의 업무 생산성 향상과 IT 인프라 효율성 증대를 위한 중요한 기술이다. 다수의 가상 데스크톱이 동시 부팅될 때 발생하는 부트 스톰은 성능저하와 대기 시간 증가를 유발한다. xgboost 알고리즘을 사용하여, 기존 VDI 사용 데이터를 활용하여 향후 VDI 사용량을 예측한다. 또한 예측된 사용량을 입력으로 받아 VDI 서버와 가상머신의 하드웨어 사양을 고려하여 부트 스톰을 정의하고, 부트 스톰을 완화하기 위하여 순차적으로 가상머신을 부팅할 수 있는 스케줄을 제공한다. 사례연구를 통하여 VDI 사용 예측 모델은 높은 예측 정확도와 성능 향상을 보였으며, 가상머신 부팅 스케줄러를 통하여 가상 데스크톱 환경에서의 부트 스톰 현상을 완화하고 효율적으로 IT 인프라를 활용할 수 있음을 확인하였다.

사출 성형 공정에서의 변수 최적화 방법론 (Methodology for Variable Optimization in Injection Molding Process)

  • 정영진;강태호;박정인;조중연;홍지수;강성우
    • 품질경영학회지
    • /
    • 제52권1호
    • /
    • pp.43-56
    • /
    • 2024
  • Purpose: The injection molding process, crucial for plastic shaping, encounters difficulties in sustaining product quality when replacing injection machines. Variations in machine types and outputs between different production lines or factories increase the risk of quality deterioration. In response, the study aims to develop a system that optimally adjusts conditions during the replacement of injection machines linked to molds. Methods: Utilizing a dataset of 12 injection process variables and 52 corresponding sensor variables, a predictive model is crafted using Decision Tree, Random Forest, and XGBoost. Model evaluation is conducted using an 80% training data and a 20% test data split. The dependent variable, classified into five characteristics based on temperature and pressure, guides the prediction model. Bayesian optimization, integrated into the selected model, determines optimal values for process variables during the replacement of injection machines. The iterative convergence of sensor prediction values to the optimum range is visually confirmed, aligning them with the target range. Experimental results validate the proposed approach. Results: Post-experiment analysis indicates the superiority of the XGBoost model across all five characteristics, achieving a combined high performance of 0.81 and a Mean Absolute Error (MAE) of 0.77. The study introduces a method for optimizing initial conditions in the injection process during machine replacement, utilizing Bayesian optimization. This streamlined approach reduces both time and costs, thereby enhancing process efficiency. Conclusion: This research contributes practical insights to the optimization literature, offering valuable guidance for industries seeking streamlined and cost-effective methods for machine replacement in injection molding.

지반 조건과 TBM 운영 파라미터를 고려한 디스크 커터 마모 예측 (Prediction of Disk Cutter Wear Considering Ground Conditions and TBM Operation Parameters)

  • 강윤성;고태영
    • 터널과지하공간
    • /
    • 제34권2호
    • /
    • pp.143-153
    • /
    • 2024
  • TBM 공법은 발파 공법에 비해 굴착 중 소음과 진동 수준이 낮고, 안정성이 높은 터널 굴착 공법이며, 전세계적으로 터널 프로젝트에 TBM 공법을 적용하는 사례가 증가하는 추세이다. 디스크 커터는 TBM의 커터헤드에 장착되는 굴착 도구로 지속적으로 막장면 지반과 상호작용하며, 이때 필연적으로 마모가 발생한다. 본 연구에서는 지질 조건과 TBM 운영파라미터, 머신러닝 알고리즘들을 이용하여 디스크 커터 마모를 정량적으로 예측하였다. 디스크커터 마모 예측의 입력변수 중 UCS 데이터의 수가 다른 기계 데이터 및 마모 데이터에 비해 매우 부족하기 때문에, 먼저 TBM 기계 데이터를 이용하여 전체 구간에 대한 UCS 추정을 진행하고, 완성된 전체 데이터로 마모율 계수 예측을 수행하였다. 마모율 계수 예측 모델의 성능을 비교해 본 결과 XGBoost 모델의 성능이 가장 높게 나타났으며, 복잡한 예측 모델의 해석을 위해 SHapley Additive exPlanation (SHAP) 분석을 진행하였다.

Improved prediction of soil liquefaction susceptibility using ensemble learning algorithms

  • Satyam Tiwari;Sarat K. Das;Madhumita Mohanty;Prakhar
    • Geomechanics and Engineering
    • /
    • 제37권5호
    • /
    • pp.475-498
    • /
    • 2024
  • The prediction of the susceptibility of soil to liquefaction using a limited set of parameters, particularly when dealing with highly unbalanced databases is a challenging problem. The current study focuses on different ensemble learning classification algorithms using highly unbalanced databases of results from in-situ tests; standard penetration test (SPT), shear wave velocity (Vs) test, and cone penetration test (CPT). The input parameters for these datasets consist of earthquake intensity parameters, strong ground motion parameters, and in-situ soil testing parameters. liquefaction index serving as the binary output parameter. After a rigorous comparison with existing literature, extreme gradient boosting (XGBoost), bagging, and random forest (RF) emerge as the most efficient models for liquefaction instance classification across different datasets. Notably, for SPT and Vs-based models, XGBoost exhibits superior performance, followed by Light gradient boosting machine (LightGBM) and Bagging, while for CPT-based models, Bagging ranks highest, followed by Gradient boosting and random forest, with CPT-based models demonstrating lower Gmean(error), rendering them preferable for soil liquefaction susceptibility prediction. Key parameters influencing model performance include internal friction angle of soil (ϕ) and percentage of fines less than 75 µ (F75) for SPT and Vs data and normalized average cone tip resistance (qc) and peak horizontal ground acceleration (amax) for CPT data. It was also observed that the addition of Vs measurement to SPT data increased the efficiency of the prediction in comparison to only SPT data. Furthermore, to enhance usability, a graphical user interface (GUI) for seamless classification operations based on provided input parameters was proposed.

Machine Learning Prediction for the Recurrence After Electrical Cardioversion of Patients With Persistent Atrial Fibrillation

  • Soonil Kwon;Eunjung Lee;Hojin Ju;Hyo-Jeong Ahn;So-Ryoung Lee;Eue-Keun Choi;Jangwon Suh;Seil Oh;Wonjong Rhee
    • Korean Circulation Journal
    • /
    • 제53권10호
    • /
    • pp.677-689
    • /
    • 2023
  • Background and Objectives: There is limited evidence regarding machine-learning prediction for the recurrence of atrial fibrillation (AF) after electrical cardioversion (ECV). This study aimed to predict the recurrence of AF after ECV using machine learning of clinical features and electrocardiograms (ECGs) in persistent AF patients. Methods: We analyzed patients who underwent successful ECV for persistent AF. Machine learning was designed to predict patients with 1-month recurrence. Individual 12-lead ECGs were collected before and after ECV. Various clinical features were collected and trained the extreme gradient boost (XGBoost)-based model. Ten-fold cross-validation was used to evaluate the performance of the model. The performance was compared to the C-statistics of the selected clinical features. Results: Among 718 patients (mean age 63.5±9.3 years, men 78.8%), AF recurred in 435 (60.6%) patients after 1 month. With the XGBoost-based model, the areas under the receiver operating characteristic curves (AUROCs) were 0.57, 0.60, and 0.63 if the model was trained by clinical features, ECGs, and both (the final model), respectively. For the final model, the sensitivity, specificity, and F1-score were 84.7%, 28.2%, and 0.73, respectively. Although the AF duration showed the best predictive performance (AUROC, 0.58) among the clinical features, it was significantly lower than that of the final machine-learning model (p<0.001). Additional training of extended monitoring data of 15-minute single-lead ECG and photoplethysmography in available patients (n=261) did not significantly improve the model's performance. Conclusions: Machine learning showed modest performance in predicting AF recurrence after ECV in persistent AF patients, warranting further validation studies.

머신러닝을 이용한 터널발파설계 자동화를 위한 기초연구 (A fundamental study on the automation of tunnel blasting design using a machine learning model)

  • 김양균;이제겸;이승원
    • 한국터널지하공간학회 논문집
    • /
    • 제24권5호
    • /
    • pp.431-449
    • /
    • 2022
  • 지금까지 국내에서는 수 많은 터널들이 완공되어 오면서 시공에서뿐 아니라 설계에서도 다양한 경험과 기술이 지속적으로 축적되어 왔다. 따라서 이제는 매우 복잡한 지질조건 또는 특수한 터널구조가 아니라면 일반적인 터널설계작업은 설계 항목에 따라 기존 유사 설계사례를 수정 또는 보완하는 것만으로도 충분한 경우도 적지 않다. 특히 터널발파설계의 경우, 실제 터널시공시 현장에서 시험발파를 통해 시공을 위한 발파설계를 추가로 수행하는 것이 일반적이라는 것을 감안할때, 설계단계에서 수행하는 발파설계는 예비설계 성격을 지니고 있어 기존의 유사 설계사례를 참고하는 것도 타당하다고 사료된다. 한편 최근 4차산업혁명시대에 들어서면서 전 산업분야에 걸쳐 그 활용도가 급증하고 있는 인공지능은 터널 및 발파분야에서도 다양하게 활용되고 있지만, 발파터널의 경우 발파진동 및 암반분류 등의 예측 분야에서 주로 활용되고 있을 뿐 터널발파패턴 설계에 활용된 사례는 많지 않다. 따라서 본 연구에서는 터널발파설계를 인공지능의 한 분야인 머신러닝 모델을 이용하여 자동화하기 위한 시도를 하였다. 이를 위하여 25개 학습용 터널설계 자료 및 2개의 시험용 설계자료에서 4가지의 입력데이터(지보패턴, 도로유형, 상반 및 하반 단면적) 및 16개의 출력데이터(심발공 종류, 비장약량, 천공수, 각 발파공 그룹별 공간격과 저항선 등)를 발췌하였다. 이를 기반으로 3가지 머신러닝 모델, 즉, XGBoost, ANN, SVM 모델을 시험한 결과 XGBoost모델이 상대적으로 최상의 결과를 나타내었다. 또한 이를 이용하여 실제 발파설계 상황을 가정하여 발파패턴을 제안하도록 한 결과 일부 항목에서 보완이 필요하긴 하지만 일반적 설계와 유사한 결과를 나타내었다. 본 연구가 기초연구 성격이어서 전체 발파설계를 완벽하게 수행하기는 아직 부족하지만, 향후 충분한 발파설계데이터를 확보하고 세부적인 처리과정을 보완하여 실용적인 활용이 가능하도록 추가 연구를 수행할 계획이다.

Introduction to convolutional neural network using Keras; an understanding from a statistician

  • Lee, Hagyeong;Song, Jongwoo
    • Communications for Statistical Applications and Methods
    • /
    • 제26권6호
    • /
    • pp.591-610
    • /
    • 2019
  • Deep Learning is one of the machine learning methods to find features from a huge data using non-linear transformation. It is now commonly used for supervised learning in many fields. In particular, Convolutional Neural Network (CNN) is the best technique for the image classification since 2012. For users who consider deep learning models for real-world applications, Keras is a popular API for neural networks written in Python and also can be used in R. We try examine the parameter estimation procedures of Deep Neural Network and structures of CNN models from basics to advanced techniques. We also try to figure out some crucial steps in CNN that can improve image classification performance in the CIFAR10 dataset using Keras. We found that several stacks of convolutional layers and batch normalization could improve prediction performance. We also compared image classification performances with other machine learning methods, including K-Nearest Neighbors (K-NN), Random Forest, and XGBoost, in both MNIST and CIFAR10 dataset.

A Study on Variant Malware Detection Techniques Using Static and Dynamic Features

  • Kang, Jinsu;Won, Yoojae
    • Journal of Information Processing Systems
    • /
    • 제16권4호
    • /
    • pp.882-895
    • /
    • 2020
  • The amount of malware increases exponentially every day and poses a threat to networks and operating systems. Most new malware is a variant of existing malware. It is difficult to deal with numerous malware variants since they bypass the existing signature-based malware detection method. Thus, research on automated methods of detecting and processing variant malware has been continuously conducted. This report proposes a method of extracting feature data from files and detecting malware using machine learning. Feature data were extracted from 7,000 malware and 3,000 benign files using static and dynamic malware analysis tools. A malware classification model was constructed using multiple DNN, XGBoost, and RandomForest layers and the performance was analyzed. The proposed method achieved up to 96.3% accuracy.

Forecasting KOSPI Return Using a Modified Stochastic AdaBoosting

  • Bae, Sangil;Jeong, Minsoo
    • East Asian Economic Review
    • /
    • 제25권4호
    • /
    • pp.403-424
    • /
    • 2021
  • AdaBoost tweaks the sample weight for each training set used in the iterative process, however, it is demonstrated that it provides more correlated errors as the boosting iteration proceeds if models' accuracy is high enough. Therefore, in this study, we propose a novel way to improve the performance of the existing AdaBoost algorithm by employing heterogeneous models and a stochastic twist. By employing the heterogeneous ensemble, it ensures different models that have a different initial assumption about the data are used to improve on diversity. Also, by using a stochastic algorithm with a decaying convergence rate, the model is designed to balance out the trade-off between model prediction performance and model convergence. The result showed that the stochastic algorithm with decaying convergence rate's did have a improving effect and outperformed other existing boosting techniques.