• 제목/요약/키워드: Machine Learning & Training

검색결과 809건 처리시간 0.032초

제한적 선박 정보와 무작위의 숲 분류기를 이용한 선종 예측 (Ship Type Prediction using Random Forest with Limited Ship Information)

  • 전호군;한재림
    • 한국항해항만학회:학술대회논문집
    • /
    • 한국항해항만학회 2022년도 춘계학술대회
    • /
    • pp.106-107
    • /
    • 2022
  • 주변선박에 대한 선종 식별은 선박의 향후 이동 경로와 조종 특성을 유추할 수 있으므로 항해사와 VTS 관제사에게 모두 중요한 정보이다. 그러나 AIS메시지 전송 중 통신 문제, 항해사의 AIS 이용 미숙지로 인해 선박의 선종 확인이 불가능한 경우가 빈번하다. 따라서 이 연구는 AIS데이터를 학습 및 테스트 데이터셋으로 분할, 무작위의 숲 분류기(Random Forest Classifier)에 AIS데이터의 선박 특성(feature)과 선종을 훈련 및 예측하는 방법을 제시한다. 연구를 위해 2018년 한해 울산 앞바다 AIS데이터를 이용하였다. 이 방법을 사용하면 다수의 항해사 또는 VTS 관제사가 토론을 통해 선종예측 경험을 공유하는 것과 같은 기능을 할 수 있다.

  • PDF

자동차 사고 경상환자의 장기입원 예측 모델 개발 (Development of Long-Term Hospitalization Prediction Model for Minor Automobile Accident Patients)

  • 이덕규;남동현;허성필
    • 한국산업정보학회논문지
    • /
    • 제28권6호
    • /
    • pp.11-20
    • /
    • 2023
  • 자동차보험 교통사고 진료비는 매년 증가하고 있다. 본 연구는 교통사고 진료비용 상승의 주요 항목인 경상환자 중 장기입원환자(18일 이상)를 예측하는 모델을 decision tree 등 5개 알고리즘을 이용하여 생성하고, 장기입원에 영향을 미치는 요인을 분석했다. 그 결과, 예측 모델의 정확도는 91.377 ~ 91.451이며 각 모델 사이에 큰 차이점은 없었으나 random forest와 XGBoost 모델이 91.451로 가장 높았다. 설명변수 중요도에 있어서 병원 소재지, 상병명, 병원 종류 등 장기환자군과 비 장기입원 환자군 사이에 모델마다 상당한 차이가 있었다. 모델 평가는 훈련 데이터의 교차검증(10회)한 모델별 평균 정확도와 실험 데이터의 정확도를 상호 비교한 결과로 검정했다. 설명변수 유의성 검증을 위해 범주형 변수는 카이제곱 테스트를 실시하였다. 본 논문의 연구 결과는 경상 환자들의 과잉진료 및 사회적 보험료 비용을 줄이는 진료행태 분석에 도움이 될 것이다.

영상처리 및 머신러닝 기술을 이용하는 운동 및 식단 보조 애플리케이션 (Application for Workout and Diet Assistant using Image Processing and Machine Learning Skills)

  • 이치호;김동현;최승호;황인웅;한경숙
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권5호
    • /
    • pp.83-88
    • /
    • 2023
  • 본 논문에서는 홈 트레이닝 인구가 늘어나면서 증가한 운동과 식단 보조 서비스에 대한 수요를 충족시키기 위해 운동 및 식단 보조 애플리케이션을 개발하였다. 애플리케이션은 카메라를 통해 실시간으로 촬영되는 사용자의 운동 자세를 분석하여, 안내선과 음성을 이용해 올바른 자세를 유도하는 기능을 가진다. 또한, 사용자가 사진을 촬영하면 사진에 포함된 음식들을 분류하고 각 음식의 양을 추정하여, 칼로리 등의 영양 정보를 계산하여 제공하는 기능을 가진다. 영양 정보 계산은 외부의 서버에서 수행되도록 구성했다. 서버는 계산된 결과를 애플리케이션으로 전송하고, 애플리케이션은 결과를 받아 시각적으로 출력한다. 추가로, 운동 결과와 영양 정보는 날짜별로 저장하고 확인할 수 있도록 하였다.

Neurosurgical Management of Cerebrospinal Tumors in the Era of Artificial Intelligence : A Scoping Review

  • Kuchalambal Agadi;Asimina Dominari;Sameer Saleem Tebha;Asma Mohammadi;Samina Zahid
    • Journal of Korean Neurosurgical Society
    • /
    • 제66권6호
    • /
    • pp.632-641
    • /
    • 2023
  • Central nervous system tumors are identified as tumors of the brain and spinal cord. The associated morbidity and mortality of cerebrospinal tumors are disproportionately high compared to other malignancies. While minimally invasive techniques have initiated a revolution in neurosurgery, artificial intelligence (AI) is expediting it. Our study aims to analyze AI's role in the neurosurgical management of cerebrospinal tumors. We conducted a scoping review using the Arksey and O'Malley framework. Upon screening, data extraction and analysis were focused on exploring all potential implications of AI, classification of these implications in the management of cerebrospinal tumors. AI has enhanced the precision of diagnosis of these tumors, enables surgeons to excise the tumor margins completely, thereby reducing the risk of recurrence, and helps to make a more accurate prediction of the patient's prognosis than the conventional methods. AI also offers real-time training to neurosurgeons using virtual and 3D simulation, thereby increasing their confidence and skills during procedures. In addition, robotics is integrated into neurosurgery and identified to increase patient outcomes by making surgery less invasive. AI, including machine learning, is rigorously considered for its applications in the neurosurgical management of cerebrospinal tumors. This field requires further research focused on areas clinically essential in improving the outcome that is also economically feasible for clinical use. The authors suggest that data analysts and neurosurgeons collaborate to explore the full potential of AI.

개인용 모바일 환경의 AI 워크로드 수행을 위한 메모리 참조 분석 및 시스템 설계 방안 (Implications for Memory Reference Analysis and System Design to Execute AI Workloads in Personal Mobile Environments)

  • 권석민;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.31-36
    • /
    • 2024
  • 최근 AI 기술을 활용하는 모바일 앱이 늘고 있다. 개인용 모바일 환경에서는 메모리 용량의 제약으로 인해 대용량 데이터로 구성된 워크로드의 학습 시 극심한 성능 저하가 발생할 수 있다. 본 논문에서는 이러한 현상을 규명하기 위해 AI 워크로드의 메모리 참조 트레이스를 추출하고 그 특성을 분석하였다. 그 결과 AI 워크로드는 메모리 쓰기 연산시 약한 시간지역성과 불규칙한 인기편향성 등으로 인해 잦은 스토리지 접근을 발생시켜 모바일 기기의 성능을 저하시킬 수 있음을 확인하였다. 이러한 분석을 토대로 본 논문에서는 AI 워크로드의 메모리 쓰기 연산을 영속 메모리 기반의 스왑 장치를 이용해서 효율적으로 관리할 수 있는 방안에 대해 논의하였다. 시뮬레이션을 통해 본 연구에서 제안한 구조가 기존의 모바일 시스템 대비 80% 이상 입출력 시간을 개선할 수 있음을 보였다.

A Hybrid Multi-Level Feature Selection Framework for prediction of Chronic Disease

  • G.S. Raghavendra;Shanthi Mahesh;M.V.P. Chandrasekhara Rao
    • International Journal of Computer Science & Network Security
    • /
    • 제23권12호
    • /
    • pp.101-106
    • /
    • 2023
  • Chronic illnesses are among the most common serious problems affecting human health. Early diagnosis of chronic diseases can assist to avoid or mitigate their consequences, potentially decreasing mortality rates. Using machine learning algorithms to identify risk factors is an exciting strategy. The issue with existing feature selection approaches is that each method provides a distinct set of properties that affect model correctness, and present methods cannot perform well on huge multidimensional datasets. We would like to introduce a novel model that contains a feature selection approach that selects optimal characteristics from big multidimensional data sets to provide reliable predictions of chronic illnesses without sacrificing data uniqueness.[1] To ensure the success of our proposed model, we employed balanced classes by employing hybrid balanced class sampling methods on the original dataset, as well as methods for data pre-processing and data transformation, to provide credible data for the training model. We ran and assessed our model on datasets with binary and multivalued classifications. We have used multiple datasets (Parkinson, arrythmia, breast cancer, kidney, diabetes). Suitable features are selected by using the Hybrid feature model consists of Lassocv, decision tree, random forest, gradient boosting,Adaboost, stochastic gradient descent and done voting of attributes which are common output from these methods.Accuracy of original dataset before applying framework is recorded and evaluated against reduced data set of attributes accuracy. The results are shown separately to provide comparisons. Based on the result analysis, we can conclude that our proposed model produced the highest accuracy on multi valued class datasets than on binary class attributes.[1]

A counting-time optimization method for artificial neural network (ANN) based gamma-ray spectroscopy

  • Moonhyung Cho;Jisung Hwang;Sangho Lee;Kilyoung Ko;Wonku Kim;Gyuseong Cho
    • Nuclear Engineering and Technology
    • /
    • 제56권7호
    • /
    • pp.2690-2697
    • /
    • 2024
  • With advancements in machine learning technologies, artificial neural networks (ANNs) are being widely used to improve the performance of gamma-ray spectroscopy based on NaI(Tl) scintillation detectors. Typically, the performance of ANNs is evaluated using test datasets composed of actual spectra. However, the generation of such test datasets encompassing a wide range of actual spectra representing various scenarios often proves inefficient and time-consuming. Thus, instead of measuring actual spectra, we generated virtual spectra with diverse spectral features by sampling from categorical distribution functions derived from the base spectra of six radioactive isotopes: 54Mn, 57Co, 60Co, 134Cs, 137Cs, and 241Am. For practical applications, we determined the optimum counting time (OCT) as the point at which the change in the Kullback-Leibler divergence (ΔKLDV) values between the synthetic spectra used for training the ANN and the virtual spectra approaches zero. The accuracies of the actual spectra were significantly improved when measured up to their respective OCTs. The outcomes demonstrated that the proposed method can effectively determine the OCTs for gamma-ray spectroscopy based on ANNs without the need to measure actual spectra.

딥러닝 시계열 알고리즘 적용한 기업부도예측모형 유용성 검증 (Corporate Default Prediction Model Using Deep Learning Time Series Algorithm, RNN and LSTM)

  • 차성재;강정석
    • 지능정보연구
    • /
    • 제24권4호
    • /
    • pp.1-32
    • /
    • 2018
  • 본 연구는 경제적으로 국내에 큰 영향을 주었던 글로벌 금융위기를 기반으로 총 10년의 연간 기업데이터를 이용한다. 먼저 시대 변화 흐름에 일관성있는 부도 모형을 구축하는 것을 목표로 금융위기 이전(2000~2006년)의 데이터를 학습한다. 이후 매개 변수 튜닝을 통해 금융위기 기간이 포함(2007~2008년)된 유효성 검증 데이터가 학습데이터의 결과와 비슷한 양상을 보이고, 우수한 예측력을 가지도록 조정한다. 이후 학습 및 유효성 검증 데이터를 통합(2000~2008년)하여 유효성 검증 때와 같은 매개변수를 적용하여 모형을 재구축하고, 결과적으로 최종 학습된 모형을 기반으로 시험 데이터(2009년) 결과를 바탕으로 딥러닝 시계열 알고리즘 기반의 기업부도예측 모형이 유용함을 검증한다. 부도에 대한 정의는 Lee(2015) 연구와 동일하게 기업의 상장폐지 사유들 중 실적이 부진했던 경우를 부도로 선정한다. 독립변수의 경우, 기존 선행연구에서 이용되었던 재무비율 변수를 비롯한 기타 재무정보를 포함한다. 이후 최적의 변수군을 선별하는 방식으로 다변량 판별분석, 로짓 모형, 그리고 Lasso 회귀분석 모형을 이용한다. 기업부도예측 모형 방법론으로는 Altman(1968)이 제시했던 다중판별분석 모형, Ohlson(1980)이 제시한 로짓모형, 그리고 비시계열 기계학습 기반 부도예측모형과 딥러닝 시계열 알고리즘을 이용한다. 기업 데이터의 경우, '비선형적인 변수들', 변수들의 '다중 공선성 문제', 그리고 '데이터 수 부족'이란 한계점이 존재한다. 이에 로짓 모형은 '비선형성'을, Lasso 회귀분석 모형은 '다중 공선성 문제'를 해결하고, 가변적인 데이터 생성 방식을 이용하는 딥러닝 시계열 알고리즘을 접목함으로서 데이터 수가 부족한 점을 보완하여 연구를 진행한다. 현 정부를 비롯한 해외 정부에서는 4차 산업혁명을 통해 국가 및 사회의 시스템, 일상생활 전반을 아우르기 위해 힘쓰고 있다. 즉, 현재는 다양한 산업에 이르러 빅데이터를 이용한 딥러닝 연구가 활발히 진행되고 있지만, 금융 산업을 위한 연구분야는 아직도 미비하다. 따라서 이 연구는 기업 부도에 관하여 딥러닝 시계열 알고리즘 분석을 진행한 초기 논문으로서, 금융 데이터와 딥러닝 시계열 알고리즘을 접목한 연구를 시작하는 비 전공자에게 비교분석 자료로 쓰이기를 바란다.

사장교 케이블의 장력 추정을 위한 인공신경망 모델 개발 (Development of Artificial Neural Network Model for Estimation of Cable Tension of Cable-Stayed Bridge)

  • 김기중;박유신;박성우
    • 한국산학기술학회논문지
    • /
    • 제21권3호
    • /
    • pp.414-419
    • /
    • 2020
  • 본 연구에서는 사장교의 케이블 가속도계로부터 확보한 방대한 계측데이터의 활용을 확대하고자 인공지능 기반의 케이블 장력 추정 모델을 개발하였다. 케이블 장력 추정 모델은 진동법에 따른 장력 추정 과정에서 고유진동수를 판정할 수 있는 알고리즘을 핵심으로 하며 학습데이터 구성에 적합하고 판정 결과에 대한 성능이 확보될 수 있도록 입력층, 은닉층, 출력층으로 구성되는 인공신경망(Artificial Neural Network)을 적용하였다. 인공신경망의 학습데이터는 케이블 가속도 계측데이터를 진동수로 변환 후 구성하였으며 고유진동수를 중심으로 일정한 패턴을 갖는 특성을 활용하여 기계학습을 진행하였다. 학습데이터 구성 시 다수 패턴의 고유진동수를 대표할 수 있도록 다양한 크기의 진폭을 갖는 진동수를 사용하고 일정 수준으로 진동수를 누적하여 사용할 경우 고유진동수에 대한 판정 성능이 개선됨을 확인하였다. 장력 추정 모델의 성능을 판단하기 위해 계측분석 기술자에 의해 추정한 장력의 관리기준과 비교하였다. 케이블 가속도계로부터 확보한 139개의 진동수를 입력값으로 사용하여 검증을 수행한 결과 실제 정답과 유사하게 고유진동수를 판정하였고 고유진동수에 의해 케이블의 장력을 추정한 결과는 96.4%의 수준으로 관리기준에 부합하는 결과를 보여주고 있다.

k-NN 분류 모델의 학습 데이터 구성에 따른 PIC 보의 하중 충실도 향상에 관한 연구 (Load Fidelity Improvement of Piecewise Integrated Composite Beam by Construction Training Data of k-NN Classification Model)

  • 함석우;전성식
    • Composites Research
    • /
    • 제33권3호
    • /
    • pp.108-114
    • /
    • 2020
  • Piecewise Integrated Composite (PIC) 보는 하중 유형에 따라 구간을 나누어, 각 구간마다 하중 유형에 강한 복합재료의 적층 순서를 배열한 보이다. 본 연구는 PIC 보의 구간을 머신 러닝의 일종인 k-NN(k-Nearest Neighbor) 분류를 통해 나누어 기존에 제시되었던 PIC 보에 비해 우수한 굽힘 특성을 갖게 하는 것이 목적이다. 먼저, 알루미늄 보의 3점 굽힘 해석을 통하여 참조점에서의 3축 특성(Triaxiality) 값 데이터를 얻었고, 이를 통해 인장, 전단, 압축의 레이블을 가진 학습 데이터가 만들어진다. 학습 데이터를 통해 각 면마다 독립적인 k-NN 분류 모델을 구성하는 방법(Each plane)과 전체 면에 대한 k-NN 분류 모델을 구성하는 방법(one part)을 이용하여 k-NN 분류 모델을 생성하였고, 하이퍼파라미터의 튜닝을 통하여 다양한 하중 충실도를 도출하였다. 가장 높은 하중 충실도를 가진 k-NN 분류 모델을 기반으로 보를 매핑(mapping)하였고, PIC 보에 대하여 유한요소 해석을 진행한 결과, 기존에 제시되었던 PIC 보에 비해 최대하중과 흡수 에너지가 커지는 특성을 보였다. 하중 충실도를 수동으로 조절하여 100%로 만든 PIC 보와 비교하였을 때, 최대하중과 흡수에너지가 미소한 차이가 나타났으며 이는 타당한 하중 충실도로 보여진다.