• 제목/요약/키워드: image deep learning

검색결과 1,787건 처리시간 0.035초

인공지능을 활용한 흉부 엑스선 영상의 코로나19 검출 및 분류에 대한 분석 연구 (Analysis Study on the Detection and Classification of COVID-19 in Chest X-ray Images using Artificial Intelligence)

  • 윤명성;권채림;김성민;김수인;조성준;최유찬;김상현
    • 한국방사선학회논문지
    • /
    • 제16권5호
    • /
    • pp.661-672
    • /
    • 2022
  • COVID-19를 발생시키는 SARS-CoV2 바이러스가 발생한 후 전염병은 전 세계로 확산되며, 감염 사례와 사망자의 수가 빠르게 증가함에 따라 의료자원의 부족 문제가 야기되었다. 이것을 해결하려는 방법으로 인공지능을 활용한 흉부 X-ray 검사가 일차적인 진단 방법으로 관심을 받게 되었다. 본 연구에서는 인공지능을 통한 COVID-19 판독 방식들에 대해 종합적으로 분석하는 것에 목적을 두고 있다. 이 목적을 달성하기 위해 292개의 논문을 일련의 분류 방법을 거처 수집했다. 이러한 자료들을 토대로 Accuracy, Precision, Area Under Curve(AUC), Sensitivity, Specificity, F1-score, Recall, K-fold, Architecture, Class를 포함한 성능 측정정보를 분석했다. 그 결과로 평균 Accuracy, Precision, AUC, Sensitivity, Specificity 값은 각각 95.2%, 94.81%, 94.01%, 93.5%, 93.92%로 도출되었다. 연도별 성능 측정정보는 점차 증가하는 값을 나타냈고 이 외에도 Class 수, 이미지 데이터 수에 따른 변화율, Architecture 사용 비율, K-fold에 관한 연구를 진행했다. 현재 인공지능을 활용한 COVID-19의 진단은 독자적으로 사용되기에는 여러 문제가 존재하지만, 의사의 보조수단으로써 사용됨에는 부족함이 없을 것으로 예상된다.

감정 분류를 이용한 표정 연습 보조 인공지능 (Artificial Intelligence for Assistance of Facial Expression Practice Using Emotion Classification)

  • 김동규;이소화;봉재환
    • 한국전자통신학회논문지
    • /
    • 제17권6호
    • /
    • pp.1137-1144
    • /
    • 2022
  • 본 연구에서는 감정을 표현하기 위한 표정 연습을 보조하는 인공지능을 개발하였다. 개발한 인공지능은 서술형 문장과 표정 이미지로 구성된 멀티모달 입력을 심층신경망에 사용하고 서술형 문장에서 예측되는 감정과 표정 이미지에서 예측되는 감정 사이의 유사도를 계산하여 출력하였다. 사용자는 서술형 문장으로 주어진 상황에 맞게 표정을 연습하고 인공지능은 서술형 문장과 사용자의 표정 사이의 유사도를 수치로 출력하여 피드백한다. 표정 이미지에서 감정을 예측하기 위해 ResNet34 구조를 사용하였으며 FER2013 공공데이터를 이용해 훈련하였다. 자연어인 서술형 문장에서 감정을 예측하기 위해 KoBERT 모델을 전이학습 하였으며 AIHub의 감정 분류를 위한 대화 음성 데이터 세트를 사용해 훈련하였다. 표정 이미지에서 감정을 예측하는 심층신경망은 65% 정확도를 달성하여 사람 수준의 감정 분류 능력을 보여주었다. 서술형 문장에서 감정을 예측하는 심층신경망은 90% 정확도를 달성하였다. 감정표현에 문제가 없는 일반인이 개발한 인공지능을 이용해 표정 연습 실험을 수행하여 개발한 인공지능의 성능을 검증하였다.

위조번호판 부착 차량 출입 방지를 위한 인공지능 기반의 주차관제시스템 개선 방안 (A study on the improvement of artificial intelligence-based Parking control system to prevent vehicle access with fake license plates)

  • 장성민;이정우;박종혁
    • 지능정보연구
    • /
    • 제28권2호
    • /
    • pp.57-74
    • /
    • 2022
  • 최근 인공지능 주차관제시스템은 딥러닝을 활용해 차량 번호판에 대한 인식률을 높이고 있지만 위조번호판 부착 차량을 판별하지 못한다는 문제점이 있다. 이러한 보안상의 문제점이 있음에도 불구하고 현재까지 여러 기관에서 기존의 시스템을 그대로 사용하고 있는 상황이다. 실례로 위조번호판을 이용한 실험에서 정부의 주요 기관을 대상으로 진입에 성공한 사례도 있다. 본 논문에서는 이러한 위조번호판을 부착한 차량의 출입을 방지하기 위해서 기존 인공지능 주차관제시스템의 개선 방안을 제시한다. 이를 위해 제안하는 방법은 기존 시스템이 차량의 번호판의 일치여부를 통과기준으로 사용하듯이 이미지에서 특징이 되는 특징점의 정보를 추출해내는 ORB 알고리즘을 활용하여 추출한 차량 앞면 특징점들의 매칭 정도를 통과기준으로 사용하는 방법이다. 또한 내부에 차량이 존재하는지 여부를 확인하는 절차를 제안 시스템에 포함시켜 위조번호판을 부착한 동일 차종 차량의 진입도 방지하였다. 실험 결과, 위조번호판을 부착한 차량들의 진입을 막아내며 기존시스템에 비해 위조번호판을 막아내는 개선된 성능을 보였다. 이러한 결과를 통해 기존 인공지능 주차관제시스템의 체계를 유지하면서 본 논문에서 제안하는 방법들을 기존의 주차관제시스템에 적용하여 위조번호판을 부착한 차량의 출입을 방지할 수 있음을 확인할 수 있었다.

태양객체 정보 및 태양광 특성을 이용하여 사용자 위치의 자외선 지수를 산출하는 DNN 모델 (DNN Model for Calculation of UV Index at The Location of User Using Solar Object Information and Sunlight Characteristics)

  • 가덕현;오승택;임재현
    • 인터넷정보학회논문지
    • /
    • 제23권2호
    • /
    • pp.29-35
    • /
    • 2022
  • 자외선은 노출 정도에 따라 인체에 유익 또는 유해한 영향을 미치므로 개인별 적정 노출을 위해서는 정확한 자외선(UV) 정보가 필요하다. 국내의 경우 기상청에서 생활기상정보의 한 요소로 자외선 정보를 제공하고 있으나 지역별 자외선 지수(UVI, Ultraviolet Index)로 사용자 위치의 정확한 UVI를 제공하지는 못하고 있다. 일부에서는 정확한 UVI의 취득을 위해 직접 계측기를 운용하지만 비용이나 편의성에 문제가 있고, 태양의 복사량과 운량 등 주변 환경요소를 통해 자외선 양을 추정하는 연구도 소개되었으나 개인별 서비스 방법을 제시하지는 못하였다. 이에 본 논문에서는 각 개인별 위치에서의 정확한 UVI 제공을 위한 태양객체 정보와 태양광 특성을 이용한 UVI 산출 딥러닝 모델을 제안한다. 기 수집한 하늘이미지 및 태양광 특성을 분석하여 태양의 위치 및 크기, 조도 등 UVI와 상관도가 높은 요소들을 선정한 후 DNN 모델을 위한 데이터 셋을 구성한다. 이후 하늘이미지로부터 Mask R-CNN을 통해 추출한 태양객체 정보와 태양광 특성을 입력하여 UVI를 산출하는 DNN 모델을 구현한다. 국내 UVI 권고기준을 고려, UVI 8이상과 미만인 날에 대한 성능평가에서는 기준장비 대비 MAE 0.26의 범위 내 정확한 UVI의 산출이 가능하였다.

음성위조 탐지에 있어서 데이터 증강 기법의 성능에 관한 비교 연구 (Comparative study of data augmentation methods for fake audio detection)

  • 박관열;곽일엽
    • 응용통계연구
    • /
    • 제36권2호
    • /
    • pp.101-114
    • /
    • 2023
  • 데이터 증강 기법은 학습용 데이터셋을 다양한 관점에서 볼 수 있게 해주어 모형의 과적합 문제를 해결하는데 효과적으로 사용되고 있다. 이미지 데이터 증강기법으로 회전, 잘라내기, 좌우대칭, 상하대칭등의 증강 기법 외에도 occlusion 기반 데이터 증강 방법인 Cutmix, Cutout 등이 제안되었다. 음성 데이터에 기반한 모형들에 있어서도, 1D 음성 신호를 2D 스펙트로그램으로 변환한 후, occlusion 기반 데이터 기반 증강기법의 사용이 가능하다. 특히, SpecAugment는 음성 스펙트로그램을 위해 제안된 occlusion 기반 증강 기법이다. 본 연구에서는 위조 음성 탐지 문제에 있어서 사용될 수 있는 데이터 증강기법에 대해 비교 연구해보고자 한다. Fake audio를 탐지하기 위해 개최된 ASVspoof2017과 ASVspoof2019 데이터를 사용하여 음성을 2D 스펙트로그램으로 변경시켜 occlusion 기반 데이터 증강 방식인 Cutout, Cutmix, SpecAugment를 적용한 데이터셋을 훈련 데이터로 하여 CNN 모형을 경량화시킨 LCNN 모형을 훈련시켰다. Cutout, Cutmix, SpecAugment 세 증강 기법 모두 대체적으로 모형의 성능을 향상시켰으나 방법에 따라 오히려 성능을 저하시키거나 성능에 변화가 없을 수도 있었다. ASVspoof2017 에서는 Cutmix, ASVspoof2019 LA 에서는 Mixup, ASVspoof2019 PA 에서는 SpecAugment 가 가장 좋은 성능을 보였다. 또, SpecAugment는 mask의 개수를 늘리는 것이 성능 향상에 도움이 된다. 결론적으로, 상황과 데이터에 따라 적합한 augmentation 기법이 다른 것으로 파악된다.

합성곱 신경망 기반 채점 모델 설계 및 적용을 통한 운동학 그래프 답안 자동 채점 (The Automated Scoring of Kinematics Graph Answers through the Design and Application of a Convolutional Neural Network-Based Scoring Model)

  • 한재상;김현주
    • 한국과학교육학회지
    • /
    • 제43권3호
    • /
    • pp.237-251
    • /
    • 2023
  • 본 연구는 합성곱 신경망을 활용한 자동 채점 모델을 설계하고 학생의 운동학 그래프 답안에 적용함으로써, 과학 그래프 답안에 대한 자동 채점의 가능성을 탐색하였다. 연구자가 작성한 2,200개의 답안을 2,000개의 훈련 데이터와 200개의 검증 데이터로 데이터셋을 구성하고, 202개의 학생 답안을 100개의 훈련 데이터와 102개의 시험 데이터로 데이터셋을 구성하여 연구를 진행하였다. 먼저, 자동 채점모델을 설계하고 성능을 검증하는 과정에서는 연구자가 작성한 답안 데이터셋을 활용하여 그래프 이미지 분류에 최적화되도록 자동 채점모델을 완성하였다. 다음으로 자동 채점 모델에 훈련 데이터셋을 여러 유형으로 학습시키면서 학생의 시험 데이터셋에 대한 채점을 수행하여 훈련 데이터의 양이 많고 다양할수록 자동 채점 모델의 성능이 향상된다는 것을 확인하였고, 최종적으로 인간 채점과의 일치율은 97.06%, 카파 계수는 0.957, 가중 카파 계수는 0.968을 얻었다. 한편, 훈련 데이터로 학습되지 않은 유형의 답안의 경우 인간 채점자들 간에는 채점이 거의 일치하였으나, 자동 채점 모델은 일치하지 않게 채점하는 것을 확인하였다.

딥러닝 알고리즘을 이용한 강우 발생시의 유량 추정에 관한 연구 (A study on discharge estimation for the event using a deep learning algorithm)

  • 송철민
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2021년도 학술발표회
    • /
    • pp.246-246
    • /
    • 2021
  • 본 연구는 강우 발생시 유량을 추정하는 것에 목적이 있다. 이를 위해 본 연구는 선행연구의 모형 개발방법론에서 벗어나 딥러닝 알고리즘 중 하나인 합성곱 신경망 (convolution neural network)과 수문학적 이미지 (hydrological image)를 이용하여 강우 발생시 유량을 추정하였다. 합성곱 신경망은 일반적으로 분류 문제 (classification)을 해결하기 위한 목적으로 개발되었기 때문에 불특정 연속변수인 유량을 모의하기에는 적합하지 않다. 이를 위해 본 연구에서는 합성곱 신경망의 완전 연결층 (Fully connected layer)를 개선하여 연속변수를 모의할 수 있도록 개선하였다. 대부분 합성곱 신경망은 RGB (red, green, blue) 사진 (photograph)을 이용하여 해당 사진이 나타내는 것을 예측하는 목적으로 사용하지만, 본 연구의 경우 일반 RGB 사진을 이용하여 유출량을 예측하는 것은 경험적 모형의 전제(독립변수와 종속변수의 관계)를 무너뜨리는 결과를 초래할 수 있다. 이를 위해 본 연구에서는 임의의 유역에 대해 2차원 공간에서 무차원의 수문학적 속성을 갖는 grid의 집합으로 정의되는 수문학적 이미지는 입력자료로 활용했다. 합성곱 신경망의 구조는 Convolution Layer와 Pulling Layer가 5회 반복하는 구조로 설정하고, 이후 Flatten Layer, 2개의 Dense Layer, 1개의 Batch Normalization Layer를 배열하고, 다시 1개의 Dense Layer가 이어지는 구조로 설계하였다. 마지막 Dense Layer의 활성화 함수는 분류모형에 이용되는 softmax 또는 sigmoid 함수를 대신하여 회귀모형에서 자주 사용되는 Linear 함수로 설정하였다. 이와 함께 각 층의 활성화 함수는 정규화 선형함수 (ReLu)를 이용하였으며, 모형의 학습 평가 및 검정을 판단하기 위해 MSE 및 MAE를 사용했다. 또한, 모형평가는 NSE와 RMSE를 이용하였다. 그 결과, 모형의 학습 평가에 대한 MSE는 11.629.8 m3/s에서 118.6 m3/s로, MAE는 25.4 m3/s에서 4.7 m3/s로 감소하였으며, 모형의 검정에 대한 MSE는 1,997.9 m3/s에서 527.9 m3/s로, MAE는 21.5 m3/s에서 9.4 m3/s로 감소한 것으로 나타났다. 또한, 모형평가를 위한 NSE는 0.7, RMSE는 27.0 m3/s로 나타나, 본 연구의 모형은 양호(moderate)한 것으로 판단하였다. 이에, 본 연구를 통해 제시된 방법론에 기반을 두어 CNN 모형 구조의 확장과 수문학적 이미지의 개선 또는 새로운 이미지 개발 등을 추진할 경우 모형의 예측 성능이 향상될 수 있는 여지가 있으며, 원격탐사 분야나, 위성 영상을 이용한 전 지구적 또는 광역 단위의 실시간 유량 모의 분야 등으로의 응용이 가능할 것으로 기대된다.

  • PDF

하이브리드 빅데이터 분석을 통한 홍수 재해 예측 및 예방 (Flood Disaster Prediction and Prevention through Hybrid BigData Analysis)

  • 엄기열;이재현
    • 한국빅데이터학회지
    • /
    • 제8권1호
    • /
    • pp.99-109
    • /
    • 2023
  • 최근에 우리나라에서 뿐만 아니라, 세계 곳곳에서 태풍, 산불, 장마 등으로 인한 재해가 끊이지 않고 있고, 우리나라 태풍 및 호우로 인한 재산 피해액만 1조원이 넘고 있다. 이러한 재난으로 인해 많은 인명 및 물적 피해가 발생하고, 복구하는 데도 상당한 기간이 걸리며, 정부 예비비도 부족한 실정이다. 이러한 문제점들을 사전에 예방하고 효과적으로 대응하기 위해서는 우선 정확한 데이터를 실시간 수집하고 분석하는 작업이 필요하다. 그러나, 센서들이 위치한 환경, 통신 네트워크 및 수신 서버들의 상황에 따라 지연 및 데이터 손실 등이 발생할 수 있다. 따라서, 본 논문에서는 이러한 통신네트워크 상황에서도 분석을 정확하게 할 수 있는 2단계 하이브리드 상황 분석 및 예측 알고리즘을 제안한다. 1단계에서는 이기종의 다양한 센서로부터 강, 하천, 수위 및 경사지의 경사각 데이터를 수집/필터링/정제하여 빅데이터 DB에 저장하고, 인공지능 규칙기반 추론 알고리즘을 적용하여, 위기 경보 4단계를 판단한다. 강수량이 일정값 이상인데도 불구하고 1단계 결과가 관심 이하 단계에 있으면, 2단계 딥러닝 영상 분석을 수행한 후 최종 위기 경보단계를 결정한다.

Automatic Detection of Type II Solar Radio Burst by Using 1-D Convolution Neutral Network

  • Kyung-Suk Cho;Junyoung Kim;Rok-Soon Kim;Eunsu Park;Yuki Kubo;Kazumasa Iwai
    • 천문학회지
    • /
    • 제56권2호
    • /
    • pp.213-224
    • /
    • 2023
  • Type II solar radio bursts show frequency drifts from high to low over time. They have been known as a signature of coronal shock associated with Coronal Mass Ejections (CMEs) and/or flares, which cause an abrupt change in the space environment near the Earth (space weather). Therefore, early detection of type II bursts is important for forecasting of space weather. In this study, we develop a deep-learning (DL) model for the automatic detection of type II bursts. For this purpose, we adopted a 1-D Convolution Neutral Network (CNN) as it is well-suited for processing spatiotemporal information within the applied data set. We utilized a total of 286 radio burst spectrum images obtained by Hiraiso Radio Spectrograph (HiRAS) from 1991 and 2012, along with 231 spectrum images without the bursts from 2009 to 2015, to recognizes type II bursts. The burst types were labeled manually according to their spectra features in an answer table. Subsequently, we applied the 1-D CNN technique to the spectrum images using two filter windows with different size along time axis. To develop the DL model, we randomly selected 412 spectrum images (80%) for training and validation. The train history shows that both train and validation losses drop rapidly, while train and validation accuracies increased within approximately 100 epoches. For evaluation of the model's performance, we used 105 test images (20%) and employed a contingence table. It is found that false alarm ratio (FAR) and critical success index (CSI) were 0.14 and 0.83, respectively. Furthermore, we confirmed above result by adopting five-fold cross-validation method, in which we re-sampled five groups randomly. The estimated mean FAR and CSI of the five groups were 0.05 and 0.87, respectively. For experimental purposes, we applied our proposed model to 85 HiRAS type II radio bursts listed in the NGDC catalogue from 2009 to 2016 and 184 quiet (no bursts) spectrum images before and after the type II bursts. As a result, our model successfully detected 79 events (93%) of type II events. This results demonstrates, for the first time, that the 1-D CNN algorithm is useful for detecting type II bursts.

얼굴 특징점을 활용한 영상 편집점 탐지 (Detection of video editing points using facial keypoints)

  • 나요셉;김진호;박종혁
    • 지능정보연구
    • /
    • 제29권4호
    • /
    • pp.15-30
    • /
    • 2023
  • 최근 미디어 분야에도 인공지능(AI)을 적용한 다양한 서비스가 등장하고 있는 추세이다. 하지만 편집점을 찾아 영상을 이어 붙이는 영상 편집은, 대부분 수동적 방식으로 진행되어 시간과 인적 자원의 소요가 많이 발생하고 있다. 이에 본 연구에서는 Video Swin Transformer를 활용하여, 발화 여부에 따른 영상의 편집점을 탐지할 수 있는 방법론을 제안한다. 이를 위해, 제안 구조는 먼저 Face Alignment를 통해 얼굴 특징점을 검출한다. 이와 같은 과정을 통해 입력 영상 데이터로부터 발화 여부에 따른 얼굴의 시 공간적인 변화를 모델에 반영한다. 그리고, 본 연구에서 제안하는 Video Swin Transformer 기반 모델을 통해 영상 속 사람의 행동을 분류한다. 구체적으로 비디오 데이터로부터 Video Swin Transformer를 통해 생성되는 Feature Map과 Face Alignment를 통해 검출된 얼굴 특징점을 합친 후 Convolution을 거쳐 발화 여부를 탐지하게 된다. 실험 결과, 본 논문에서 제안한 얼굴 특징점을 활용한 영상 편집점 탐지 모델을 사용했을 경우 분류 성능을 89.17% 기록하여, 얼굴 특징점을 사용하지 않았을 때의 성능 87.46% 대비 성능을 향상시키는 것을 확인할 수 있었다.