• 제목/요약/키워드: Deep-learning Neural Network

검색결과 1,683건 처리시간 0.03초

Automatic Detection and Classification of Rib Fractures on Thoracic CT Using Convolutional Neural Network: Accuracy and Feasibility

  • Qing-Qing Zhou;Jiashuo Wang;Wen Tang;Zhang-Chun Hu;Zi-Yi Xia;Xue-Song Li;Rongguo Zhang;Xindao Yin;Bing Zhang;Hong Zhang
    • Korean Journal of Radiology
    • /
    • 제21권7호
    • /
    • pp.869-879
    • /
    • 2020
  • Objective: To evaluate the performance of a convolutional neural network (CNN) model that can automatically detect and classify rib fractures, and output structured reports from computed tomography (CT) images. Materials and Methods: This study included 1079 patients (median age, 55 years; men, 718) from three hospitals, between January 2011 and January 2019, who were divided into a monocentric training set (n = 876; median age, 55 years; men, 582), five multicenter/multiparameter validation sets (n = 173; median age, 59 years; men, 118) with different slice thicknesses and image pixels, and a normal control set (n = 30; median age, 53 years; men, 18). Three classifications (fresh, healing, and old fracture) combined with fracture location (corresponding CT layers) were detected automatically and delivered in a structured report. Precision, recall, and F1-score were selected as metrics to measure the optimum CNN model. Detection/diagnosis time, precision, and sensitivity were employed to compare the diagnostic efficiency of the structured report and that of experienced radiologists. Results: A total of 25054 annotations (fresh fracture, 10089; healing fracture, 10922; old fracture, 4043) were labelled for training (18584) and validation (6470). The detection efficiency was higher for fresh fractures and healing fractures than for old fractures (F1-scores, 0.849, 0.856, 0.770, respectively, p = 0.023 for each), and the robustness of the model was good in the five multicenter/multiparameter validation sets (all mean F1-scores > 0.8 except validation set 5 [512 x 512 pixels; F1-score = 0.757]). The precision of the five radiologists improved from 80.3% to 91.1%, and the sensitivity increased from 62.4% to 86.3% with artificial intelligence-assisted diagnosis. On average, the diagnosis time of the radiologists was reduced by 73.9 seconds. Conclusion: Our CNN model for automatic rib fracture detection could assist radiologists in improving diagnostic efficiency, reducing diagnosis time and radiologists' workload.

LSTM 모델 기반 주행 모드 인식을 통한 자율 주행에 관한 연구 (Automated Vehicle Research by Recognizing Maneuvering Modes using LSTM Model)

  • 김은희;오혜연
    • 한국ITS학회 논문지
    • /
    • 제16권4호
    • /
    • pp.153-163
    • /
    • 2017
  • 본 연구에서는 운전자 별로 생활 중에 이동하는 주행 도로의 특징 및 교통상황이 서로 다르며 운전습관이 상이함을 고려하여, 운전자 혹은 운전자 그룹별 기계학습모형을 구성하고, 학습된 모델을 분석하여 운전자의 주행모드 별 특징을 탐색하여 자율 주행 자동차를 시뮬레이션 하였다. 운전지식을 활용하여 주행조작 전후 센서의 동작 상황에 따라 8종류의 종방향 모드와 4종류 회전모드로 구분하고, 종방향 모드와 회전모드를 결합한 21개의 결합형 주행모드로 세분화 하였다. 주행모드가 레이블 된 시계열 데이터에 대해 딥러닝 지도학습 모델인 RNN (Recurrent Neural Network), LSTM (Long Short-Term Memory), Bi-LSTM 모델을 활용하여서 운전자 별 혹은 운전자 그룹별 주행데이터를 학습하고, 학습된 모델을 테스트 데이터 셋에서 주행 모드인식률을 검증하였다. 실험 데이터는 미국 VTTI 기관에서 수집된 22명의 운전자의 1,500개의 실생활 주행 데이터가 사용되었다. 주행 모드 인식에 있어, 데이터 셋에 대해 Bi-LSTM 모델이 RNN, LSTM 모델에 비해 향상된 성능을 보였으며, 최대 93.41%의 주행모드 인식률을 확인하였다.

유치의 치근단 방사선 사진에서 딥 러닝 알고리즘을 이용한 모델의 인접면 우식증 객체 탐지 능력의 평가 (Assessment of the Object Detection Ability of Interproximal Caries on Primary Teeth in Periapical Radiographs Using Deep Learning Algorithms)

  • 전홍주;김선미;최남기
    • 대한소아치과학회지
    • /
    • 제50권3호
    • /
    • pp.263-276
    • /
    • 2023
  • 이 연구의 목적은 소아의 치근단 방사선 사진에서 인접면 우식증 객체 탐지 의 객체 탐지를 위해 YOLO (You Only Look Once)를 사용한 모델의 성능을 평가하는 것이다. M6 데이터베이스에서 학습자료군으로 2016개의 치근단 방사선 사진이 선택되었고 이 중 1143개는 한 명의 숙련된 치과의사가 주석 도구를 사용하여 인접면 우식증을 표시하였다. 표시한 주석을 데이터 세트로 변환한 후 단일 합성곱 신경망(CNN) 모델을 기반으로 하는 YOLO를 데이터 세트에 학습시켰다. 187개의 평가자료군에서 객체 탐지 모델 성능 평가를 위해 정확도, 재현율, 특이도, 정밀도, NPV, F1-score, PR 곡선 및 AP를 계산하였다. 결과로 정확도 0.95, 재현율 0.94, 특이도 0.97, 정밀도 0.82, NPV 0.96, F1-score 0.81, AP 0.83으로 인접면 우식증 탐지에 좋은 성능을 보였다. 이 모델은 치과의사에게 치근단 방사선 사진에서 인접면 우식증 병변을 객체 탐지하는 도구로 유용하게 사용될 수 있다.

딥러닝을 이용한 벼 도복 면적 추정 (Estimation of the Lodging Area in Rice Using Deep Learning)

  • 반호영;백재경;상완규;김준환;서명철
    • 한국작물학회지
    • /
    • 제66권2호
    • /
    • pp.105-111
    • /
    • 2021
  • 해마다, 강한 바람을 동반한 태풍 및 집중호우로 인해 벼도복이 발생하고 있으며, 이삭이 여무는 등숙기에 도복으로 인한 수발아와 관련된 피해를 발생시키고 있다. 따라서,신속한 피해 대응을 위해 신속한 벼 도복 피해 면적 산정은 필수적이다. 벼 도복과 관련된 이미지들은 도복이 발생된 김제, 부안, 군산일대에서 드론을 이용하여 수집하였고, 수집한 이미지들을 128 × 128 픽셀로 분할하였다. 벼 도복을 예측하기 위해 이미지 기반 딥 러닝 모델인 CNN을 이용하였다. 분할한 이미지들은 도복 이미지(lodging)와 정상 이미지(non-lodging) 2가지로 라벨로 분류하였고, 자료들은 학습을 위한 training-set과 검증을 위한 vali-se을 8:2의 비율로 구분하였다. CNN의 층을 간단하게 구성하여, 3개의 optimizer (Adam, Rmsprop, and SGD)로 모델을 학습하였다. 벼 도복 면적 평가는 training-set과 vali-set에 포함되지 않은 자료를 이용하였으며, 이미지들을 methshape 프로그램으로 전체 농지로 결합하여 총 3개의 농지를 평가하였다. 도복 면적 추정은 필지 전체의 이미지를 모델의 학습 입력 크기(128 × 128)로 분할하여 학습된 CNN 모델로 각각 예측한 후, 전체 분할 이미지 개수 대비 도복 이미지 개수의 비율을 전체 농지의 면적에 곱하여 산정하였다. training-set과 vali-set에 대한 학습 결과, 3개의 optimizer 모두 학습이 진행됨에 따라 정확도가 높아졌으며, 0.919 이상의 높은 정확도를 보였다. 평가를 위한 3개의 농지에 대한 결과는 모든 optimizer에서 높은 정확도를 보였으며, Adam이 가장 높은 정확도를 보였다(RMSE: 52.80 m2, NRMSE: 2.73%). 따라서 딥 러닝을 이용하여 신속하게 벼 도복 면적을 추정할 수 있을 것으로 예상된다.

라이트필드 초해상도와 블러 제거의 동시 수행을 위한 적대적 신경망 모델 (Adversarial Framework for Joint Light Field Super-resolution and Deblurring)

  • 조나단 사무엘;백형선;박인규
    • 방송공학회논문지
    • /
    • 제25권5호
    • /
    • pp.672-684
    • /
    • 2020
  • 시차 기반 영상처리에 대한 연구들이 증가함에 따라 저해상도 및 모션 블러된 라이트필드 영상을 복원하는 연구는 필수적이 되었다. 이러한 기법들은 라이트필드 영상 향상 과정으로 알려져 있으나 두 개 이상의 문제를 동시에 해결하는 기존의 연구는 거의 존재하지 않는다. 본 논문에서는 라이트필드 공간 영역 초해상도 복원과 모션 블러 제거를 동시 수행하는 프레임워크를 제안한다. 특히, 저해상도 및 6-DOF 모션 블러된 라이트필드 데이터셋으로 훈련하는 간단한 네트워크를 생성한다. 또한 성능을 향상하기 위해 생성적 적대 신경망의 지역 영역 최적화 기법을 제안하였다. 제안한 프레임워크는 정량적, 정성적 측정을 통해 평가하고 기존의 state-of-the-art 기법들과 비교하여 우수한 성능을 나타냄을 보인다.

스킵 연결 형태 기반의 손 관절 2D 및 3D 검출 기법 (2D and 3D Hand Pose Estimation Based on Skip Connection Form)

  • 구종회;김미경;차의영
    • 한국정보통신학회논문지
    • /
    • 제24권12호
    • /
    • pp.1574-1580
    • /
    • 2020
  • 기존의 신체 인식 방법은 특수한 기기를 사용하거나 이미지로부터 영상처리를 통해 검출하는 방법들이 있다. 특수 기기를 사용할 경우 기기를 사용할 수 있는 환경이 제약되고 기기의 비용이 많이 든다는 단점이 있다. 카메라와 영상처리를 사용할 경우 환경의 제약과 비용이 낮아지는 장점이 있지만, 성능이 떨어진다. 이런 단점을 해결하기 위해 카메라와 합성 곱 심층 신경망을 사용한 신체 인식 방법들이 연구되었다. 합성 곱 심층 신경망의 성능을 올리기 위해 다양한 기법들이 제안되었다. 본 논문에서는 합성 곱 심층 신경망의 성능을 올리기 위한 기법 중 스킵 연결을 다양한 형태로 사용하여 스킵 연결이 손 검출 망에 끼치는 영향을 실험하였다. 실험을 통해 기본 스킵 연결 이외 추가적인 스킵 연결의 존재가 성능에 나은 영향을 끼치고 하향 스킵 연결만 추가된 망이 가장 나은 성능을 보임을 확인하였다.

CAB: Classifying Arrhythmias based on Imbalanced Sensor Data

  • Wang, Yilin;Sun, Le;Subramani, Sudha
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권7호
    • /
    • pp.2304-2320
    • /
    • 2021
  • Intelligently detecting anomalies in health sensor data streams (e.g., Electrocardiogram, ECG) can improve the development of E-health industry. The physiological signals of patients are collected through sensors. Timely diagnosis and treatment save medical resources, promote physical health, and reduce complications. However, it is difficult to automatically classify the ECG data, as the features of ECGs are difficult to extract. And the volume of labeled ECG data is limited, which affects the classification performance. In this paper, we propose a Generative Adversarial Network (GAN)-based deep learning framework (called CAB) for heart arrhythmia classification. CAB focuses on improving the detection accuracy based on a small number of labeled samples. It is trained based on the class-imbalance ECG data. Augmenting ECG data by a GAN model eliminates the impact of data scarcity. After data augmentation, CAB classifies the ECG data by using a Bidirectional Long Short Term Memory Recurrent Neural Network (Bi-LSTM). Experiment results show a better performance of CAB compared with state-of-the-art methods. The overall classification accuracy of CAB is 99.71%. The F1-scores of classifying Normal beats (N), Supraventricular ectopic beats (S), Ventricular ectopic beats (V), Fusion beats (F) and Unclassifiable beats (Q) heartbeats are 99.86%, 97.66%, 99.05%, 98.57% and 99.88%, respectively. Unclassifiable beats (Q) heartbeats are 99.86%, 97.66%, 99.05%, 98.57% and 99.88%, respectively.

위치 영역 클러스터링을 통한 이동 경로 생성 기법 (Movement Route Generation Technique through Location Area Clustering)

  • 윤창표;황치곤
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.355-357
    • /
    • 2022
  • 본 논문에서는 딥러닝 네트워크인 순환신경망(RNN) 모델을 사용해 이동 중인 객체의 이동 경로의 예측을 위한 포지셔닝 기술로서 실내 환경에서 지역 경로 내의 이동 중인 차량의 경로 예측에 연속적인 위치 정보를 이용하여 현재 위치 결정의 오류를 낮출 수 있는 이동 경로 생성 기법을 제안한다. GPS 정보를 사용할 수 없는 실내 환경의 경우 RNN 모델을 적용하기 위해서는 데이터 세트가 연속적이고 순차적이어야 한다. 그러나 Wi-Fi 전파 지문 데이터는 수집 시점의 특정 위치에 대한 특징 정보로서 연속성이 보장되지 않기 때문에 RNN 데이터로 사용할 수 없다. 따라서 RNN 모델에 필요한 순차적 위치의 연속성을 부여하여 실내 환경의 지역 경로를 이동하는 차량의 이동 경로 생성 기법을 제안한다.

  • PDF

클리핑 감지기를 이용한 음성 신호 클리핑 제거의 성능 향상 (Performance Enhancement of Speech Declipping using Clipping Detector)

  • 서은미;유정찬;임유진;박호종
    • 방송공학회논문지
    • /
    • 제28권1호
    • /
    • pp.132-140
    • /
    • 2023
  • 본 논문에서는 클리핑 감지기를 이용하여 음성 신호의 클리핑 제거 성능을 향상시키는 방법을 제안한다. 클리핑은 입력 음성 신호의 크기가 마이크의 동적 범위를 넘을 때 발생하며, 음성 품질을 저하시키는 요인이 된다. 최근 머신러닝을 이용한 많은 클리핑 제거 기술이 개발되었고 우수한 성능을 제공하고 있다. 그러나 머신러닝 기반의 클리핑 제거 방법은 신호 복원 과정의 왜곡으로 인해 클리핑이 심하지 않을 때 출력 신호의 품질이 저하되는 문제를 가진다. 이를 해결하기 위해 클리핑 제거기를 클리핑 감지기와 연동시켜 클리핑 수준에 따라 클리핑 제거 동작을 선택적으로 적용하는 방법을 제안하고, 이를 통해 모든 클리핑 수준에서 우수한 품질의 신호를출력하도록 한다. 다양한 평가 지표로 클리핑 제거 성능을 측정하였고, 제안 방법이 기존 방법에 비해 모든 클리핑 수준에 대한 평균성능을 향상시키고, 특히 클리핑 왜곡이 작을 때 성능을 크게 향상시키는 것을 확인하였다.

임베디드 엣지 플랫폼에서의 경량 비전 트랜스포머 성능 평가 (Performance Evaluation of Efficient Vision Transformers on Embedded Edge Platforms)

  • 이민하;이성재;김태현
    • 대한임베디드공학회논문지
    • /
    • 제18권3호
    • /
    • pp.89-100
    • /
    • 2023
  • Recently, on-device artificial intelligence (AI) solutions using mobile devices and embedded edge devices have emerged in various fields, such as computer vision, to address network traffic burdens, low-energy operations, and security problems. Although vision transformer deep learning models have outperformed conventional convolutional neural network (CNN) models in computer vision, they require more computations and parameters than CNN models. Thus, they are not directly applicable to embedded edge devices with limited hardware resources. Many researchers have proposed various model compression methods or lightweight architectures for vision transformers; however, there are only a few studies evaluating the effects of model compression techniques of vision transformers on performance. Regarding this problem, this paper presents a performance evaluation of vision transformers on embedded platforms. We investigated the behaviors of three vision transformers: DeiT, LeViT, and MobileViT. Each model performance was evaluated by accuracy and inference time on edge devices using the ImageNet dataset. We assessed the effects of the quantization method applied to the models on latency enhancement and accuracy degradation by profiling the proportion of response time occupied by major operations. In addition, we evaluated the performance of each model on GPU and EdgeTPU-based edge devices. In our experimental results, LeViT showed the best performance in CPU-based edge devices, and DeiT-small showed the highest performance improvement in GPU-based edge devices. In addition, only MobileViT models showed performance improvement on EdgeTPU. Summarizing the analysis results through profiling, the degree of performance improvement of each vision transformer model was highly dependent on the proportion of parts that could be optimized in the target edge device. In summary, to apply vision transformers to on-device AI solutions, either proper operation composition and optimizations specific to target edge devices must be considered.