• 제목/요약/키워드: VGG-16

검색결과 117건 처리시간 0.032초

저선량 흉부 CT를 이용한 VGGNet 폐기종 검출 유용성 평가 (Effectiveness of the Detection of Pulmonary Emphysema using VGGNet with Low-dose Chest Computed Tomography Images)

  • 김두빈;박영준;홍주완
    • 한국방사선학회논문지
    • /
    • 제16권4호
    • /
    • pp.411-417
    • /
    • 2022
  • 본 연구에서는 저선량 흉부 CT 영상을 이용하여 VGGNet을 학습시키고 폐기종 검출 모델을 구현하고 성능을 확인하고자 한다. 연구에 사용된 저선량 흉부 CT 영상은 정상 진단 8000장, 폐기종 진단 3189장이며, 모델 학습을 위해 정상 데이터와 폐기종 데이터를 train, validation, test dataset으로 각각 60%, 24%, 16%로 무작위 추출하여 구분하였다. 학습을 위한 인공신경망은 VGGNet 중 VGG16과 VGG19를 사용하였으며, 학습이 완료된 모델 평가를 위해 정확도, 손실율, 오차 행렬, 정밀도, 재현율, 특이도, F1-score의 평가지표를 사용하였다. 폐기종 검출 정확도와 손실율은 VGG16과 VGG19 각각 92.35%, 95.88%, 0.21%, 0.09%, 정밀도는 91.60%, 96.55%, 재현율은 98.36%, 97.39%, 특이도는 77.08%, 92.72%, F1-score는 94.86%, 96.97%였다. 위의 평가지표를 통해 VGG19 모델의 폐기종 검출 성능이 VGG16 모델에 비해 우수하다고 판단된다. 본 연구를 통해 VGGNet과 인공신경망을 이용한 폐기종 검출 모델 연구에 기초자료로 사용할 수 있을 것으로 사료된다.

VGG16을 활용한 외국인 전용 한식정보 제공 앱 (Korean Food Information Provision APP for Foreigners Using VGG16)

  • 윤수진;오세영;우영운
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.404-406
    • /
    • 2021
  • 본 논문에서는 한식 이미지 분류 및 한식 관련 정보 제공을 위한 앱 어플리케이션을 제안한다. 앱 애플리케이션은 Flask 서버, 데이터베이스(Mysql), 파이썬 딥 러닝 모듈들로 구성되며, VGG16 모델을 활용해 한식 150종의 이미지를 분류한다. 인터넷 환경만 있다면 사진 한 장으로 언제 어디서든 한식에 대한 정보를 쉽게 얻을 수 있다.

  • PDF

Using CNN- VGG 16 to detect the tennis motion tracking by information entropy and unascertained measurement theory

  • Zhong, Yongfeng;Liang, Xiaojun
    • Advances in nano research
    • /
    • 제12권2호
    • /
    • pp.223-239
    • /
    • 2022
  • Object detection has always been to pursue objects with particular properties or representations and to predict details on objects including the positions, sizes and angle of rotation in the current picture. This was a very important subject of computer vision science. While vision-based object tracking strategies for the analysis of competitive videos have been developed, it is still difficult to accurately identify and position a speedy small ball. In this study, deep learning (DP) network was developed to face these obstacles in the study of tennis motion tracking from a complex perspective to understand the performance of athletes. This research has used CNN-VGG 16 to tracking the tennis ball from broadcasting videos while their images are distorted, thin and often invisible not only to identify the image of the ball from a single frame, but also to learn patterns from consecutive frames, then VGG 16 takes images with 640 to 360 sizes to locate the ball and obtain high accuracy in public videos. VGG 16 tests 99.6%, 96.63%, and 99.5%, respectively, of accuracy. In order to avoid overfitting, 9 additional videos and a subset of the previous dataset are partly labelled for the 10-fold cross-validation. The results show that CNN-VGG 16 outperforms the standard approach by a wide margin and provides excellent ball tracking performance.

비디오 분류에 기반 해석가능한 딥러닝 알고리즘 (An Explainable Deep Learning Algorithm based on Video Classification)

  • 김택위;조인휘
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.449-452
    • /
    • 2023
  • The rapid development of the Internet has led to a significant increase in multimedia content in social networks. How to better analyze and improve video classification models has become an important task. Deep learning models have typical "black box" characteristics. The model requires explainable analysis. This article uses two classification models: ConvLSTM and VGG16+LSTM models. And combined with the explainable method of LRP, generate visualized explainable results. Finally, based on the experimental results, the accuracy of the classification model is: ConvLSTM: 75.94%, VGG16+LSTM: 92.50%. We conducted explainable analysis on the VGG16+LSTM model combined with the LRP method. We found VGG16+LSTM classification model tends to use the frames biased towards the latter half of the video and the last frame as the basis for classification.

딥러닝을 활용한 전시 정원 디자인 유사성 인지 모형 연구 (Development of Deep Recognition of Similarity in Show Garden Design Based on Deep Learning)

  • 조우윤;권진욱
    • 한국조경학회지
    • /
    • 제52권2호
    • /
    • pp.96-109
    • /
    • 2024
  • 본 연구는 딥러닝 모델 중 VGG-16 및 ResNet50 모델을 활용하여 전시 정원의 유사성 평가 방법을 제시하는 것에 목적이 있다. VGG-16과 ResNet50 모델을 기반으로 전시 정원 유사성 판단을 위한 모형을 개발하였고, 이를 DRG(deep recognition of similarity in show garden design)모형이라 한다. 평가를 위한 방법으로 GAP와 피어슨 상관계수를 활용한 알고리즘을 사용하여 모형을 구축하고 1순위(Top1), 3순위(Top3), 5순위(Top5)에서 원본 이미지와 유사한 이미지를 도출하는 총 개수 비교로 유사성의 정확도를 분석하였다. DRG 모형에 활용된 이미지 데이터는 국외 쇼몽가든페스티벌 전시 정원 총 278개 작품과 국내 정원박람회인 서울정원박람회 27개 작품 및 코리아가든쇼 전시정원 이미지 17개 작품이다. DRG모형을 활용하여 동일 집단과 타 집단간의 이미지 분석을 진행하였고, 이를 기반으로 전시 정원 유사성의 가이드라인을 제시하였다. 첫째, 전체 이미지 유사성 분석은 ResNet50 모델을 기반으로 하여 데이터 증강 기법을 적용하는 것이 유사성 도출에 적합하였다. 둘째, 내부 구조와 외곽형태에 중점을 둔 이미지 분석에서는 형태에 집중하기 위한 일정한 크기의 필터(16cm × 16cm)를 적용하여 이미지를 생성하고 VGG-16 모델을 적용하여 유사성을 비교하는 방법이 효과적임을 알 수 있었다. 이때, 이미지 크기는 448 × 448 픽셀이 효과적이며, 유채색의 원본 이미지를 기본으로 설정함을 제안하였다. 이러한 연구 결과를 토대로 전시 정원 유사성 판단에 대한 정량적 방법을 제안하고, 향후 다양한 분야와의 융합 연구를 통해 정원 문화의 지속적인 발전에 기여할 것으로 기대한다.

Optimized Deep Learning Techniques for Disease Detection in Rice Crop using Merged Datasets

  • Muhammad Junaid;Sohail Jabbar;Muhammad Munwar Iqbal;Saqib Majeed;Mubarak Albathan;Qaisar Abbas;Ayyaz Hussain
    • International Journal of Computer Science & Network Security
    • /
    • 제23권3호
    • /
    • pp.57-66
    • /
    • 2023
  • Rice is an important food crop for most of the population in the world and it is largely cultivated in Pakistan. It not only fulfills food demand in the country but also contributes to the wealth of Pakistan. But its production can be affected by climate change. The irregularities in the climate can cause several diseases such as brown spots, bacterial blight, tungro and leaf blasts, etc. Detection of these diseases is necessary for suitable treatment. These diseases can be effectively detected using deep learning such as Convolution Neural networks. Due to the small dataset, transfer learning models such as vgg16 model can effectively detect the diseases. In this paper, vgg16, inception and xception models are used. Vgg16, inception and xception models have achieved 99.22%, 88.48% and 93.92% validation accuracies when the epoch value is set to 10. Evaluation of models has also been done using accuracy, recall, precision, and confusion matrix.

딥러닝 기반 이미지 특징 추출 모델을 이용한 유사 디자인 검출에 대한 연구 (Detecting Similar Designs Using Deep Learning-based Image Feature Extracting Model)

  • 이병우;이우창;채승완;김동현;이충권
    • 스마트미디어저널
    • /
    • 제9권4호
    • /
    • pp.162-169
    • /
    • 2020
  • 디자인은 섬유패션 산업에서 제품의 경쟁력을 결정짓는 핵심요인이다. 무단복제를 방지하고 독창성을 확인하기 위하여 제시된 디자인의 유사도를 측정하는 것은 매우 중요하다. 본 연구에서는 딥러닝 기법을 이용하여 섬유 디자인의 이미지로 부터 특징(feature)을 수치화하고, 스피어만 상관계수를 이용하여 유사도를 측정하였다. 유사한 샘플이 실제로 검출되는지 검증하기 위하여 300장의 이미지를 임의로 회전 및 색상을 변경하였다. 유사도 수치가 높은 순으로 Top-3와 Top-5의 결과에 회전을 하거나 색상을 변경한 샘플이 존재하는지 측정하였다. 그 결과, AlexNet 보다 VGG-16 모델이 월등히 높은 성능을 기록하였다. VGG-16 모델의 성능은 회전 이미지의 경우에 유사도 결과값이 높은 Top-3와 Top-5에서 64%, 73.67%로 가장 높게 나타났다. 색상변경의 경우에는 Top-3와 Top-5에서 각각 86.33%, 90%로 가장 높게 나타났다.

VGG16을 활용한 미학습 농작물의 효율적인 질병 진단 모델 (An Efficient Disease Inspection Model for Untrained Crops Using VGG16)

  • 정석봉;윤협상
    • 한국시뮬레이션학회논문지
    • /
    • 제29권4호
    • /
    • pp.1-7
    • /
    • 2020
  • 농작물 질병에 대한 조기 진단은 질병의 확산을 억제하고 농업 생산성을 증대하는 데에 있어 중요한 역할을 하고 있다. 최근 합성곱신경망(convolutional neural network, CNN)과 같은 딥러닝 기법을 활용하여 농작물 잎사귀 이미지 데이터세트를 분석하여 농작물 질병을 진단하는 다수의 연구가 진행되었다. 이와 같은 연구를 통해 농작물 질병을 90% 이상의 정확도로 분류할 수 있지만, 사전 학습된 농작물 질병 외에는 진단할 수 없다는 한계를 갖는다. 본 연구에서는 미학습 농작물에 대해 효율적으로 질병 여부를 진단하는 모델을 제안한다. 이를 위해, 먼저 VGG16을 활용한 농작물 질병 분류기(CDC)를 구축하고 PlantVillage 데이터세트을 통해 학습하였다. 이어 미학습 농작물의 질병 진단이 가능하도록 수정된 질병 분류기(mCDC)의 구축방안을 제안하였다. 실험을 통해 본 연구에서 제안한 수정된 질병 분류기(mCDC)가 미학습 농작물의 질병진단에 대해 기존 질병 분류기(CDC)보다 높은 성능을 보임을 확인하였다.

변형 VGG 모델의 전처리를 이용한 부품도면 문자 인식 성능 개선 (Performance Improvement of Optical Character Recognition for Parts Book Using Pre-processing of Modified VGG Model)

  • 신희란;이상협;박장식;송종관
    • 한국전자통신학회논문지
    • /
    • 제14권2호
    • /
    • pp.433-438
    • /
    • 2019
  • 본 논문에서는 기계 서비스 부품 도면에서 숫자를 인식하기 위하여 입력 영상에 대한 전처리와 딥러닝 모델을 제안한다. 서비스 부품 도면의 숫자를 인식하는데 있는 지시선과 도형에 의한 오검출 또는 오인식을 개선하기 위하여 수학적 형태학 필터링 전처리를 한다. 숫자 인식을 위하여 VGG-16 모델을 축소 변형한 7 개의 계층을 가지는 VGG 모델을 적용함으로써 인식 성능을 개선한다. 서비스 부품 도면의 숫자 인식 실험 결과, 제안하는 방법이 인식률 95.57%, 정확도는 92.82%로 종래의 방법에 현저히 개선된 결과를 얻었다.

Faster R-CNN을 이용한 갓길 차로 위반 차량 검출 (Detecting Vehicles That Are Illegally Driving on Road Shoulders Using Faster R-CNN)

  • 고명진;박민주;여지호
    • 한국ITS학회 논문지
    • /
    • 제21권1호
    • /
    • pp.105-122
    • /
    • 2022
  • 최근 5년간 고속도로에서 발생한 사망 사고의 통계를 살펴보면, 고속도로 전체 사망자 중 갓길에서 발생한 사망자의 사망률이 약 3배 높은 것으로 나타났다. 이는 갓길 사고 발생 시 사고의 심각도가 매우 높다는 것을 보여주며, 갓길 차로 위반 차량을 단속하여 사고를 미연에 방지하는 것이 중요하다는 것을 시시한다. 이에 본 연구는 Faster R-CNN 기법을 활용하여 갓길 차로 위반 차량을 검출할 수 있는 방법을 제안하였다. Faster R-CNN 기법을 기반으로 차량을 탐지하고, 추가적인 판독 모듈을 구성하여 갓길 위반 여부를 판단하였다. 실험 및 평가를 위해 현실세계와 유사하게 상황을 재현할 수 있는 시뮬레이션 게임인 GTAV를 활용하였다. 이미지 형태의 학습데이터 1,800장과 평가데이터 800장을 가공 및 생성하였으며, ZFNet과 VGG16에서 Threshold 값의 변화에 따른 성능을 측정하였다. 그 결과 Threshold 0.8 기준 ZFNet 99.2%, Threshold 0.7 기준 VGG16 93.9%의 검출율을 보였고, 모델 별 평균 검출 속도는 ZFNet 0.0468초, VGG16 0.16초를 기록하여 ZFNet의 검출율이 약 7% 정도 높았으며, 검출 속도 또한 약 3.4배 빠름을 확인하였다. 이는 비교적 복잡하지 않은 네트워크에서도 입력 영상의 전처리 없이 빠른 속도로 갓길 차로 위반 차량의 검출이 가능함을 보여주며, 실제 영상자료 기반의 학습데이터셋을 충분히 확보한다면 지정 차로 위반 검출에 본 알고리즘을 활용할 수 있다는 것을 시사한다.