• 제목/요약/키워드: VGG Net

검색결과 86건 처리시간 0.024초

전이학습을 이용한 UNet 기반 건물 추출 딥러닝 모델의 학습률에 따른 성능 향상 분석 (Performance Improvement Analysis of Building Extraction Deep Learning Model Based on UNet Using Transfer Learning at Different Learning Rates)

  • 예철수;안영만;백태웅;김경태
    • 대한원격탐사학회지
    • /
    • 제39권5_4호
    • /
    • pp.1111-1123
    • /
    • 2023
  • 원격탐사 영상을 이용한 지표 속성의 변화를 모니터링 하기 위해서 딥러닝(deep learning) 모델을 이용한 의미론적 영상 분할 방법이 최근에 널리 사용되고 있다. 대표적인 의미론적 영상 분할 딥러닝 모델인 UNet 모델을 비롯하여 다양한 종류의 UNet 기반의 딥러닝 모델들의 성능 향상을 위해서는 학습 데이터셋의 크기가 충분해야 한다. 학습 데이터셋의 크기가 커지면 이를 처리하는 하드웨어 요구 사항도 커지고 학습에 소요되는 시간도 크게 증가되는 문제점이 발생한다. 이런 문제를 해결할 수 있는 방법인 전이학습은 대규모의 학습 데이터 셋이 없어도 모델 성능을 향상시킬 수 있는 효과적인 방법이다. 본 논문에서는 UNet 기반의 딥러닝 모델들을 대표적인 사전 학습 모델(pretrained model)인 VGG19 모델 및 ResNet50 모델과 결합한 세 종류의 전이학습 모델인 UNet-ResNet50 모델, UNet-VGG19 모델, CBAM-DRUNet-VGG19 모델을 제시하고 이를 건물 추출에 적용하여 전이학습 적용에 따른 정확도 향상을 분석하였다. 딥러닝 모델의 성능이 학습률의 영향을 많이 받는 점을 고려하여 학습률 설정에 따른 각 모델별 성능 변화도 함께 분석하였다. 건물 추출 결과의 성능 평가를 위해서 Kompsat-3A 데이터셋, WHU 데이터셋, INRIA 데이터셋을 사용하였으며 세 종류의 데이터셋에 대한 정확도 향상의 평균은 UNet 모델 대비 UNet-ResNet50 모델이 5.1%, UNet-VGG19 모델과 CBAM-DRUNet-VGG19 모델은 동일하게 7.2%의 결과를 얻었다.

앙상블 학습 알고리즘을 이용한 컨벌루션 신경망의 분류 성능 분석에 관한 연구 (A Study on Classification Performance Analysis of Convolutional Neural Network using Ensemble Learning Algorithm)

  • 박성욱;김종찬;김도연
    • 한국멀티미디어학회논문지
    • /
    • 제22권6호
    • /
    • pp.665-675
    • /
    • 2019
  • In this paper, we compare and analyze the classification performance of deep learning algorithm Convolutional Neural Network(CNN) ac cording to ensemble generation and combining techniques. We used several CNN models(VGG16, VGG19, DenseNet121, DenseNet169, DenseNet201, ResNet18, ResNet34, ResNet50, ResNet101, ResNet152, GoogLeNet) to create 10 ensemble generation combinations and applied 6 combine techniques(average, weighted average, maximum, minimum, median, product) to the optimal combination. Experimental results, DenseNet169-VGG16-GoogLeNet combination in ensemble generation, and the product rule in ensemble combination showed the best performance. Based on this, it was concluded that ensemble in different models of high benchmarking scores is another way to get good results.

A Comparative Study of the CNN Model for AD Diagnosis

  • Vyshnavi Ramineni;Goo-Rak Kwon
    • 스마트미디어저널
    • /
    • 제12권7호
    • /
    • pp.52-58
    • /
    • 2023
  • Alzheimer's disease is one type of dementia, the symptoms can be treated by detecting the disease at its early stages. Recently, many computer-aided diagnosis using magnetic resonance image(MRI) have shown a good results in the classification of AD. Taken these MRI images and feed to Free surfer software to extra the features. In consideration, using T1-weighted images and classifying using the convolution neural network (CNN) model are proposed. In this paper, taking the subjects from ADNI of subcortical and cortical features of 190 subjects. Consider the study to reduce the complexity of the model by using the single layer in the Res-Net, VGG, and Alex Net. Multi-class classification is used to classify four different stages, CN, EMCI, LMCI, AD. The following experiment shows for respective classification Res-Net, VGG, and Alex Net with the best accuracy with VGG at 96%, Res-Net, GoogLeNet and Alex Net at 91%, 93% and 89% respectively.

다양한 합성곱 신경망 방식을 이용한 모바일 기기를 위한 시작 단어 검출의 성능 비교 (Performance comparison of wake-up-word detection on mobile devices using various convolutional neural networks)

  • 김상홍;이보원
    • 한국음향학회지
    • /
    • 제39권5호
    • /
    • pp.454-460
    • /
    • 2020
  • 음성인식 기능을 제공하는 인공지능 비서들은 정확도가 뛰어난 클라우드 기반의 음성인식을 통해 동작한다. 클라우드 기반의 음성인식에서 시작 단어 인식은 대기 중인 기기를 활성화하는 데 중요한 역할을 한다. 본 논문에서는 공개 데이터셋인 구글의 Speech Commands 데이터셋을 사용하여 스펙트로그램 및 멜-주파수 캡스트럼 계수 특징을 입력으로 하여 모바일 기기에 대응한 저 연산 시작 단어 검출을 위한 합성곱 신경망의 성능을 비교한다. 본 논문에서 사용한 합성곱 신경망은 다층 퍼셉트론, 일반적인 합성곱 신경망, VGG16, VGG19, ResNet50, ResNet101, ResNet152, MobileNet이며, MobileNet의 성능을 유지하면서 모델 크기를 1/25로 줄인 네트워크도 제안한다.

딥러닝을 활용한 전시 정원 디자인 유사성 인지 모형 연구 (Development of Deep Recognition of Similarity in Show Garden Design Based on Deep Learning)

  • 조우윤;권진욱
    • 한국조경학회지
    • /
    • 제52권2호
    • /
    • pp.96-109
    • /
    • 2024
  • 본 연구는 딥러닝 모델 중 VGG-16 및 ResNet50 모델을 활용하여 전시 정원의 유사성 평가 방법을 제시하는 것에 목적이 있다. VGG-16과 ResNet50 모델을 기반으로 전시 정원 유사성 판단을 위한 모형을 개발하였고, 이를 DRG(deep recognition of similarity in show garden design)모형이라 한다. 평가를 위한 방법으로 GAP와 피어슨 상관계수를 활용한 알고리즘을 사용하여 모형을 구축하고 1순위(Top1), 3순위(Top3), 5순위(Top5)에서 원본 이미지와 유사한 이미지를 도출하는 총 개수 비교로 유사성의 정확도를 분석하였다. DRG 모형에 활용된 이미지 데이터는 국외 쇼몽가든페스티벌 전시 정원 총 278개 작품과 국내 정원박람회인 서울정원박람회 27개 작품 및 코리아가든쇼 전시정원 이미지 17개 작품이다. DRG모형을 활용하여 동일 집단과 타 집단간의 이미지 분석을 진행하였고, 이를 기반으로 전시 정원 유사성의 가이드라인을 제시하였다. 첫째, 전체 이미지 유사성 분석은 ResNet50 모델을 기반으로 하여 데이터 증강 기법을 적용하는 것이 유사성 도출에 적합하였다. 둘째, 내부 구조와 외곽형태에 중점을 둔 이미지 분석에서는 형태에 집중하기 위한 일정한 크기의 필터(16cm × 16cm)를 적용하여 이미지를 생성하고 VGG-16 모델을 적용하여 유사성을 비교하는 방법이 효과적임을 알 수 있었다. 이때, 이미지 크기는 448 × 448 픽셀이 효과적이며, 유채색의 원본 이미지를 기본으로 설정함을 제안하였다. 이러한 연구 결과를 토대로 전시 정원 유사성 판단에 대한 정량적 방법을 제안하고, 향후 다양한 분야와의 융합 연구를 통해 정원 문화의 지속적인 발전에 기여할 것으로 기대한다.

콘크리트 균열 탐지를 위한 딥 러닝 기반 CNN 모델 비교 (Comparison of Deep Learning-based CNN Models for Crack Detection)

  • 설동현;오지훈;김홍진
    • 대한건축학회논문집:구조계
    • /
    • 제36권3호
    • /
    • pp.113-120
    • /
    • 2020
  • The purpose of this study is to compare the models of Deep Learning-based Convolution Neural Network(CNN) for concrete crack detection. The comparison models are AlexNet, GoogLeNet, VGG16, VGG19, ResNet-18, ResNet-50, ResNet-101, and SqueezeNet which won ImageNet Large Scale Visual Recognition Challenge(ILSVRC). To train, validate and test these models, we constructed 3000 training data and 12000 validation data with 256×256 pixel resolution consisting of cracked and non-cracked images, and constructed 5 test data with 4160×3120 pixel resolution consisting of concrete images with crack. In order to increase the efficiency of the training, transfer learning was performed by taking the weight from the pre-trained network supported by MATLAB. From the trained network, the validation data is classified into crack image and non-crack image, yielding True Positive (TP), True Negative (TN), False Positive (FP), False Negative (FN), and 6 performance indicators, False Negative Rate (FNR), False Positive Rate (FPR), Error Rate, Recall, Precision, Accuracy were calculated. The test image was scanned twice with a sliding window of 256×256 pixel resolution to classify the cracks, resulting in a crack map. From the comparison of the performance indicators and the crack map, it was concluded that VGG16 and VGG19 were the most suitable for detecting concrete cracks.

Fight Detection in Hockey Videos using Deep Network

  • Mukherjee, Subham;Saini, Rajkumar;Kumar, Pradeep;Roy, Partha Pratim;Dogra, Debi Prosad;Kim, Byung-Gyu
    • Journal of Multimedia Information System
    • /
    • 제4권4호
    • /
    • pp.225-232
    • /
    • 2017
  • Understanding actions in videos is an important task. It helps in finding the anomalies present in videos such as fights. Detection of fights becomes more crucial when it comes to sports. This paper focuses on finding fight scenes in Hockey sport videos using blur & radon transform and convolutional neural networks (CNNs). First, the local motion within the video frames has been extracted using blur information. Next, fast fourier and radon transform have been applied on the local motion. The video frames with fight scene have been identified using transfer learning with the help of pre-trained deep learning model VGG-Net. Finally, a comparison of the methodology has been performed using feed forward neural networks. Accuracies of 56.00% and 75.00% have been achieved using feed forward neural network and VGG16-Net, respectively.

딥러닝과 의미론적 영상분할을 이용한 자동차 번호판의 숫자 및 문자영역 검출 (Detection of Number and Character Area of License Plate Using Deep Learning and Semantic Image Segmentation)

  • 이정환
    • 한국융합학회논문지
    • /
    • 제12권1호
    • /
    • pp.29-35
    • /
    • 2021
  • 자동차 번호판 인식은 지능형 교통시스템에서 핵심적인 역할을 담당한다. 따라서 효율적으로 자동차 번호판의 숫자 및 문자영역을 검출하는 것은 매우 중요한 과정이다. 본 연구에서는 딥러닝과 의미론적 영상분할 알고리즘을 적용하여 효과적으로 자동차 번호판의 번호영역을 검출하는 방법을 제안한다. 제안된 방법은 화소 투영과 같은 전처리과정 없이 번호판 영상에서 바로 숫자 및 문자영역을 검출하는 알고리즘이다. 번호판 영상은 도로 위에 설치된 고정 카메라로 부터 획득한 영상으로 날씨 및 조명변화 등을 모두 포함한 다양한 실제 상황에서 촬영된 것을 사용하였다. 입력 영상은 색상변화를 줄이기 위해 정규화하고 실험에 사용된 딥러닝 신경망 모델은 Vgg16, Vgg19, ResNet18 및 ResNet50이다. 제안방법의 성능을 검토하기 위해 번호판 영상 500장으로 실험하였다. 학습을 위해 300장을 할당하였으며 테스트용으로 200장을 사용하였다. 컴퓨터모의 실험결과 ResNet50을 사용할 때 가장 우수하였으며 95.77% 정확도를 얻었다.

CT영상에서의 AlexNet과 VggNet을 이용한 간암 병변 분류 연구 (Malignant and Benign Classification of Liver Tumor in CT according to Data pre-processing and Deep running model)

  • 최보혜;김영재;최승준;김광기
    • 대한의용생체공학회:의공학회지
    • /
    • 제39권6호
    • /
    • pp.229-236
    • /
    • 2018
  • Liver cancer is one of the highest incidents in the world, and the mortality rate is the second most common disease after lung cancer. The purpose of this study is to evaluate the diagnostic ability of deep learning in the classification of malignant and benign tumors in CT images of patients with liver tumors. We also tried to identify the best data processing methods and deep learning models for classifying malignant and benign tumors in the liver. In this study, CT data were collected from 92 patients (benign liver tumors: 44, malignant liver tumors: 48) at the Gil Medical Center. The CT data of each patient were used for cross-sectional images of 3,024 liver tumors. In AlexNet and VggNet, the average of the overall accuracy at each image size was calculated: the average of the overall accuracy of the $200{\times}200$ image size is 69.58% (AlexNet), 69.4% (VggNet), $150{\times}150$ image size is 71.54%, 67%, $100{\times}100$ image size is 68.79%, 66.2%. In conclusion, the overall accuracy of each does not exceed 80%, so it does not have a high level of accuracy. In addition, the average accuracy in benign was 90.3% and the accuracy in malignant was 46.2%, which is a significant difference between benign and malignant. Also, the time it takes for AlexNet to learn is about 1.6 times faster than VggNet but statistically no different (p > 0.05). Since both models are less than 90% of the overall accuracy, more research and development are needed, such as learning the liver tumor data using a new model, or the process of pre-processing the data images in other methods. In the future, it will be useful to use specialists for image reading using deep learning.

VGG16 과 U-Net 구조를 이용한 공력특성 예측 (Prediction of aerodynamics using VGG16 and U-Net)

  • 김보라;이승훈;장승현;황광일;윤민
    • 한국가시화정보학회지
    • /
    • 제20권3호
    • /
    • pp.109-116
    • /
    • 2022
  • The optimized design of airfoils is essential to increase the performance and efficiency of wind turbines. The aerodynamic characteristics of airfoils near the stall show large deviation from experiments and numerical simulations. Hence, it is needed to perform repetitive analysis of various shapes near the stall. To overcome this, the artificial intelligence is used and combined with numerical simulations. In this study, three types of airfoils are chosen, which are S809, S822 and SD7062 used in wind turbines. A convolutional neural network model is proposed in the combination of VGG16 and U-Net. Learning data are constructed by extracting pressure fields and aerodynamic characteristics through numerical analysis of 2D shape. Based on these data, the pressure field and lift coefficient of untrained airfoils are predicted. As a result, even in untrained airfoils, the pressure field is accurately predicted with an error of within 0.04%.