• 제목/요약/키워드: VGG16 and Inception V3

검색결과 21건 처리시간 0.021초

합성곱 신경망을 이용한 '미황' 복숭아 과실의 성숙도 분류 (Grading of Harvested 'Mihwang' Peach Maturity with Convolutional Neural Network)

  • 신미희;장경은;이슬기;조정건;송상준;김진국
    • 생물환경조절학회지
    • /
    • 제31권4호
    • /
    • pp.270-278
    • /
    • 2022
  • 본 연구는 무대재배 복숭아 '미황'을 대상으로 성숙기간 중 RGB 영상을 취득한 후 다양한 품질 지표를 측정하고 이를 딥러닝 기술에 적용하여 복숭아 과실 숙도 분류의 가능성을 탐색하고자 실시하였다. 취득 영상 730개의 데이터를 training과 validation에 사용하였고, 170개는 최종테스트 이미지로 사용하였다. 본 연구에서는 딥러닝을 활용한 성숙도 자동 분류를 위하여 조사된 품질 지표 중 경도, Hue 값, a*값을 최종 선발하여 이미지를 수동으로 미성숙(immature), 성숙(mature), 과숙(over mature)으로 분류하였다. 이미지 자동 분류는 CNN(Convolutional Neural Networks, 컨볼루션 신경망) 모델 중에서 이미지 분류 및 탐지에서 우수한 성능을 보이고 있는 VGG16, GoogLeNet의 InceptionV3 두종류의 모델을 사용하여 복숭아 품질 지표 값의 분류 이미지별 성능을 측정하였다. 딥러닝을 통한 성숙도 이미지 분석 결과, VGG16과 InceptionV3 모델에서 Hue_left 특성이 각각 87.1%, 83.6%의 성능(F1 기준)을 나타냈고, 그에 비해 Firmness 특성이 각각 72.2%, 76.9%를 나타냈고, Loss율이 각각 54.3%, 62.1%로 Firmness를 기준으로 한 성숙도 분류는 적용성이 낮음을 확인하였다. 추후에 더 많은 종류의 이미지와 다양한 품질 지표를 가지고 학습이 진행된다면 이전 연구보다 향상된 정확도와 세밀한 성숙도 판별이 가능할 것으로 판단되었다.

드론 식별 시스템을 위한 합성곱 신경망 기반 이미지 분류 모델 성능 비교 (Performance Comparison of CNN-Based Image Classification Models for Drone Identification System)

  • 김영완;조대균;박건우
    • 문화기술의 융합
    • /
    • 제10권4호
    • /
    • pp.639-644
    • /
    • 2024
  • 최근 전장에서의 드론 활용이 정찰뿐만 아니라 화력 지원까지 확장됨에 따라, 드론을 조기에 자동으로 식별하는 기술의 중요성이 더욱 증가하고 있다. 본 연구에서는 드론과 크기 및 외형이 유사한 다른 공중 표적들인 새와 풍선을 구분할 수 있는 효과적인 이미지 분류 모델을 확인하기 위해, 인터넷에서 수집한 3,600장의 이미지 데이터셋을 사용하고, 세 가지 사전 학습된 합성곱 신경망 모델(VGG16, ResNet50, InceptionV3)의 특징 추출기능과 추가 분류기를 결합한 전이 학습 접근 방식을 채택하였다. 즉, 가장 우수한 모델을 확인하기 위해 세 가지 사전 학습된 모델(VGG16, ResNet50, InceptionV3)의 성능을 비교 분석하였으며, 실험 결과 InceptionV3 모델이 99.66%의 최고 정확도를 나타냄을 확인하였다. 본 연구는 기존의 합성곱 신경망 모델과 전이 학습을 활용하여 드론을 식별하는 새로운 시도로써, 드론 식별 기술의 발전에 크게 기여 할 것으로 기대된다.

Automatic detection of icing wind turbine using deep learning method

  • Hacıefendioglu, Kemal;Basaga, Hasan Basri;Ayas, Selen;Karimi, Mohammad Tordi
    • Wind and Structures
    • /
    • 제34권6호
    • /
    • pp.511-523
    • /
    • 2022
  • Detecting the icing on wind turbine blades built-in cold regions with conventional methods is always a very laborious, expensive and very difficult task. Regarding this issue, the use of smart systems has recently come to the agenda. It is quite possible to eliminate this issue by using the deep learning method, which is one of these methods. In this study, an application has been implemented that can detect icing on wind turbine blades images with visualization techniques based on deep learning using images. Pre-trained models of Resnet-50, VGG-16, VGG-19 and Inception-V3, which are well-known deep learning approaches, are used to classify objects automatically. Grad-CAM, Grad-CAM++, and Score-CAM visualization techniques were considered depending on the deep learning methods used to predict the location of icing regions on the wind turbine blades accurately. It was clearly shown that the best visualization technique for localization is Score-CAM. Finally, visualization performance analyses in various cases which are close-up and remote photos of a wind turbine, density of icing and light were carried out using Score-CAM for Resnet-50. As a result, it is understood that these methods can detect icing occurring on the wind turbine with acceptable high accuracy.

인공지능(AI) 모델을 사용한 차나무 잎의 병해 분류 (Tea Leaf Disease Classification Using Artificial Intelligence (AI) Models)

  • 피우미 사우미야 쿠마라테나;조영열
    • 생물환경조절학회지
    • /
    • 제33권1호
    • /
    • pp.1-11
    • /
    • 2024
  • 이 연구에서는 Inception V3, SqueezeNet(local), VGG-16, Painters 및 DeepLoc의 다섯 가지 인공지능(AI) 모델을 사용하여 차나무 잎의 병해를 분류하였다. 여덟 가지 이미지 카테고리를 사용하였는데, healthy, algal leaf spot, anthracnose, bird's eye spot, brown blight, gray blight, red leaf spot, and white spot였다. 이 연구에서 사용한 소프트웨어는 데이터 시각적 프로그래밍을 위한 파이썬 라이브러리로 작동하는 Orange3였다. 이는 데이터를 시각적으로 조작하여 분석하기 위한 워크플로를 생성하는 인터페이스를 통해 작동되었다. 각 AI 모델의 정확도로 최적의 AI 모델을 선택하였다. 모든 모델은 Adam 최적화, ReLU 활성화 함수, 은닉 레이어에 100개의 뉴런, 신경망의 최대 반복 횟수가 200회, 그리고 0.0001 정규화를 사용하여 훈련되었다. Orange3 기능을 확장하기 위해 새로운 이미지 분석 Add-on을 설치하였다. 훈련 모델에서는 이미지 가져오기(import image), 이미지 임베딩(image embedding), 신경망(neural network), 테스트 및 점수(test and score), 혼동 행렬(confusion matrix) 위젯이 사용되었으며, 예측에는 이미지 가져오기(import image), 이미지 임베딩(image embedding), 예측(prediction) 및 이미지 뷰어(image viewer) 위젯이 사용되었다. 다섯 AI 모델[Inception V3, SqueezeNet(로컬), VGG-16, Painters 및 DeepLoc]의 신경망 정밀도는 각각 0.807, 0.901, 0.780, 0.800 및 0.771이었다. 결론적으로 SqueezeNet(local) 모델이 차나무 잎 이미지를 사용하여 차병해 탐색을 위한 최적 AI 모델로 선택되었으며, 정확도와 혼동 행렬을 통해 뛰어난 성능을 보였다.

GPR B-scan 회색조 이미지의 싱크홀 특성추출 최적 컨볼루션 신경망 백본 연구 (A Study on the Optimal Convolution Neural Network Backbone for Sinkhole Feature Extraction of GPR B-scan Grayscale Images)

  • 박영훈
    • 대한토목학회논문집
    • /
    • 제44권3호
    • /
    • pp.385-396
    • /
    • 2024
  • GPR을 활용한 싱크홀 감지 정확도 강화를 위하여 본 연구에서는 GPR B-scan 회색조 이미지의 싱크홀 특성을 최적으로 추출할 수 있는 컨볼루션 신경망을 도출하였다. 사전 훈련된 컨볼루션 신경망이 바닐라 컨볼루션 신경망보다 2배 이상의 효용성을 가지는 것으로 평가되었다. 사전 훈련된 컨볼루션 신경망에 있어서 빠른 특성 추출이 특성 추출보다 낮은 과대적합을 발생시키는 것으로 나타났다. 아키텍처 종류와 시뮬레이션 조건에 따라 top-1 검증 정확도 크기와 발생 조건 및 연산 시간이 상이한 것으로 분석되어, 사전 훈련된 컨볼루션 신경망 중 InceptionV3가 GPR B-scan 회색조 이미지의 싱크홀 감지에 가장 강건한 것으로 평가되었다. Top-1 검증 정확도와 아키텍처 효율 지수를 동시에 고려할 경우 VGG19와 VGG16가 GPR B-scan 회색조 이미지의 싱크홀 특성 추출 백본으로 높은 효율성을 가지는 것으로 분석되었으며, GPR 장비에 탑재하여 실시간으로 싱크홀 특성 추출을 할 경우에는 MobileNetV3-Large 백본이 적합한 것으로 나타났다.

Waste Classification by Fine-Tuning Pre-trained CNN and GAN

  • Alsabei, Amani;Alsayed, Ashwaq;Alzahrani, Manar;Al-Shareef, Sarah
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.65-70
    • /
    • 2021
  • Waste accumulation is becoming a significant challenge in most urban areas and if it continues unchecked, is poised to have severe repercussions on our environment and health. The massive industrialisation in our cities has been followed by a commensurate waste creation that has become a bottleneck for even waste management systems. While recycling is a viable solution for waste management, it can be daunting to classify waste material for recycling accurately. In this study, transfer learning models were proposed to automatically classify wastes based on six materials (cardboard, glass, metal, paper, plastic, and trash). The tested pre-trained models were ResNet50, VGG16, InceptionV3, and Xception. Data augmentation was done using a Generative Adversarial Network (GAN) with various image generation percentages. It was found that models based on Xception and VGG16 were more robust. In contrast, models based on ResNet50 and InceptionV3 were sensitive to the added machine-generated images as the accuracy degrades significantly compared to training with no artificial data.

Comparison of Fine-Tuned Convolutional Neural Networks for Clipart Style Classification

  • Lee, Seungbin;Kim, Hyungon;Seok, Hyekyoung;Nang, Jongho
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제9권4호
    • /
    • pp.1-7
    • /
    • 2017
  • Clipart is artificial visual contents that are created using various tools such as Illustrator to highlight some information. Here, the style of the clipart plays a critical role in determining how it looks. However, previous studies on clipart are focused only on the object recognition [16], segmentation, and retrieval of clipart images using hand-craft image features. Recently, some clipart classification researches based on the style similarity using CNN have been proposed, however, they have used different CNN-models and experimented with different benchmark dataset so that it is very hard to compare their performances. This paper presents an experimental analysis of the clipart classification based on the style similarity with two well-known CNN-models (Inception Resnet V2 [13] and VGG-16 [14] and transfers learning with the same benchmark dataset (Microsoft Style Dataset 3.6K). From this experiment, we find out that the accuracy of Inception Resnet V2 is better than VGG for clipart style classification because of its deep nature and convolution map with various sizes in parallel. We also find out that the end-to-end training can improve the accuracy more than 20% in both CNN models.

Early Detection of Rice Leaf Blast Disease using Deep-Learning Techniques

  • Syed Rehan Shah;Syed Muhammad Waqas Shah;Hadia Bibi;Mirza Murad Baig
    • International Journal of Computer Science & Network Security
    • /
    • 제24권4호
    • /
    • pp.211-221
    • /
    • 2024
  • Pakistan is a top producer and exporter of high-quality rice, but traditional methods are still being used for detecting rice diseases. This research project developed an automated rice blast disease diagnosis technique based on deep learning, image processing, and transfer learning with pre-trained models such as Inception V3, VGG16, VGG19, and ResNet50. The modified connection skipping ResNet 50 had the highest accuracy of 99.16%, while the other models achieved 98.16%, 98.47%, and 98.56%, respectively. In addition, CNN and an ensemble model K-nearest neighbor were explored for disease prediction, and the study demonstrated superior performance and disease prediction using recommended web-app approaches.

구강암 조기발견을 위한 영상인식 시스템 (Image Recognition System for Early Detection of Oral Cancer)

  • 에드워드 카야디;송미화
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.309-311
    • /
    • 2022
  • Oral cancer is a type of cancer that has a high possibility to be cured if it is threatened earlier. The convolutional neural network is very popular for being a good algorithm for image recognition. In this research, we try to compare 4 different architectures of the CNN algorithm: Convnet, VGG16, Inception V3, and Resnet. As we compared those 4 architectures we found that VGG16 and Resnet model has better performance with an 85.35% accuracy rate compared to the other 3 architectures. In the future, we are sure that image recognition can be more developed to identify oral cancer earlier.

공연예술에서 광고포스터의 이미지 특성을 활용한 딥러닝 기반 관객예측 (Deep Learning-Based Box Office Prediction Using the Image Characteristics of Advertising Posters in Performing Arts)

  • 조유정;강경표;권오병
    • 한국전자거래학회지
    • /
    • 제26권2호
    • /
    • pp.19-43
    • /
    • 2021
  • 공연예술 기관에서의 공연에 대한 흥행 예측은 공연예술 산업 및 기관에서 매우 흥미롭고도 중요한 문제이다. 이를 위해 출연진, 공연장소, 가격 등 정형화된 데이터를 활용한 전통적인 예측방법론, 데이터마이닝 방법론이 제시되어 왔다. 그런데 관객들은 공연안내 포스터에 의하여 관람 의도가 소구되는 경향이 있음에도 불구하고, 포스터 이미지 분석을 통한 흥행 예측은 거의 시도되지 않았다. 그러나 최근 이미지를 통해 판별하는 CNN 계열의 딥러닝 방법이 개발되면서 포스터 분석의 가능성이 열렸다. 이에 본 연구의 목적은 공연 관련 포스터 이미지를 통해 흥행을 예측할 수 있는 딥러닝 방법을 제안하는 것이다. 이를 위해 KOPIS 공연예술 통합전산망에 공개된 포스터 이미지를 학습데이터로 하여 Pure CNN, VGG-16, Inception-v3, ResNet50 등 딥러닝 알고리즘을 통해 예측을 수행하였다. 또한 공연 관련 정형데이터를 활용한 전통적 회귀분석 방법론과의 앙상블을 시도하였다. 그 결과 흥행 예측 정확도 85%를 상회하는 높은 판별 성과를 보였다. 본 연구는 공연예술 분야에서 이미지 정보를 활용하여 흥행을 예측하는 첫 시도이며 본 연구에서 제안한 방법은 연극 외에 영화, 기관 홍보, 기업 제품 광고 등 포스터 기반의 광고를 하는 영역으로도 적용이 가능할 것이다.