• 제목/요약/키워드: Inception Network

검색결과 77건 처리시간 0.019초

군 폐쇄망 환경에서의 모의 네트워크 데이터 셋 평가 방법 연구 (A study on evaluation method of NIDS datasets in closed military network)

  • 박용빈;신성욱;이인섭
    • 인터넷정보학회논문지
    • /
    • 제21권2호
    • /
    • pp.121-130
    • /
    • 2020
  • 이 논문은 Generative Adversarial Network (GAN) 을 이용하여 증진된 이미지 데이터를 평가방식인 Inception Score (IS) 와 Frechet Inception Distance (FID) 계산시 inceptionV3 모델을 활용 하는 방식을 응용하여, 군 폐쇄망 네트워크 데이터를 이미지 형태로 평가하는 방법을 제안한다. 기존 존재하는 이미지 분류 모델들에 레이어를 추가하여 IncetptionV3 모델을 대체하고, 네트워크 데이터를 이미지로 변환 및 학습 하는 방법에 변화를 주어 다양한 시뮬레이션을 진행하였다. 실험 결과, atan을 이용해 8 * 8 이미지로 변환한 데이터에 대해 1개의 덴스 레이어 (Dense Layer)를 추가한 Densenet121를 학습시킨 모델이 네트워크 데이터셋 평가 모델로서 가장 적합하다는 결과를 도출하였다.

3D Res-Inception Network Transfer Learning for Multiple Label Crowd Behavior Recognition

  • Nan, Hao;Li, Min;Fan, Lvyuan;Tong, Minglei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권3호
    • /
    • pp.1450-1463
    • /
    • 2019
  • The problem towards crowd behavior recognition in a serious clustered scene is extremely challenged on account of variable scales with non-uniformity. This paper aims to propose a crowed behavior classification framework based on a transferring hybrid network blending 3D res-net with inception-v3. First, the 3D res-inception network is presented so as to learn the augmented visual feature of UCF 101. Then the target dataset is applied to fine-tune the network parameters in an attempt to classify the behavior of densely crowded scenes. Finally, a transferred entropy function is used to calculate the probability of multiple labels in accordance with these features. Experimental results show that the proposed method could greatly improve the accuracy of crowd behavior recognition and enhance the accuracy of multiple label classification.

국방 데이터를 활용한 인셉션 네트워크 파생 이미지 분류 AI의 설명 가능성 연구 (A Study on the Explainability of Inception Network-Derived Image Classification AI Using National Defense Data)

  • 조강운
    • 한국군사과학기술학회지
    • /
    • 제27권2호
    • /
    • pp.256-264
    • /
    • 2024
  • In the last 10 years, AI has made rapid progress, and image classification, in particular, are showing excellent performance based on deep learning. Nevertheless, due to the nature of deep learning represented by a black box, it is difficult to actually use it in critical decision-making situations such as national defense, autonomous driving, medical care, and finance due to the lack of explainability of judgement results. In order to overcome these limitations, in this study, a model description algorithm capable of local interpretation was applied to the inception network-derived AI to analyze what grounds they made when classifying national defense data. Specifically, we conduct a comparative analysis of explainability based on confidence values by performing LIME analysis from the Inception v2_resnet model and verify the similarity between human interpretations and LIME explanations. Furthermore, by comparing the LIME explanation results through the Top1 output results for Inception v3, Inception v2_resnet, and Xception models, we confirm the feasibility of comparing the efficiency and availability of deep learning networks using XAI.

Deep Convolutional Neural Network(DCNN)을 이용한 계층적 농작물의 종류와 질병 분류 기법 (A Hierarchical Deep Convolutional Neural Network for Crop Species and Diseases Classification)

  • ;나형철;류관희
    • 한국멀티미디어학회논문지
    • /
    • 제25권11호
    • /
    • pp.1653-1671
    • /
    • 2022
  • Crop diseases affect crop production, more than 30 billion USD globally. We proposed a classification study of crop species and diseases using deep learning algorithms for corn, cucumber, pepper, and strawberry. Our study has three steps of species classification, disease detection, and disease classification, which is noteworthy for using captured images without additional processes. We designed deep learning approach of deep learning convolutional neural networks based on Mask R-CNN model to classify crop species. Inception and Resnet models were presented for disease detection and classification sequentially. For classification, we trained Mask R-CNN network and achieved loss value of 0.72 for crop species classification and segmentation. For disease detection, InceptionV3 and ResNet101-V2 models were trained for nodes of crop species on 1,500 images of normal and diseased labels, resulting in the accuracies of 0.984, 0.969, 0.956, and 0.962 for corn, cucumber, pepper, and strawberry by InceptionV3 model with higher accuracy and AUC. For disease classification, InceptionV3 and ResNet 101-V2 models were trained for nodes of crop species on 1,500 images of diseased label, resulting in the accuracies of 0.995 and 0.992 for corn and cucumber by ResNet101 with higher accuracy and AUC whereas 0.940 and 0.988 for pepper and strawberry by Inception.

딥러닝을 이용한 인스타그램 이미지 분류 (Instagram image classification with Deep Learning)

  • 정노권;조수선
    • 인터넷정보학회논문지
    • /
    • 제18권5호
    • /
    • pp.61-67
    • /
    • 2017
  • 본 논문에서는 딥러닝의 회선신경망을 이용한 실제 소셜 네트워크 상의 이미지 분류가 얼마나 효과적인지 알아보기 위한 실험을 수행하고, 그 결과와 그를 통해 알게 된 교훈에 대해 소개한다. 이를 위해 ImageNet Large Scale Visual Recognition Challenge(ILSVRC)의 2012년 대회와 2015년 대회에서 각각 우승을 차지한 AlexNet 모델과 ResNet 모델을 이용하였다. 평가를 위한 테스트 셋으로 인스타그램에서 수집한 이미지를 사용하였으며, 12개의 카테고리, 총 240개의 이미지로 구성되어 있다. 또한, Inception V3모델을 이용하여 fine-tuning을 실시하고, 그 결과를 비교하였다. AlexNet과 ResNet, Inception V3, fine-tuned Inception V3 이 네 가지 모델에 대한 Top-1 error rate들은 각각 49.58%, 40.42%, 30.42% 그리고 5.00%로 나타났으며, Top-5 error rate들은 각각 35.42%, 25.00%, 20.83% 그리고 0.00%로 나타났다.

임베디드 보드에서 실시간 의미론적 분할을 위한 심층 신경망 구조 (A Deep Neural Network Architecture for Real-Time Semantic Segmentation on Embedded Board)

  • 이준엽;이영완
    • 정보과학회 논문지
    • /
    • 제45권1호
    • /
    • pp.94-98
    • /
    • 2018
  • 본 논문은 자율주행을 위한 실시간 의미론적 분할 방법으로 최적화된 심층 신경망 구조인 Wide Inception ResNet (WIR Net)을 제안한다. 신경망 구조는 Residual connection과 Inception module을 적용하여 특징을 추출하는 인코더와 Transposed convolution과 낮은 층의 특징 맵을 사용하여 해상도를 높이는 디코더로 구성하였고 ELU 활성화 함수를 적용함으로써 성능을 올렸다. 또한 신경망의 전체 층수를 줄이고 필터 수를 늘리는 방법을 통해 성능을 최적화하였다. 성능평가는 NVIDIA Geforce gtx 1080과 TX1 보드를 사용하여 주행환경의 Cityscapes 데이터에 대해 클래스와 카테고리별 IoU를 평가하였다. 실험 결과를 통해 클래스 IoU 53.4, 카테고리 IoU 81.8의 정확도와 TX1 보드에서 $640{\times}360$, $720{\times}480$ 해상도 영상처리에 17.8fps, 13.0fps의 실행속도를 보여주는 것을 확인하였다.

인셉션 모듈 기반 컨볼루션 신경망을 이용한 얼굴 연령 예측 (Facial Age Estimation Using Convolutional Neural Networks Based on Inception Modules)

  • ;조현종
    • 전기학회논문지
    • /
    • 제67권9호
    • /
    • pp.1224-1231
    • /
    • 2018
  • Automatic age estimation has been used in many social network applications, practical commercial applications, and human-computer interaction visual-surveillance biometrics. However, it has rarely been explored. In this paper, we propose an automatic age estimation system, which includes face detection and convolutional deep learning based on an inception module. The latter is a 22-layer-deep network that serves as the particular category of the inception design. To evaluate the proposed approach, we use 4,000 images of eight different age groups from the Adience age dataset. k-fold cross-validation (k = 5) is applied. A comparison of the performance of the proposed work and recent related methods is presented. The results show that the proposed method significantly outperforms existing methods in terms of the exact accuracy and off-by-one accuracy. The off-by-one accuracy is when the result is off by one adjacent age label to the above or below. For the exact accuracy, the age label of "60+" is classified with the highest accuracy of 76%.

사전훈련된 모델구조를 이용한 심층신경망 기반 유방암 조직병리학적 이미지 분류 (Breast Cancer Histopathological Image Classification Based on Deep Neural Network with Pre-Trained Model Architecture)

  • 비키 무뎅;이언진;최세운
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.399-401
    • /
    • 2022
  • 유방 악성 상태를 분류하기 위한 최종 진단은 침습적 생검을 이용한 현미경 분석을 통해 확인이 가능하나, 분석을 위해 일정 시간과 비용이 부과되며, 병리학적 지식을 보유한 전문가가 필요하다. 이러한 문제를 극복하기 위해, 딥 러닝을 활용한 진단 기법은 조직병리학적 이미지에서 유방암을 양성 및 악성으로 분류에 효율적인 방법으로 고려된다. 본 연구는 유방암 조직병리학적 이미지를 40배 확대한 BreaKHIS 데이터 세트를 사용하여 양성 및 악성으로 분류하였으며, 100% 미세 조정 체계와 Adagrad를 이용한 최적화로 사전 훈련된 컨볼루션 신경망 모델 아키텍처를 사용하였다. 사전 훈련된 아키텍처는 InceptionResNetV2 모델을 사용하여 마지막 계층을 고밀도 계층과 드롭아웃 계층으로 대체하여 수정된 InceptionResNetV2를 생성하도록 구성되었다. 훈련 손실 0.25%, 훈련 정확도 99.96%, 검증 손실 3.10%, 검증 정확도 99.41%, 테스트 손실 8.46%와 테스트 정확도 98.75%를 입증한 결과는 수정된 InceptionResNetV2 모델이 조직병리학적 이미지에서 유방 악성 유형을 예측하는 데 신뢰할 수 있음을 보여주었다. 향후 연구는 k-폴드 교차 검증, 최적화, 모델, 초 매개 변수 최적화 및 100×, 200× 및 400× 배율에 대한 분류에 초점을 맞추어 추가실험이 필요하다.

  • PDF

Aircraft Recognition from Remote Sensing Images Based on Machine Vision

  • Chen, Lu;Zhou, Liming;Liu, Jinming
    • Journal of Information Processing Systems
    • /
    • 제16권4호
    • /
    • pp.795-808
    • /
    • 2020
  • Due to the poor evaluation indexes such as detection accuracy and recall rate when Yolov3 network detects aircraft in remote sensing images, in this paper, we propose a remote sensing image aircraft detection method based on machine vision. In order to improve the target detection effect, the Inception module was introduced into the Yolov3 network structure, and then the data set was cluster analyzed using the k-means algorithm. In order to obtain the best aircraft detection model, on the basis of our proposed method, we adjusted the network parameters in the pre-training model and improved the resolution of the input image. Finally, our method adopted multi-scale training model. In this paper, we used remote sensing aircraft dataset of RSOD-Dataset to do experiments, and finally proved that our method improved some evaluation indicators. The experiment of this paper proves that our method also has good detection and recognition ability in other ground objects.

전이학습에 방법에 따른 컨벌루션 신경망의 영상 분류 성능 비교 (Comparison of Image Classification Performance in Convolutional Neural Network according to Transfer Learning)

  • 박성욱;김도연
    • 한국멀티미디어학회논문지
    • /
    • 제21권12호
    • /
    • pp.1387-1395
    • /
    • 2018
  • Core algorithm of deep learning Convolutional Neural Network(CNN) shows better performance than other machine learning algorithms. However, if there is not sufficient data, CNN can not achieve satisfactory performance even if the classifier is excellent. In this situation, it has been proven that the use of transfer learning can have a great effect. In this paper, we apply two transition learning methods(freezing, retraining) to three CNN models(ResNet-50, Inception-V3, DenseNet-121) and compare and analyze how the classification performance of CNN changes according to the methods. As a result of statistical significance test using various evaluation indicators, ResNet-50, Inception-V3, and DenseNet-121 differed by 1.18 times, 1.09 times, and 1.17 times, respectively. Based on this, we concluded that the retraining method may be more effective than the freezing method in case of transition learning in image classification problem.