• 제목/요약/키워드: inception-V3

검색결과 77건 처리시간 0.029초

3D Res-Inception Network Transfer Learning for Multiple Label Crowd Behavior Recognition

  • Nan, Hao;Li, Min;Fan, Lvyuan;Tong, Minglei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권3호
    • /
    • pp.1450-1463
    • /
    • 2019
  • The problem towards crowd behavior recognition in a serious clustered scene is extremely challenged on account of variable scales with non-uniformity. This paper aims to propose a crowed behavior classification framework based on a transferring hybrid network blending 3D res-net with inception-v3. First, the 3D res-inception network is presented so as to learn the augmented visual feature of UCF 101. Then the target dataset is applied to fine-tune the network parameters in an attempt to classify the behavior of densely crowded scenes. Finally, a transferred entropy function is used to calculate the probability of multiple labels in accordance with these features. Experimental results show that the proposed method could greatly improve the accuracy of crowd behavior recognition and enhance the accuracy of multiple label classification.

사전훈련된 모델구조를 이용한 심층신경망 기반 유방암 조직병리학적 이미지 분류 (Breast Cancer Histopathological Image Classification Based on Deep Neural Network with Pre-Trained Model Architecture)

  • 비키 무뎅;이언진;최세운
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.399-401
    • /
    • 2022
  • 유방 악성 상태를 분류하기 위한 최종 진단은 침습적 생검을 이용한 현미경 분석을 통해 확인이 가능하나, 분석을 위해 일정 시간과 비용이 부과되며, 병리학적 지식을 보유한 전문가가 필요하다. 이러한 문제를 극복하기 위해, 딥 러닝을 활용한 진단 기법은 조직병리학적 이미지에서 유방암을 양성 및 악성으로 분류에 효율적인 방법으로 고려된다. 본 연구는 유방암 조직병리학적 이미지를 40배 확대한 BreaKHIS 데이터 세트를 사용하여 양성 및 악성으로 분류하였으며, 100% 미세 조정 체계와 Adagrad를 이용한 최적화로 사전 훈련된 컨볼루션 신경망 모델 아키텍처를 사용하였다. 사전 훈련된 아키텍처는 InceptionResNetV2 모델을 사용하여 마지막 계층을 고밀도 계층과 드롭아웃 계층으로 대체하여 수정된 InceptionResNetV2를 생성하도록 구성되었다. 훈련 손실 0.25%, 훈련 정확도 99.96%, 검증 손실 3.10%, 검증 정확도 99.41%, 테스트 손실 8.46%와 테스트 정확도 98.75%를 입증한 결과는 수정된 InceptionResNetV2 모델이 조직병리학적 이미지에서 유방 악성 유형을 예측하는 데 신뢰할 수 있음을 보여주었다. 향후 연구는 k-폴드 교차 검증, 최적화, 모델, 초 매개 변수 최적화 및 100×, 200× 및 400× 배율에 대한 분류에 초점을 맞추어 추가실험이 필요하다.

  • PDF

전이 학습과 데이터 증강을 이용한 너구리와 라쿤 분류 (Classification of Raccoon dog and Raccoon with Transfer Learning and Data Augmentation)

  • 박동민;조영석;염석원
    • 융합신호처리학회논문지
    • /
    • 제24권1호
    • /
    • pp.34-41
    • /
    • 2023
  • 최근 인간의 활동 범위가 증가함에 따라 외래종의 유입이 잦아지고 있고 환경에 적응하지 못해 유기된 외래종 중 2020년부터 유해 지정 동물로 지정된 라쿤이 문제가 되고 있다. 라쿤은 국내 토종 너구리와 크기나 생김새가 유사하여 일반적으로 포획하는데 있어서 구분이 필요하다. 이를 해결하기 위해서 이미지 분류에 특화된 CNN 딥러닝 모델인 VGG19, ResNet152V2, InceptionV3, InceptionResNet, NASNet을 사용한다. 학습에 사용할 파라미터는 많은 양의 데이터인 ImageNet으로 미리 학습된 파라미터를 전이 학습하여 이용한다. 너구리와 라쿤 데이터셋에서 동물의 외형적인 특징으로 분류하기 위해서 이미지를 회색조로 변환한 후 밝기를 정규화하였으며, 조정된 데이터셋에 충분한 학습을 위한 데이터를 만들기 위해 좌우 반전, 회전, 확대/축소, 이동을 이용하여 증강 기법을 적용하였다. 증강하지 않은 데이터셋은 FCL을 1층으로, 증강된 데이터셋은 4층으로 구성하여 진행하였다. 여러 가지 증강된 데이터셋의 정확도를 비교한 결과, 증강을 많이 할수록 성능이 증가함을 확인하였다.

Dog-Species Classification through CycleGAN and Standard Data Augmentation

  • Chan, Park;Nammee, Moon
    • Journal of Information Processing Systems
    • /
    • 제19권1호
    • /
    • pp.67-79
    • /
    • 2023
  • In the image field, data augmentation refers to increasing the amount of data through an editing method such as rotating or cropping a photo. In this study, a generative adversarial network (GAN) image was created using CycleGAN, and various colors of dogs were reflected through data augmentation. In particular, dog data from the Stanford Dogs Dataset and Oxford-IIIT Pet Dataset were used, and 10 breeds of dog, corresponding to 300 images each, were selected. Subsequently, a GAN image was generated using CycleGAN, and four learning groups were established: 2,000 original photos (group I); 2,000 original photos + 1,000 GAN images (group II); 3,000 original photos (group III); and 3,000 original photos + 1,000 GAN images (group IV). The amount of data in each learning group was augmented using existing data augmentation methods such as rotating, cropping, erasing, and distorting. The augmented photo data were used to train the MobileNet_v3_Large, ResNet-152, InceptionResNet_v2, and NASNet_Large frameworks to evaluate the classification accuracy and loss. The top-3 accuracy for each deep neural network model was as follows: MobileNet_v3_Large of 86.4% (group I), 85.4% (group II), 90.4% (group III), and 89.2% (group IV); ResNet-152 of 82.4% (group I), 83.7% (group II), 84.7% (group III), and 84.9% (group IV); InceptionResNet_v2 of 90.7% (group I), 88.4% (group II), 93.3% (group III), and 93.1% (group IV); and NASNet_Large of 85% (group I), 88.1% (group II), 91.8% (group III), and 92% (group IV). The InceptionResNet_v2 model exhibited the highest image classification accuracy, and the NASNet_Large model exhibited the highest increase in the accuracy owing to data augmentation.

프로펠러 설계 및 선미 부가물 수정에 따른 캐비테이션 초기발생 선속(CIS) 성능 향상 연구 (Study of the Cavitation Inception Speed (CIS) Improvement Through the Propeller Design and the Stern Appendage Modification)

  • 안종우;김건도;백부근;박영하;설한신
    • 대한조선학회논문집
    • /
    • 제60권4호
    • /
    • pp.231-239
    • /
    • 2023
  • In order to improve the propeller Cavitation Inception Speed (CIS) performance, it needs to modify the propeller geometry and the wake distribution that flows into the propeller. In the previous study, the twisted angles of the V-strut were modified to improve propeller CIS, cavitation behavior and pressure fluctuation performances. Then the propeller behind the modified V-strut (New strut) showed better cavitation characteristics than that behind the existing V-strut (Old strut). However, the CIS of Suction Side Tip Vortex (SSTV) and Pressure Side Tp Vortex (PSTV) showed a big difference at behind each V-strut. In this study, the balance design is conducted to minimize the difference between SSTV CIS and PSTV CIS at behind each V-strut. To improve the propeller CIS performance, 1 propeller is designed at behind the old strut and 3 propellers are designed at behind the new strut. The propeller CIS is increased through the balance design and the stern appendage modification. The final propeller CIS is increased about 5.3 knots higher than that of the existing propeller at behind the old strut. On the basis of the present study, it is thought that the better improvement method for the propeller CIS would be suggested.

데이터 증강을 이용한 혀 영역 분할 성능 개선 (Enhancement of Tongue Segmentation by Using Data Augmentation)

  • 진홍;정성태
    • 한국정보전자통신기술학회논문지
    • /
    • 제13권5호
    • /
    • pp.313-322
    • /
    • 2020
  • 많은 양의 데이터는 딥 러닝 모델의 견고성을 향상시키고 과적합 문제를 방지할 수 있게 해준다. 자동 혀 분할에서, 혀 영상 데이터 세트를 실제로 수집하고 라벨링하는 데에는 많은 어려움이 수반되므로 많은 양의 혀 영상 데이터를 사용하기 쉽지 않다. 데이터 증강은 새로운 데이터를 수집하지 않고 레이블 보존 변환을 사용하여 학습 데이터 세트를 확장하고 학습 데이터의 다양성을 증가시킬 수 있다. 이 논문에서는 이미지 자르기, 회전, 뒤집기, 색상 변환과 같은 7 가지 데이터 증강 방법을 사용하여 확장된 혀 영상 학습 데이터 세트를 생성하였다. 데이터 증강 방법의 성능을 확인하기 위하여 InceptionV3, EfficientNet, ResNet, DenseNet 등과 같은 전이 학습 모델을 사용하였다. 실험 결과 데이터 증강 방법을 적용함으로써 혀 분할의 정확도를 5~20% 향상시켰으며 기하학적 변환이 색상 변환보다 더 많은 성능 향상을 가져올 수 있음을 보여주었다. 또한 기하학적 변환 및 색상 변환을 임의로 선형 조합한 방법이 다른 데이터 증강 방법보다 우수한 분할 성능을 제공하여 InveptionV3 모델을 사용한 경우에 94.98 %의 정확도를 보였다.

Deep Learning Based Tree Recognition rate improving Method for Elementary and Middle School Learning

  • Choi, Jung-Eun;Yong, Hwan-Seung
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권12호
    • /
    • pp.9-16
    • /
    • 2019
  • 본 연구의 목적은 수업 시 스마트기기에 적용할 수 있는 나무 이미지를 인식하고 분류하여 정확도를 측정할 수 있는 효율적인 모델을 제안하는 것이다. 2015개정 교육과정으로 개정되면서 초등학교 4학년 과학교과서의 학습 목표에서 스마트 기기 사용한 식물 인식이 새롭게 추가 되었다. 특히 나무 인식의 경우 다른 사물 인식과 달리 수형, 수피, 잎, 꽃, 열매의 부위별 특징이 있으며, 계절에 따라 모양 및 색깔의 변화를 거치므로 인식률에 차이가 존재한다. 그러므로 본 연구를 통해 컨볼루션 신경망 기반의 사전 학습된 인셉션V3모델을 이용하여 재학습 전 후의 나무 부위별 인식률을 비교한다. 또한 각 나무의 유형별 이미지 정확도를 결합시키는 방식을 통해 효율적인 나무 분류 방안을 제시하며 교육현장에서 사용하는 스마트기기에 적용 할 수 있을 것이라 기대한다.

딥 러닝을 활용한 씨앗 발아 확인 시스템 (Implementation of Seed Germination Confirmation System with Deep Learning)

  • 김우주;권민서;이재준;류관희;홍장의;나스리디노프 아지즈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 추계학술발표대회
    • /
    • pp.603-605
    • /
    • 2018
  • 최근 대두되고 있는 딥 러닝은 학습을 통해 사물이나 데이터를 군집화하거나 분류하는 데 사용하는 기술이다. 본 논문은 딥 러닝에 활용하기 위해 개발된 오픈소스 소프트웨어인 텐서플로 Inception V3을 사용해 연구를 진행했다. 딥 러닝을 활용한 씨앗 발아 확인 시스템은 기존의 영상 처리를 활용한 시스템에서 고안했으며, 씨앗 발아 여부의 정확성이 떨어지는 단점을 개선하고, 모든 종자들의 발아 여부를 확인할 수 있도록 구현해 사용자가 효과적으로 연구를 수행할 수 있도록 하는 목적에 있다.

전이학습에 방법에 따른 컨벌루션 신경망의 영상 분류 성능 비교 (Comparison of Image Classification Performance in Convolutional Neural Network according to Transfer Learning)

  • 박성욱;김도연
    • 한국멀티미디어학회논문지
    • /
    • 제21권12호
    • /
    • pp.1387-1395
    • /
    • 2018
  • Core algorithm of deep learning Convolutional Neural Network(CNN) shows better performance than other machine learning algorithms. However, if there is not sufficient data, CNN can not achieve satisfactory performance even if the classifier is excellent. In this situation, it has been proven that the use of transfer learning can have a great effect. In this paper, we apply two transition learning methods(freezing, retraining) to three CNN models(ResNet-50, Inception-V3, DenseNet-121) and compare and analyze how the classification performance of CNN changes according to the methods. As a result of statistical significance test using various evaluation indicators, ResNet-50, Inception-V3, and DenseNet-121 differed by 1.18 times, 1.09 times, and 1.17 times, respectively. Based on this, we concluded that the retraining method may be more effective than the freezing method in case of transition learning in image classification problem.

Inception v3를 이용한 화장품 추천 시스템 (Recommended System for Cosmetics Using Inception v3 module)

  • 장영훈;샤이드 무하마드 라자;김문성;추현승
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.372-374
    • /
    • 2020
  • 최근 화장품이나 뷰티산업의 성장이 가속화되고 있다. 이에 따라 시장에 다양한 뷰티제품들이 출시되고 있지만 그로 인해 오히려 본인에게 적합한 제품이 무엇인지 알지 못하는 경우가 많다. 온라인을 통해 구매하는 경우 구매후기 및 광고에 의지해야 하며 전문가의 조언을 구하기 위해서는 오프라인 상점을 방문할 수밖에 없다. 그러나 오프라인 상점을 방문한 경우에도 자신에게 적합한 화장품을 추천받는 것 또한 다분하지 않다. 본 논문에서는 이러한 문제점을 해결하고자 온라인 환경에서 소비자에게 맞는 상품의 광고 및 정보를 받을 수 있는 화장품 추천 서비스를 제안한다. 또한 제안서비스는 AI기능을 적용하여 기존의 방식보다 소비자 친화적인 서바스를 제공하는 것을 목표로 한다.