• 제목/요약/키워드: MobileNetV2

검색결과 37건 처리시간 0.038초

A new lightweight network based on MobileNetV3

  • Zhao, Liquan;Wang, Leilei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권1호
    • /
    • pp.1-15
    • /
    • 2022
  • The MobileNetV3 is specially designed for mobile devices with limited memory and computing power. To reduce the network parameters and improve the network inference speed, a new lightweight network is proposed based on MobileNetV3. Firstly, to reduce the computation of residual blocks, a partial residual structure is designed by dividing the input feature maps into two parts. The designed partial residual structure is used to replace the residual block in MobileNetV3. Secondly, a dual-path feature extraction structure is designed to further reduce the computation of MobileNetV3. Different convolution kernel sizes are used in the two paths to extract feature maps with different sizes. Besides, a transition layer is also designed for fusing features to reduce the influence of the new structure on accuracy. The CIFAR-100 dataset and Image Net dataset are used to test the performance of the proposed partial residual structure. The ResNet based on the proposed partial residual structure has smaller parameters and FLOPs than the original ResNet. The performance of improved MobileNetV3 is tested on CIFAR-10, CIFAR-100 and ImageNet image classification task dataset. Comparing MobileNetV3, GhostNet and MobileNetV2, the improved MobileNetV3 has smaller parameters and FLOPs. Besides, the improved MobileNetV3 is also tested on CPU and Raspberry Pi. It is faster than other networks

철근콘크리트 손상 특성 추출을 위한 최적 컨볼루션 신경망 백본 연구 (A Study on Optimal Convolutional Neural Networks Backbone for Reinforced Concrete Damage Feature Extraction)

  • 박영훈
    • 대한토목학회논문집
    • /
    • 제43권4호
    • /
    • pp.511-523
    • /
    • 2023
  • 철근콘크리트 손상 감지를 위한 무인항공기와 딥러닝 연계에 대한 연구가 활발히 진행 중이다. 컨볼루션 신경망은 객체 분류, 검출, 분할 모델의 백본으로 모델 성능에 높은 영향을 준다. 사전학습 컨볼루션 신경망인 모바일넷은 적은 연산량으로 충분한 정확도가 확보 될 수 있어 무인항공기 기반 실시간 손상 감지 백본으로 효율적이다. 바닐라 컨볼루션 신경망과 모바일넷을 분석 한 결과 모바일넷이 바닐라 컨볼루션 신경망의 15.9~22.9% 수준의 낮은 연산량으로도 6.0~9.0% 높은 검증 정확도를 가지는 것으로 평가되었다. 모바일넷V2, 모바일넷V3Large, 모바일넷 V3Small은 거의 동일한 최대 검증 정확도를 가지는 것으로 나타났으며 모바일넷의 철근콘트리트 손상 이미지 특성 추출 최적 조건은 옵티마이저 RMSprop, 드롭아웃 미적용, 평균풀링인 것으로 분석되었다. 본 연구에서 도출된 모바일넷V2 기반 7가지 손상 감지 최대 검증 정확도 75.49%는 이미지 축적과 지속적 학습으로 향상 될 수 있다.

MobileNetV2 기술을 이용한 색소 세포성 모반과 악성 흑색종 Dermatoscopic 영상의 이진 분류 (MobileNetV2-based Binary Classification of Dermatoscopic Images of Melanocytic Nevi and Malignant Melanoma)

  • 정승민;이승건;이의철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.670-672
    • /
    • 2021
  • 색소 세포성 모반과 악성 흑색종은 형태가 유사하지만 유해성의 측면에서 악성 흑색종은 암으로써 무해한 색소 세포성 모반에 비해 위험한 질환이다. 이에 기반하여 기존 연구에서 색소 세포성 모반과 악성 흑색종을 구분하기 위한 연구가 있었지만, 데이터를 취득하는 과정에서 많은 cost 가 필요하였다. 본 연구에서는 이를 개선하기 위해 두 병변의 dermatoscopic 영상을 분류 학습의 데이터로 사용하여 연구를 진행하였다. 학습을 위한 데이터는 오픈소스 dermatoscopic 데이터셋인 HAM10000을 사용하였으며 모델은 CNN 에서 개선된 MobileNetV2 를 사용하였다. 실험 결과, MobileNetV2 를 사용한 학습은 3-layer CNN 에 비해 15 분의 1 가량 적은 파라미터를 가졌으며, 검증 성능과 테스트 성능에서 93%에 근사하는 성능을 보였다. 본 연구는 이전 연구에 비해 cost 측면에서 큰 개선을 이루었으며, 상용화 가능한 분류 기법을 발견했다는 점을 시사한다.

MobileNetV2 기반의 개선된 Lightweight 모델을 이용한 열화도로 영상에서의 블랙 아이스 인식 (A Black Ice Recognition in Infrared Road Images Using Improved Lightweight Model Based on MobileNetV2)

  • 이옥걸;강선경
    • 한국정보통신학회논문지
    • /
    • 제25권12호
    • /
    • pp.1835-1845
    • /
    • 2021
  • 본 논문에서는 블랙 아이스를 정확하게 인식하고 도로 노면 정보를 운전자에게 미리 알려줘서 속도를 제어하고 예방 조치를 취할 수 있도록 하기 위해 열화 도로 영상을 기반으로 블랙 아이스 검출하기 위해 lightweight 네트워크를 제안한다. 전이학습을 이용하여 블랙 아이스 인식 실험을 하였고, 블랙 아이스 인식의 정확도 향상을 위해 MobileNetV2 기반의 개선된 lightweight 네트워크를 개발하였다. 계산량을 줄이기 위해 Linear Bottleneck 및 Inverted Residuals를 활용하여 4개의 Bottleneck 그룹을 사용하고 모델의 인식률 향상을 위해 각 Bottleneck 그룹에 3×3 컨볼루션 레이어를 연결하여 지역적 특징 추출을 강화하고 특징 맵의 수를 늘렸다. 마지막으로 구축된 블랙 아이스 데이터 세트 대상으로 블랙 아이스 인식 실험을 진행하였으며, 제안된 모델은 블랙 아이스에 대해 99.07%의 정확한 인식률을 나타내었다.

채널간 압축과 해제를 통한 MobileNetV2 최적화 (Further Optimize MobileNetV2 with Channel-wise Squeeze and Excitation)

  • 박진호;김원준
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 추계학술대회
    • /
    • pp.154-156
    • /
    • 2021
  • Depth-wise separable convolution 은 컴퓨터 자원이 제한된 환경에서 기존의 standard convolution을 대체하는데 강력하고, 효과적인 대안으로 잘 알려져 있다.[1] MobileNetV2 에서는 Inverted residual block을 소개한다. 이는 depth-wise separable convolution으로 인해 생기는 손실, 즉 channel 간의 데이터를 조합해 새로운 feature를 만들어낼 기회를 잃어버릴 때, 이를 depth-wise separable convolution 양단에 point-wise convolution(1×1 convolution)을 사용함으로써 극복해낸 block이다.[1] 하지만 1×1 convolution은 채널 수에 의존적(dependent)인 특징을 갖고 있고, 따라서 결국 네트워크가 깊어지면 깊어질수록 효율적이고(efficient) 가벼운(light weight) 네트워크를 만드는데 병목 현상(bottleneck)을 일으키고 만다. 이 논문에서는 channel-wise squeeze and excitation block(CSE)을 통해 1×1 convolution을 부분적으로 대체하는 방법을 통해 이 병목 현상을 해결한다.

  • PDF

MobileNetV2를 이용한 고 밀집 실내환경에서의 사람 검출 시스템 기법 (Human Detection System in High Density Indoor Environment Using MobileNetV2)

  • 최수정;임유진
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.504-506
    • /
    • 2022
  • 최근 인공지능 기술의 발달에 따라 여러 분야에 인공지능 기술이 활발히 응용되고 있다. 그중 안전 관리 분야에서 사람 인식을 통한 안전 관리 시스템의 지속적인 개발이 요구되고 있다. 그러나 실내 한정된 공간에서 사람들의 밀집도가 높은 경우 오브젝트의 중복도가 높아져 인식 성능이 낮아질 수 있다. 이를 해결하기 위해 본 논문은 사람의 밀집도가 높은 실내 환경에서 기존 객체 인식 기법의 성능을 분석하였다. 그리고 이러한 제한적인 환경에서 최적의 좋은 성능을 보일 수 있는 SSDLite와 MobileNetV2 모델을 기반으로 soft-NMS 기법을 적용하여 성능을 분석하였다.

저연산량의 효율적인 콘볼루션 신경망 (Efficient Convolutional Neural Network with low Complexity)

  • 이찬호;이중경;호콩안
    • 전기전자학회논문지
    • /
    • 제24권3호
    • /
    • pp.685-690
    • /
    • 2020
  • 휴대용 기기나 에지 단말을 위한 CNN인 MobileNet V2를 기반으로 연산량을 크게 줄이면서도 정확도는 증가시킨 효율적인 인공신경망 네트워크 구조를 제안한다. 제안하는 구조는 Bottleneck 층 구조를 유지하면서 확장 계수를 증가시키고 일부 층을 제거하는 등의 변화를 통해 연산량을 절반 이하로 줄였다. 설계한 네트워크는 ImageNet100 데이터셋을 이용하여 분류 정확도와 CPU 및 GPU에서의 연산 시간을 측정하여 그 성능을 검증 하였다. 또한, 현재 딥러닝 가속기로 널리 이용하는 GPU에서 네트워크 구조에 따라 동작 성능이 달라짐도 보였다.

CNN 의 파라미터와 정확도간 상호 강인성 연구 및 파라미터 비트 연산 자동화 프레임워크 개발 (Study the mutual robustness between parameter and accuracy in CNNs and developed an Automated Parameter Bit Operation Framework)

  • 이동인;김정헌 ;임승호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.451-452
    • /
    • 2023
  • 최근 CNN 이 다양한 산업에 확산되고 있으며, IoT 기기 및 엣지 컴퓨팅에 적합한 경량 모델에 대한 연구가 급증하고 있다. 본 논문에서는 CNN 모델의 파라미터 비트 연산을 위한 자동화 프레임워크를 제안하고, 파라미터 비트와 모델 정확도 사이의 관계를 실험 및 연구한다. 제안된 프레임워크는 하위 n- bit 를 0 으로 설정하여 정보 손실 발생시킴으로써 ImageNet 데이터셋으로 사전 학습된 CNN 모델의 파라미터와 정확도의 강인성을 비트 단위로 체계적으로 실험할 수 있다. 우리는 비트 연산을 수행한 파라미터로 InceptionV3, InceptionResnetV2, ResNet50, Xception, DenseNet121, MobileNetV1, MobileNetV2 모델의 정확도를 평가한다. 실험 결과는 성능이 낮은 모델일수록 파라미터와 정확도 간의 강인성이 높아 성능이 좋은 모델보다 정확도를 유지하는 비트 수가 적다는 것을 보여준다.

Dog-Species Classification through CycleGAN and Standard Data Augmentation

  • Chan, Park;Nammee, Moon
    • Journal of Information Processing Systems
    • /
    • 제19권1호
    • /
    • pp.67-79
    • /
    • 2023
  • In the image field, data augmentation refers to increasing the amount of data through an editing method such as rotating or cropping a photo. In this study, a generative adversarial network (GAN) image was created using CycleGAN, and various colors of dogs were reflected through data augmentation. In particular, dog data from the Stanford Dogs Dataset and Oxford-IIIT Pet Dataset were used, and 10 breeds of dog, corresponding to 300 images each, were selected. Subsequently, a GAN image was generated using CycleGAN, and four learning groups were established: 2,000 original photos (group I); 2,000 original photos + 1,000 GAN images (group II); 3,000 original photos (group III); and 3,000 original photos + 1,000 GAN images (group IV). The amount of data in each learning group was augmented using existing data augmentation methods such as rotating, cropping, erasing, and distorting. The augmented photo data were used to train the MobileNet_v3_Large, ResNet-152, InceptionResNet_v2, and NASNet_Large frameworks to evaluate the classification accuracy and loss. The top-3 accuracy for each deep neural network model was as follows: MobileNet_v3_Large of 86.4% (group I), 85.4% (group II), 90.4% (group III), and 89.2% (group IV); ResNet-152 of 82.4% (group I), 83.7% (group II), 84.7% (group III), and 84.9% (group IV); InceptionResNet_v2 of 90.7% (group I), 88.4% (group II), 93.3% (group III), and 93.1% (group IV); and NASNet_Large of 85% (group I), 88.1% (group II), 91.8% (group III), and 92% (group IV). The InceptionResNet_v2 model exhibited the highest image classification accuracy, and the NASNet_Large model exhibited the highest increase in the accuracy owing to data augmentation.

Novel Algorithms for Early Cancer Diagnosis Using Transfer Learning with MobileNetV2 in Thermal Images

  • Swapna Davies;Jaison Jacob
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권3호
    • /
    • pp.570-590
    • /
    • 2024
  • Breast cancer ranks among the most prevalent forms of malignancy and foremost cause of death by cancer worldwide. It is not preventable. Early and precise detection is the only remedy for lowering the rate of mortality and improving the probability of survival for victims. In contrast to present procedures, thermography aids in the early diagnosis of cancer and thereby saves lives. But the accuracy experiences detrimental impact by low sensitivity for small and deep tumours and the subjectivity by physicians in interpreting the images. Employing deep learning approaches for cancer detection can enhance the efficacy. This study explored the utilization of thermography in early identification of breast cancer with the use of a publicly released dataset known as the DMR-IR dataset. For this purpose, we employed a novel approach that entails the utilization of a pre-trained MobileNetV2 model and fine tuning it through transfer learning techniques. We created three models using MobileNetV2: one was a baseline transfer learning model with weights trained from ImageNet dataset, the second was a fine-tuned model with an adaptive learning rate, and the third utilized early stopping with callbacks during fine-tuning. The results showed that the proposed methods achieved average accuracy rates of 85.15%, 95.19%, and 98.69%, respectively, with various performance indicators such as precision, sensitivity and specificity also being investigated.