• 제목/요약/키워드: VggNet

검색결과 96건 처리시간 0.024초

A Comparative Study of Alzheimer's Disease Classification using Multiple Transfer Learning Models

  • Prakash, Deekshitha;Madusanka, Nuwan;Bhattacharjee, Subrata;Park, Hyeon-Gyun;Kim, Cho-Hee;Choi, Heung-Kook
    • Journal of Multimedia Information System
    • /
    • 제6권4호
    • /
    • pp.209-216
    • /
    • 2019
  • Over the past decade, researchers were able to solve complex medical problems as well as acquire deeper understanding of entire issue due to the availability of machine learning techniques, particularly predictive algorithms and automatic recognition of patterns in medical imaging. In this study, a technique called transfer learning has been utilized to classify Magnetic Resonance (MR) images by a pre-trained Convolutional Neural Network (CNN). Rather than training an entire model from scratch, transfer learning approach uses the CNN model by fine-tuning them, to classify MR images into Alzheimer's disease (AD), mild cognitive impairment (MCI) and normal control (NC). The performance of this method has been evaluated over Alzheimer's Disease Neuroimaging (ADNI) dataset by changing the learning rate of the model. Moreover, in this study, in order to demonstrate the transfer learning approach we utilize different pre-trained deep learning models such as GoogLeNet, VGG-16, AlexNet and ResNet-18, and compare their efficiency to classify AD. The overall classification accuracy resulted by GoogLeNet for training and testing was 99.84% and 98.25% respectively, which was exceptionally more than other models training and testing accuracies.

Wood Classification of Japanese Fagaceae using Partial Sample Area and Convolutional Neural Networks

  • FATHURAHMAN, Taufik;GUNAWAN, P.H.;PRAKASA, Esa;SUGIYAMA, Junji
    • Journal of the Korean Wood Science and Technology
    • /
    • 제49권5호
    • /
    • pp.491-503
    • /
    • 2021
  • Wood identification is regularly performed by observing the wood anatomy, such as colour, texture, fibre direction, and other characteristics. The manual process, however, could be time consuming, especially when identification work is required at high quantity. Considering this condition, a convolutional neural networks (CNN)-based program is applied to improve the image classification results. The research focuses on the algorithm accuracy and efficiency in dealing with the dataset limitations. For this, it is proposed to do the sample selection process or only take a small portion of the existing image. Still, it can be expected to represent the overall picture to maintain and improve the generalisation capabilities of the CNN method in the classification stages. The experiments yielded an incredible F1 score average up to 93.4% for medium sample area sizes (200 × 200 pixels) on each CNN architecture (VGG16, ResNet50, MobileNet, DenseNet121, and Xception based). Whereas DenseNet121-based architecture was found to be the best architecture in maintaining the generalisation of its model for each sample area size (100, 200, and 300 pixels). The experimental results showed that the proposed algorithm can be an accurate and reliable solution.

Predicting Brain Tumor Using Transfer Learning

  • Mustafa Abdul Salam;Sanaa Taha;Sameh Alahmady;Alwan Mohamed
    • International Journal of Computer Science & Network Security
    • /
    • 제23권5호
    • /
    • pp.73-88
    • /
    • 2023
  • Brain tumors can also be an abnormal collection or accumulation of cells in the brain that can be life-threatening due to their ability to invade and metastasize to nearby tissues. Accurate diagnosis is critical to the success of treatment planning, and resonant imaging is the primary diagnostic imaging method used to diagnose brain tumors and their extent. Deep learning methods for computer vision applications have shown significant improvements in recent years, primarily due to the undeniable fact that there is a large amount of data on the market to teach models. Therefore, improvements within the model architecture perform better approximations in the monitored configuration. Tumor classification using these deep learning techniques has made great strides by providing reliable, annotated open data sets. Reduce computational effort and learn specific spatial and temporal relationships. This white paper describes transfer models such as the MobileNet model, VGG19 model, InceptionResNetV2 model, Inception model, and DenseNet201 model. The model uses three different optimizers, Adam, SGD, and RMSprop. Finally, the pre-trained MobileNet with RMSprop optimizer is the best model in this paper, with 0.995 accuracies, 0.99 sensitivity, and 1.00 specificity, while at the same time having the lowest computational cost.

오디오 전처리 방법에 따른 콘벌루션 신경망의 환경음 분류 성능 비교 (Comparison of environmental sound classification performance of convolutional neural networks according to audio preprocessing methods)

  • 오원근
    • 한국음향학회지
    • /
    • 제39권3호
    • /
    • pp.143-149
    • /
    • 2020
  • 본 논문에서는 딥러닝(deep learning)을 이용하여 환경음 분류 시 전처리 단계에서 사용하는 특징 추출 방법이 콘볼루션 신경망의 분류 성능에 미치는 영향에 대해서 다루었다. 이를 위해 환경음 분류 연구에서 많이 사용되는 UrbanSound8K 데이터셋에서 멜 스펙트로그램(mel spectrogram), 로그 멜 스펙트로그램(log mel spectrogram), Mel Frequency Cepstral Coefficient(MFCC), 그리고 delta MFCC를 추출하고 각각을 3가지 분포로 스케일링하였다. 이 데이터를 이용하여 4 종의 콘볼루션 신경망과 이미지넷에서 좋은 성능을 보였던 VGG16과 MobileNetV2 신경망을 학습시킨 다음 오디오 특징과 스케일링 방법에 따른 인식률을 구하였다. 그 결과 인식률은 스케일링하지 않은 로그 멜 스펙트럼을 사용했을 때 가장 우수한 것으로 나타났다. 도출된 결과를 모든 오디오 인식 문제로 일반화하기는 힘들지만, Urbansound8K의 환경음이 포함된 오디오를 분류할 때는 유용하게 적용될 수 있을 것이다.

딥러닝 기반의 의미론적 영상 분할을 이용한 주행 보조 시스템 (Driving Assist System using Semantic Segmentation based on Deep Learning)

  • 김정환;이태민;임준홍
    • 전기전자학회논문지
    • /
    • 제24권1호
    • /
    • pp.147-153
    • /
    • 2020
  • 기존의 차선 검출 방법들은 곡률과 날씨 변화가 큰 도로 환경에서 검출률이 낮다. 확률적 허프 변환을 이용한 방법은 에지와 직선의 각도를 이용해서 차선을 검출함으로 곡선과 악천후일 때 검출률이 낮다. 슬라이딩 윈도우 방법은 윈도우로 이미지를 분할해서 검출하기 때문에 곡선 형태의 차선도 검출하지만 어파인 변환을 사용하기 때문에 도로의 경사율에 영향을 받는다. 본 논문에서는 다양한 외부 환경에서도 차선을 강인하게 검출하고 장애물을 회피하기 위한 딥러닝 기반의 주행 보조 시스템을 제안한다. VGG-16기반의 SegNet으로 입력 영상을 의미론적으로 분할해서 차선을 검출한다. 검출한 차선과의 이격거리를 계산하고 안전범위를 산출해서 차량이 차선의 중앙을 주행하도록 제어한다. 또한, 전방의 미확인 물체와 충돌이 예상되면 운전자에게 경보를 주고 Adaptive-MPC로 차량을 제어해서 충돌을 회피하는 알고리즘도 제안한다. CARLA로 시뮬레이션한 결과 제안한 알고리즘은 곡률이 큰 차선과 다양한 환경에서도 강인하게 차선을 검출하고 전방의 안전범위를 계산하여 충돌을 회피하는 것을 볼 수 있다.

개선 된 SSD 기반 사과 감지 알고리즘 (Apple Detection Algorithm based on an Improved SSD)

  • 정석용;이추담;왕욱비;진락;손진구;송정영
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권3호
    • /
    • pp.81-89
    • /
    • 2021
  • 자연 조건에서 Apple 감지에는 가림 문제와 작은 대상 감지 어려움이 있다. 본 논문은 SSD 기반의 개선 된 모델을 제안한다. SSD 백본 네트워크 VGG16은 ResNet50 네트워크 모델로 대체되고 수용 필드 구조 RFB 구조가 도입되었다. RFB 모델은 작은 표적의 특징 정보를 증폭하고 작은 표적의 탐지 정확도를 향상시킨다. 유지해야 하는 정보를 필터링하기 위해 주의 메커니즘 (SE)과 결합하면 감지 대상의 의미 정보가 향상된다. 향상된 SSD 알고리즘은 VOC2007 데이터 세트에 대해 학습된다. SSD에 비해 개선 된 알고리즘은 폐색 및 작은 표적 탐지의 정확도를 3.4 % 및 3.9 % 향상 시켰다. 이 알고리즘은 오 탐지율과 누락된 감지율을 향상 시켰다. 본 논문에서 제안한 개선 된 알고리즘은 더 높은 효율성을 갖는다.

CNN 기반 전이학습을 이용한 뼈 전이가 존재하는 뼈 스캔 영상 분류 (Classification of Whole Body Bone Scan Image with Bone Metastasis using CNN-based Transfer Learning)

  • 임지영;도탄콩;김수형;이귀상;이민희;민정준;범희승;김현식;강세령;양형정
    • 한국멀티미디어학회논문지
    • /
    • 제25권8호
    • /
    • pp.1224-1232
    • /
    • 2022
  • Whole body bone scan is the most frequently performed nuclear medicine imaging to evaluate bone metastasis in cancer patients. We evaluated the performance of a VGG16-based transfer learning classifier for bone scan images in which metastatic bone lesion was present. A total of 1,000 bone scans in 1,000 cancer patients (500 patients with bone metastasis, 500 patients without bone metastasis) were evaluated. Bone scans were labeled with abnormal/normal for bone metastasis using medical reports and image review. Subsequently, gradient-weighted class activation maps (Grad-CAMs) were generated for explainable AI. The proposed model showed AUROC 0.96 and F1-Score 0.90, indicating that it outperforms to VGG16, ResNet50, Xception, DenseNet121 and InceptionV3. Grad-CAM visualized that the proposed model focuses on hot uptakes, which are indicating active bone lesions, for classification of whole body bone scan images with bone metastases.

Knowledge Distillation based-on Internal/External Correlation Learning

  • Hun-Beom Bak;Seung-Hwan Bae
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권4호
    • /
    • pp.31-39
    • /
    • 2023
  • 본 논문에서는 이종 모델의 특징맵 간 상관관계인 외부적 상관관계와 동종 모델 내부 특징맵 간 상관관계인 내부적 상관관계를 활용하여 교사 모델로부터 학생 모델로 지식을 전이하는 Internal/External Knowledge Distillation (IEKD)를 제안한다. 두 상관관계를 모두 활용하기 위하여 특징맵을 시퀀스 형태로 변환하고, 트랜스포머를 통해 내부적/외부적 상관관계를 고려하여 지식 증류에 적합한 새로운 특징맵을 추출한다. 추출된 특징맵을 증류함으로써 내부적 상관관계와 외부적 상관관계를 함께 학습할 수 있다. 또한 추출된 특징맵을 활용하여 feature matching을 수행함으로써 학생 모델의 정확도 향상을 도모한다. 제안한 지식 증류 방법의 효과를 증명하기 위해, CIFAR-100 데이터 셋에서 "ResNet-32×4/VGG-8" 교사/학생 모델 조합으로 최신 지식 증류 방법보다 향상된 76.23% Top-1 이미지 분류 정확도를 달성하였다.

Domain Shift 문제를 해결하기 위해 안개 특징을 이용한 딥러닝 기반 안개 제거 방법 (Deep learning-based de-fogging method using fog features to solve the domain shift problem)

  • 심휘보;강봉순
    • 한국멀티미디어학회논문지
    • /
    • 제24권10호
    • /
    • pp.1319-1325
    • /
    • 2021
  • It is important to remove fog for accurate object recognition and detection during preprocessing because images taken in foggy adverse weather suffer from poor quality of images due to scattering and absorption of light, resulting in poor performance of various vision-based applications. This paper proposes an end-to-end deep learning-based single image de-fogging method using U-Net architecture. The loss function used in the algorithm is a loss function based on Mahalanobis distance with fog features, which solves the problem of domain shifts, and demonstrates superior performance by comparing qualitative and quantitative numerical evaluations with conventional methods. We also design it to generate fog through the VGG19 loss function and use it as the next training dataset.

심층 전이 학습을 이용한 이미지 검색의 문화적 특성 분석 (Analysis of Cultural Context of Image Search with Deep Transfer Learning)

  • Kim, Hyeon-sik;Jeong, Jin-Woo
    • 한국정보통신학회논문지
    • /
    • 제24권5호
    • /
    • pp.674-677
    • /
    • 2020
  • The cultural background of users utilizing image search engines has a significant impact on the satisfaction of the search results. Therefore, it is important to analyze and understand the cultural context of images for more accurate image search. In this paper, we investigate how the cultural context of images can affect the performance of image classification. To this end, we first collected various types of images (e.g,. food, temple, etc.) with various cultural contexts (e.g., Korea, Japan, etc.) from web search engines. Afterwards, a deep transfer learning approach using VGG19 and MobileNetV2 pre-trained with ImageNet was adopted to learn the cultural features of the collected images. Through various experiments we show the performance of image classification can be differently affected according to the cultural context of images.