• 제목/요약/키워드: AlexNet

검색결과 67건 처리시간 0.021초

Convolutional Neural Network를 통한 대규모 한글 데이터 학습 (Learning of Large-Scale Korean Character Data through the Convolutional Neural Network)

  • 김연규;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2016년도 춘계학술대회
    • /
    • pp.97-100
    • /
    • 2016
  • CNN(Convolutinal Neural Network)을 사용하여 다양한 분야에 대한 심화 학습이 진행되고 있으며 이미지 인식 분야에서 특히 높은 성능을 보이고 있다. 본 논문에서는 5,000,000개 이상의 대규모 한글 문자 데이터베이스를 사용하여 한글을 Convolutional Neural Network에 학습 시킨 후 테스트 정확도를 확인한다. 실험에 사용된 CNN 구조는 AlexNet에 기반하여 새로 만들어진 KCR(Korean Character Recognition)-AlexNet 이며 학습 결과 98% 이상의 테스트 정확도를 보였다. 실험에 사용된 데이터베이스는 대규모 한글 데이터 데이터베이스인 PHD08로 총 2,350개의 한글 문자에 대해 각 문자마다 2,187개의 샘플을 가져 총 5,139,450 개의 데이터가 존재한다. 본 연구를 통해 KCR-AlexNet이 한글 데이터베이스인 PHD08을 학습하는데 우수한 구조임을 보인다.

  • PDF

Variations of AlexNet and GoogLeNet to Improve Korean Character Recognition Performance

  • Lee, Sang-Geol;Sung, Yunsick;Kim, Yeon-Gyu;Cha, Eui-Young
    • Journal of Information Processing Systems
    • /
    • 제14권1호
    • /
    • pp.205-217
    • /
    • 2018
  • Deep learning using convolutional neural networks (CNNs) is being studied in various fields of image recognition and these studies show excellent performance. In this paper, we compare the performance of CNN architectures, KCR-AlexNet and KCR-GoogLeNet. The experimental data used in this paper is obtained from PHD08, a large-scale Korean character database. It has 2,187 samples of each Korean character with 2,350 Korean character classes for a total of 5,139,450 data samples. In the training results, KCR-AlexNet showed an accuracy of over 98% for the top-1 test and KCR-GoogLeNet showed an accuracy of over 99% for the top-1 test after the final training iteration. We made an additional Korean character dataset with fonts that were not in PHD08 to compare the classification success rate with commercial optical character recognition (OCR) programs and ensure the objectivity of the experiment. While the commercial OCR programs showed 66.95% to 83.16% classification success rates, KCR-AlexNet and KCR-GoogLeNet showed average classification success rates of 90.12% and 89.14%, respectively, which are higher than the commercial OCR programs' rates. Considering the time factor, KCR-AlexNet was faster than KCR-GoogLeNet when they were trained using PHD08; otherwise, KCR-GoogLeNet had a faster classification speed.

A Comparative Study of the CNN Model for AD Diagnosis

  • Vyshnavi Ramineni;Goo-Rak Kwon
    • 스마트미디어저널
    • /
    • 제12권7호
    • /
    • pp.52-58
    • /
    • 2023
  • Alzheimer's disease is one type of dementia, the symptoms can be treated by detecting the disease at its early stages. Recently, many computer-aided diagnosis using magnetic resonance image(MRI) have shown a good results in the classification of AD. Taken these MRI images and feed to Free surfer software to extra the features. In consideration, using T1-weighted images and classifying using the convolution neural network (CNN) model are proposed. In this paper, taking the subjects from ADNI of subcortical and cortical features of 190 subjects. Consider the study to reduce the complexity of the model by using the single layer in the Res-Net, VGG, and Alex Net. Multi-class classification is used to classify four different stages, CN, EMCI, LMCI, AD. The following experiment shows for respective classification Res-Net, VGG, and Alex Net with the best accuracy with VGG at 96%, Res-Net, GoogLeNet and Alex Net at 91%, 93% and 89% respectively.

Application of Convolution Neural Network to Flare Forecasting using solar full disk images

  • Yi, Kangwoo;Moon, Yong-Jae;Park, Eunsu;Shin, Seulki
    • 천문학회보
    • /
    • 제42권2호
    • /
    • pp.60.1-60.1
    • /
    • 2017
  • In this study we apply Convolution Neural Network(CNN) to solar flare occurrence prediction with various parameter options using the 00:00 UT MDI images from 1996 to 2010 (total 4962 images). We assume that only X, M and C class flares correspond to "flare occurrence" and the others to "non-flare". We have attempted to look for the best options for the models with two CNN pre-trained models (AlexNet and GoogLeNet), by modifying training images and changing hyper parameters. Our major results from this study are as follows. First, the flare occurrence predictions are relatively good with about 80 % accuracies. Second, both flare prediction models based on AlexNet and GoogLeNet have similar results but AlexNet is faster than GoogLeNet. Third, modifying the training images to reduce the projection effect is not effective. Fourth, skill scores of our flare occurrence model are mostly better than those of the previous models.

  • PDF

딥러닝을 이용한 인스타그램 이미지 분류 (Instagram image classification with Deep Learning)

  • 정노권;조수선
    • 인터넷정보학회논문지
    • /
    • 제18권5호
    • /
    • pp.61-67
    • /
    • 2017
  • 본 논문에서는 딥러닝의 회선신경망을 이용한 실제 소셜 네트워크 상의 이미지 분류가 얼마나 효과적인지 알아보기 위한 실험을 수행하고, 그 결과와 그를 통해 알게 된 교훈에 대해 소개한다. 이를 위해 ImageNet Large Scale Visual Recognition Challenge(ILSVRC)의 2012년 대회와 2015년 대회에서 각각 우승을 차지한 AlexNet 모델과 ResNet 모델을 이용하였다. 평가를 위한 테스트 셋으로 인스타그램에서 수집한 이미지를 사용하였으며, 12개의 카테고리, 총 240개의 이미지로 구성되어 있다. 또한, Inception V3모델을 이용하여 fine-tuning을 실시하고, 그 결과를 비교하였다. AlexNet과 ResNet, Inception V3, fine-tuned Inception V3 이 네 가지 모델에 대한 Top-1 error rate들은 각각 49.58%, 40.42%, 30.42% 그리고 5.00%로 나타났으며, Top-5 error rate들은 각각 35.42%, 25.00%, 20.83% 그리고 0.00%로 나타났다.

Audio and Video Bimodal Emotion Recognition in Social Networks Based on Improved AlexNet Network and Attention Mechanism

  • Liu, Min;Tang, Jun
    • Journal of Information Processing Systems
    • /
    • 제17권4호
    • /
    • pp.754-771
    • /
    • 2021
  • In the task of continuous dimension emotion recognition, the parts that highlight the emotional expression are not the same in each mode, and the influences of different modes on the emotional state is also different. Therefore, this paper studies the fusion of the two most important modes in emotional recognition (voice and visual expression), and proposes a two-mode dual-modal emotion recognition method combined with the attention mechanism of the improved AlexNet network. After a simple preprocessing of the audio signal and the video signal, respectively, the first step is to use the prior knowledge to realize the extraction of audio characteristics. Then, facial expression features are extracted by the improved AlexNet network. Finally, the multimodal attention mechanism is used to fuse facial expression features and audio features, and the improved loss function is used to optimize the modal missing problem, so as to improve the robustness of the model and the performance of emotion recognition. The experimental results show that the concordance coefficient of the proposed model in the two dimensions of arousal and valence (concordance correlation coefficient) were 0.729 and 0.718, respectively, which are superior to several comparative algorithms.

지역적 가중치 파라미터 제거를 적용한 CNN 모델 압축 (Apply Locally Weight Parameter Elimination for CNN Model Compression)

  • 임수창;김도연
    • 한국정보통신학회논문지
    • /
    • 제22권9호
    • /
    • pp.1165-1171
    • /
    • 2018
  • CNN은 객체의 특징을 추출하는 과정에서 많은 계산량과 메모리를 요구하고 있다. 또한 사용자에 의해 네트워크가 고정되어 학습되기 때문에 학습 도중에 네트워크의 형태를 수정할 수 없다는 것과 컴퓨팅 자원이 부족한 모바일 디바이스에서 사용하기 어렵다는 단점이 있다. 이러한 문제점들을 해결하기 위해, 우리는 사전 학습된 가중치 파일에 가지치기 방법을 적용하여 연산량과 메모리 요구량을 줄이고자 한다. 이 방법은 3단계로 이루어져 있다. 먼저, 기존에 학습된 네트워크 파일의 모든 가중치를 각 계층 별로 불러온다. 두 번째로, 각 계층의 가중치에 절댓값을 취한 후 평균을 구한다. 평균을 임계값으로 설정한 뒤, 임계 값 이하 가중치를 제거한다. 마지막으로 가지치기 방법을 적용한 네트워크 파일을 재학습한다. 우리는 LeNet-5와 AlexNet을 대상으로 실험을 하였으며, LeNet-5에서 31x, AlexNet에서 12x의 압축률을 달성 하였다

딥러닝 합성곱에서 데이터 재사용에 최적화된 GPGPU 설계 (Design of an Optimized GPGPU for Data Reuse in DeepLearning Convolution)

  • 남기훈;이광엽;정준모
    • 전기전자학회논문지
    • /
    • 제25권4호
    • /
    • pp.664-671
    • /
    • 2021
  • 본 논문은 합성곱 신경망에 데이터 재사용 방법을 효과적으로 적용하여 연산 횟수와 메모리 접근 횟수를 줄일 수 있는 GPGPU구조를 제안한다. 합성곱은 kernel과 입력 데이터를 이용한 2차원 연산으로 kernel이 slide하는 방법으로 연산이 이루어 진다. 이때, 합성곱 연산이 완료될 때 까지 kernel을 캐시메모리로 부터 전달 받는 것이 아니고 내부 레지스터를 이용하는 재사용 방법을 제안한다. SIMT방법으로 명령어가 실행되는 GPGPU의 원리 이용하여 데이터 재사용의 효과를 높이기 위해 합성곱에 직렬 연산 방식을 적용하였다. 본 논문에서는 레지스터기반 데이터 재사용을 위하여 kernel을 4×4로 고정하고 이를 효과적으로 지원하기 위한 warp 크기와 레지스터 뱅크를 갖는 GPGPU를 설계하였다. 설계된 GPGPU의 합성곱 신경망에 대한 성능을 검증하기 위해 FPGA로 구현한 뒤 LeNet을 실행시키고 TensorFlow를 이용한 비교 방법으로 AlexNet에 대한 성능을 측정하였다. 측정결과 AlexNet기준 1회 학습 속도는 0.468초이며 추론 속도는 0.135초이다.

CT영상에서의 AlexNet과 VggNet을 이용한 간암 병변 분류 연구 (Malignant and Benign Classification of Liver Tumor in CT according to Data pre-processing and Deep running model)

  • 최보혜;김영재;최승준;김광기
    • 대한의용생체공학회:의공학회지
    • /
    • 제39권6호
    • /
    • pp.229-236
    • /
    • 2018
  • Liver cancer is one of the highest incidents in the world, and the mortality rate is the second most common disease after lung cancer. The purpose of this study is to evaluate the diagnostic ability of deep learning in the classification of malignant and benign tumors in CT images of patients with liver tumors. We also tried to identify the best data processing methods and deep learning models for classifying malignant and benign tumors in the liver. In this study, CT data were collected from 92 patients (benign liver tumors: 44, malignant liver tumors: 48) at the Gil Medical Center. The CT data of each patient were used for cross-sectional images of 3,024 liver tumors. In AlexNet and VggNet, the average of the overall accuracy at each image size was calculated: the average of the overall accuracy of the $200{\times}200$ image size is 69.58% (AlexNet), 69.4% (VggNet), $150{\times}150$ image size is 71.54%, 67%, $100{\times}100$ image size is 68.79%, 66.2%. In conclusion, the overall accuracy of each does not exceed 80%, so it does not have a high level of accuracy. In addition, the average accuracy in benign was 90.3% and the accuracy in malignant was 46.2%, which is a significant difference between benign and malignant. Also, the time it takes for AlexNet to learn is about 1.6 times faster than VggNet but statistically no different (p > 0.05). Since both models are less than 90% of the overall accuracy, more research and development are needed, such as learning the liver tumor data using a new model, or the process of pre-processing the data images in other methods. In the future, it will be useful to use specialists for image reading using deep learning.

소표본 의료 영상의 전이 학습을 위한 Feature Extractor 기법의 성능 비교 및 분석 (Performance Analysis of Feature Extractor for Transfer Learning of a Small Sample of Medical Images)

  • 이동호;홍대용;이연;신병석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 춘계학술발표대회
    • /
    • pp.405-406
    • /
    • 2018
  • 본 논문은 소표본 의료용 영상 분석의 정확도 향상을 위해 전이학습 모델을 feature extractor로 구축하여 학습시키는 방법을 연구하였으며 성능 평가를 위해 선학습모델로 AlexNet, ResNet, DenseNet을 사용하여 fine tuning 기법을 적용하였을 때와의 성능을 비교 분석하였다. 그 결과 실험에 사용된 3개의 모델에서 fine tuning 기법보다 향상된 정확도를 보임을 확인하였고, 또한 ImageNet으로 학습된 AlexNet, ResNet, DenseNet이 소표본 의료용 X-Ray 영상에 적용될 수 있음을 보였다.