• 제목/요약/키워드: InceptionV3

검색결과 77건 처리시간 0.024초

백혈병 진단을 위한 CNN 모델 비교 분석 (Comparative Analysis of CNN Models for Leukemia Diagnosis)

  • 이연지;류정화;이일구
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.279-282
    • /
    • 2022
  • 급성 림프모구성 백혈병은 골수 내 미성숙 림프구 과다증식으로 인해 골수 기능이 억제되어 발생하는 급성 백혈병이다. 성인 급성 백혈병의 30% 비율을 차지하고 있으며, 소아는 항암화학요법으로 80% 이상의 완치율을 보이는 반면, 성인은 20%~50%로 저조한 생존율을 보이고 있다. 그러나 급성 림프모구성 백혈병 진단을 위한 의료영상 데이터 기반 머신러닝 알고리즘에 관한 연구가 초동 단계이다. 본 논문에서는 신속하고 정확한 진단을 위해 CNN 알고리즘모델들을 비교분석한다. 네 가지 모델을 사용하여 급성 림프모구성 백혈병 진단 모델들을 비교분석하기 위한 실험 환경을 구축하고 주어진 의료영상 데이터에 대해 정확도가 가장 우수한 알고리즘을 선택하였다. 실험 결과에 따르면 네 가지의 CNN 모델들 중에서 InceptionV3모델이 98.9%의 정확도로 가장 우수한 성능을 보였다.

  • PDF

Estimation of Heading Date of Paddy Rice from Slanted View Images Using Deep Learning Classification Model

  • Hyeokjin Bak;Hoyoung Ban;SeongryulChang;Dongwon Gwon;Jae-Kyeong Baek;Jeong-Il Cho;Wan-Gyu Sang
    • 한국작물학회:학술대회논문집
    • /
    • 한국작물학회 2022년도 추계학술대회
    • /
    • pp.80-80
    • /
    • 2022
  • Estimation of heading date of paddy rice is laborious and time consuming. Therefore, automatic estimation of heading date of paddy rice is highly essential. In this experiment, deep learning classification models were used to classify two difference categories of rice (vegetative and reproductive stage) based on the panicle initiation of paddy field. Specifically, the dataset includes 444 slanted view images belonging to two categories and was then expanded to include 1,497 images via IMGAUG data augmentation technique. We adopt two transfer learning strategies: (First, used transferring model weights already trained on ImageNet to six classification network models: VGGNet, ResNet, DenseNet, InceptionV3, Xception and MobileNet, Second, fine-tuned some layers of the network according to our dataset). After training the CNN model, we used several evaluation metrics commonly used for classification tasks, including Accuracy, Precision, Recall, and F1-score. In addition, GradCAM was used to generate visual explanations for each image patch. Experimental results showed that the InceptionV3 is the best performing model in terms of the accuracy, average recall, precision, and F1-score. The fine-tuned InceptionV3 model achieved an overall classification accuracy of 0.95 with a high F1-score of 0.95. Our CNN model also represented the change of rice heading date under different date of transplanting. This study demonstrated that image based deep learning model can reliably be used as an automatic monitoring system to detect the heading date of rice crops using CCTV camera.

  • PDF

$SF_6$ 가스 중의 삼중점 절연파괴 예측기술에 관한 연구 (Study on Insulation Prediction of Triple Junction in $SF_6$)

  • 조용성;정진교;이우영
    • 전기학회논문지
    • /
    • 제58권5호
    • /
    • pp.989-993
    • /
    • 2009
  • Triple junction which consists of three media(electrode, insulator, and gas) should be considered in designing of high voltage equipments due to the electric field enhancement. In this paper, positive lightning impulse breakdown voltage is predicted based on the streamer theory for simplified insulator models and 72.5kV spacer with varying the triple junction geometry and gas pressure, and the results are compared to the experimental results. The electric field coefficient concept is also applied in order to evaluate the partial discharge inception voltage and the surface flashover voltage from the streamer inception voltage. The application of this method using the constant electric field coefficient of 1.3 and 0.66 is possible for evaluating the triple-junction insulation of the simplified insulator and the 72.5kV spacer respectively. The error rate is under 10%.

CNN 의 파라미터와 정확도간 상호 강인성 연구 및 파라미터 비트 연산 자동화 프레임워크 개발 (Study the mutual robustness between parameter and accuracy in CNNs and developed an Automated Parameter Bit Operation Framework)

  • 이동인;김정헌 ;임승호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.451-452
    • /
    • 2023
  • 최근 CNN 이 다양한 산업에 확산되고 있으며, IoT 기기 및 엣지 컴퓨팅에 적합한 경량 모델에 대한 연구가 급증하고 있다. 본 논문에서는 CNN 모델의 파라미터 비트 연산을 위한 자동화 프레임워크를 제안하고, 파라미터 비트와 모델 정확도 사이의 관계를 실험 및 연구한다. 제안된 프레임워크는 하위 n- bit 를 0 으로 설정하여 정보 손실 발생시킴으로써 ImageNet 데이터셋으로 사전 학습된 CNN 모델의 파라미터와 정확도의 강인성을 비트 단위로 체계적으로 실험할 수 있다. 우리는 비트 연산을 수행한 파라미터로 InceptionV3, InceptionResnetV2, ResNet50, Xception, DenseNet121, MobileNetV1, MobileNetV2 모델의 정확도를 평가한다. 실험 결과는 성능이 낮은 모델일수록 파라미터와 정확도 간의 강인성이 높아 성능이 좋은 모델보다 정확도를 유지하는 비트 수가 적다는 것을 보여준다.

딥러닝 기반의 복합 열화 영상 분류 및 복원 기법 (Classification and Restoration of Compositely Degraded Images using Deep Learning)

  • 윤정언;하지메 나가하라;박인규
    • 방송공학회논문지
    • /
    • 제24권3호
    • /
    • pp.430-439
    • /
    • 2019
  • CNN (convolutional neural network) 기반의 단일 열화 영상 복원 방법은 우수한 성능을 나타내지만 한가지의 특정 열화를 해결하는 데 맞춤화 되어있다. 본 연구에서는 복합적으로 열화 된 영상 분류 및 복원을 위한 알고리즘을 제시한다. 복합 열화 영상 분류 문제를 해결하기 위해 CNN 기반의 알고리즘인 사전 학습된 Inception-v3 네트워크를 활용하고, 영상 열화 복원을 위해 기존의 CNN 기반의 복원 알고리즘을 사용하여 툴체인을 구성한다. 실험적으로 복합 열화 영상의 복원 순서를 추정하였으며, CNN 기반의 영상 화질 측정 알고리즘의 결과와 비교하였다. 제안하는 알고리즘은 추정된 복원 순서를 바탕으로 구현되어 실험 결과를 통해 복합 열화 문제를 효과적으로 해결할 수 있음을 보인다.

딥 전이 학습을 이용한 인간 행동 분류 (Human Activity Classification Using Deep Transfer Learning)

  • 닌담 솜사우트;통운 문마이;숭타이리엥;오가화;이효종
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.478-480
    • /
    • 2022
  • This paper studies human activity image classification using deep transfer learning techniques focused on the inception convolutional neural networks (InceptionV3) model. For this, we used UFC-101 public datasets containing a group of students' behaviors in mathematics classrooms at a school in Thailand. The video dataset contains Play Sitar, Tai Chi, Walking with Dog, and Student Study (our dataset) classes. The experiment was conducted in three phases. First, it extracts an image frame from the video, and a tag is labeled on the frame. Second, it loads the dataset into the inception V3 with transfer learning for image classification of four classes. Lastly, we evaluate the model's accuracy using precision, recall, F1-Score, and confusion matrix. The outcomes of the classifications for the public and our dataset are 1) Play Sitar (precision = 1.0, recall = 1.0, F1 = 1.0), 2), Tai Chi (precision = 1.0, recall = 1.0, F1 = 1.0), 3) Walking with Dog (precision = 1.0, recall = 1.0, F1 = 1.0), and 4) Student Study (precision = 1.0, recall = 1.0, F1 = 1.0), respectively. The results show that the overall accuracy of the classification rate is 100% which states the model is more powerful for learning UCF-101 and our dataset with higher accuracy.

부분방전 측정에 의한 하이브리드차량 견인전동기의 절연성능평가 (Evaluation on Insulation Performance of Traction Motors for a Hybrid Vehicle by Partial Discharge Measurement)

  • 박대원;박찬용;최재성;길경석;이강원
    • 한국철도학회논문집
    • /
    • 제12권2호
    • /
    • pp.249-253
    • /
    • 2009
  • 본 논문에서는 부분방전 측정에 의한 하이브리드 차량용 견인전동기의 절연평가에 대하여 기술하였다. 부분방전법은 효과적인 비파괴시험으로 저압용 전기전자기기의 절연성능평가에 사용되어 왔다. 부분방전 측정시스템은 결합회로망, 저잡음 증폭회로 및 주변 전자회로로 구성되며, 주변 잡음의 영향을 최소화하기 위하여 차폐함내에 설치하였다. 교정실험으로부터 부분방전 측정시스템의 주파수 대역은 $1[MHz]{\sim}30[MHz]$ (-3[dB]), 감도는 19[mV/pC]로 평가되었다. 기사용 전동기와 신품 전동기에서 방전개시전압(DIV)과 겉보기 전하량(q)을 측정한 결과, 기사용 전동기의 방전개시전압은 $1,100[V_{rms}]$, 겉보기 전하량은 105[pC], 신품 전동기에서의 방전개시전압은 $1,400[V_{rms}]$, 겉보기 전하량은 84[pC]이었다. 방전개시전압과 전하량을 비교함으로써 견인전동기의 절연상태를 평가할 수 있었다.

Waste Classification by Fine-Tuning Pre-trained CNN and GAN

  • Alsabei, Amani;Alsayed, Ashwaq;Alzahrani, Manar;Al-Shareef, Sarah
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.65-70
    • /
    • 2021
  • Waste accumulation is becoming a significant challenge in most urban areas and if it continues unchecked, is poised to have severe repercussions on our environment and health. The massive industrialisation in our cities has been followed by a commensurate waste creation that has become a bottleneck for even waste management systems. While recycling is a viable solution for waste management, it can be daunting to classify waste material for recycling accurately. In this study, transfer learning models were proposed to automatically classify wastes based on six materials (cardboard, glass, metal, paper, plastic, and trash). The tested pre-trained models were ResNet50, VGG16, InceptionV3, and Xception. Data augmentation was done using a Generative Adversarial Network (GAN) with various image generation percentages. It was found that models based on Xception and VGG16 were more robust. In contrast, models based on ResNet50 and InceptionV3 were sensitive to the added machine-generated images as the accuracy degrades significantly compared to training with no artificial data.

딥러닝 기반 상황 맞춤형 홈 오토메이션 시스템 (Deep Learning-based Environment-aware Home Automation System)

  • 박민지;노윤수;조성준
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2019년도 춘계학술대회
    • /
    • pp.334-337
    • /
    • 2019
  • 본 연구에서는 딥러닝을 통해 스스로 사용자의 행동 습관 데이터를 학습하고, 상황에 맞춰 실내 환경을 조성할 수 있는 시스템을 구성하였다. 정보 수집 시스템은 데이터 수집 서버와 각종 센서 노드로 구성되며, 모은 데이터에 따라 환경을 조성한다. 사진 분석은 Google Inception v3를, 행동 유추는 직접 설계한 2차 DNN을 사용했다. 모의 데이터로 DNN 학습을 진행한 결과 98.4%의 정확도로 충분히 상황 유추가 가능함을 입증할 수 있었다.

  • PDF

복부 CT 영상에서 밝기값 정규화 및 Faster R-CNN을 이용한 자동 췌장 검출 (Automatic Pancreas Detection on Abdominal CT Images using Intensity Normalization and Faster R-CNN)

  • 최시은;이성은;홍헬렌
    • 한국멀티미디어학회논문지
    • /
    • 제24권3호
    • /
    • pp.396-405
    • /
    • 2021
  • In surgery to remove pancreatic cancer, it is important to figure out the shape of a patient's pancreas. However, previous studies have a limit to detect a pancreas automatically in abdominal CT images, because the pancreas varies in shape, size and location by patient. Therefore, in this paper, we propose a method of learning various shapes of pancreas according to the patients and adjacent slices using Faster R-CNN based on Inception V2, and automatically detecting the pancreas from abdominal CT images. Model training and testing were performed using the NIH Pancreas-CT Dataset, and intensity normalization was applied to all data to improve pancreatic detection accuracy. Additionally, according to the shape of the pancreas, the test dataset was classified into top, middle, and bottom slices to evaluate the model's performance on each data. The results show that the top data's mAP@.50IoU achieved 91.7% and the bottom data's mAP@.50IoU achieved 95.4%, and the highest performance was the middle data's mAP@.50IoU, 98.5%. Thus, we have confirmed that the model can accurately detect the pancreas in CT images.