• 제목/요약/키워드: Region-based CNN

검색결과 78건 처리시간 0.024초

VGG-based BAPL Score Classification of 18F-Florbetaben Amyloid Brain PET

  • Kang, Hyeon;Kim, Woong-Gon;Yang, Gyung-Seung;Kim, Hyun-Woo;Jeong, Ji-Eun;Yoon, Hyun-Jin;Cho, Kook;Jeong, Young-Jin;Kang, Do-Young
    • 대한의생명과학회지
    • /
    • 제24권4호
    • /
    • pp.418-425
    • /
    • 2018
  • Amyloid brain positron emission tomography (PET) images are visually and subjectively analyzed by the physician with a lot of time and effort to determine the ${\beta}$-Amyloid ($A{\beta}$) deposition. We designed a convolutional neural network (CNN) model that predicts the $A{\beta}$-positive and $A{\beta}$-negative status. We performed 18F-florbetaben (FBB) brain PET on controls and patients (n=176) with mild cognitive impairment and Alzheimer's Disease (AD). We classified brain PET images visually as per the on the brain amyloid plaque load score. We designed the visual geometry group (VGG16) model for the visual assessment of slice-based samples. To evaluate only the gray matter and not the white matter, gray matter masking (GMM) was applied to the slice-based standard samples. All the performance metrics were higher with GMM than without GMM (accuracy 92.39 vs. 89.60, sensitivity 87.93 vs. 85.76, and specificity 98.94 vs. 95.32). For the patient-based standard, all the performance metrics were almost the same (accuracy 89.78 vs. 89.21), lower (sensitivity 93.97 vs. 99.14), and higher (specificity 81.67 vs. 70.00). The area under curve with the VGG16 model that observed the gray matter region only was slightly higher than the model that observed the whole brain for both slice-based and patient-based decision processes. Amyloid brain PET images can be appropriately analyzed using the CNN model for predicting the $A{\beta}$-positive and $A{\beta}$-negative status.

핵의학 감마카메라 정도관리의 딥러닝 적용 (Deep Learning Application of Gamma Camera Quality Control in Nuclear Medicine)

  • 정의환;오주영;이주영;박훈희
    • 대한방사선기술학회지:방사선기술과학
    • /
    • 제43권6호
    • /
    • pp.461-467
    • /
    • 2020
  • In the field of nuclear medicine, errors are sometimes generated because the assessment of the uniformity of gamma cameras relies on the naked eye of the evaluator. To minimize these errors, we created an artificial intelligence model based on CNN algorithm and wanted to assess its usefulness. We produced 20,000 normal images and partial cold region images using Python, and conducted artificial intelligence training with Resnet18 models. The training results showed that accuracy, specificity and sensitivity were 95.01%, 92.30%, and 97.73%, respectively. According to the results of the evaluation of the confusion matrix of artificial intelligence and expert groups, artificial intelligence was accuracy, specificity and sensitivity of 94.00%, 91.50%, and 96.80%, respectively, and expert groups was accuracy, specificity and sensitivity of 69.00%, 64.00%, and 74.00%, respectively. The results showed that artificial intelligence was better than expert groups. In addition, by checking together with the radiological technologist and AI, errors that may occur during the quality control process can be reduced, providing a better examination environment for patients, providing convenience to radiologists, and improving work efficiency.

GIS를 이용한 토양정보 기반의 배추 생산량 예측 수정모델 개발 (Development of a modified model for predicting cabbage yield based on soil properties using GIS)

  • 최연오;이재현;심재후;이승우
    • 한국측량학회지
    • /
    • 제40권5호
    • /
    • pp.449-456
    • /
    • 2022
  • 본 연구는 GIS를 통해 토양정보를 수집하고 가공하여 농산물 생산량을 예측하는 모델을 제안한다. 농산물 생산량 예측 딥러닝 알고리즘은 공개된 CNN-RNN 농산물 생산량 예측 모델 구조를 변경하여 국내 농산물 자료 환경에 적합하도록 새롭게 구축하였다. 기존모델은 두 가지 특징을 가지고 있는데 첫 번째는 농산물의 생산량을 해당 필지값이 아닌 당해 평균값으로 대체한다는 것이고 두 번째는 예측하는 연도의 데이터까지 학습한다는 것이다. 새로운 모델은 해당 필지의 값을 그대로 사용하여 데이터의 정확성을 확보하고 예측하고자 하는 연도 이전의 데이터만 가지고 학습할 수 있도록 네트워크 구조를 개선하였다. 제안한 CNN-RNN 모델은 1980년부터 2020년까지의 기상정보, 토양정보, 토양적성도, 생산량 데이터를 학습하여 김장용 가을배추의 지역별 단위면적당 생산량을 예측한다. 2018년부터 2021년까지 4개 연도별 자료에 대하여 계산하고 생산량을 예측한 결과, 테스트 데이터셋에 대한 오차백분율이 약 10% 내외로 실제값과 비교하여 정확도 높은 생산량 예측이 가능했고, 특히 전체 생산량 비중이 큰 지역에서의 생산량은 비교적 근접하게 예측하는 것으로 분석되었다. 또한 제안모델과 기존모델은 모두 학습자료 연도 수가 증가할수록 점점 오차가 작아지므로 학습데이터가 많아질수록 범용 성능은 향상되는 결과를 나타낸다.

CNN Based Lithography Hotspot Detection

  • Shin, Moojoon;Lee, Jee-Hyong
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제16권3호
    • /
    • pp.208-215
    • /
    • 2016
  • The lithography hotspot detection process is crucial for semiconductor design development process. But, the lithography hotspot detection using optical simulation method takes much time and it slowdown the layout design development cycle. Though the geometry based approach is introduced as an alternative, it still revealed low detection performance and sophisticated framework. To solve this problem, we introduce a deep convolutional neural network based hotspot detection method. Our method made better results in ICCCAD 2012 dataset. To reach this score, we used lots of technical effort to improve the result in addition to just utilizing the nature of convolutional neural network. Inspection region reduction, data augmentation, DBSCAN clustering helped our work more stable and faster.

흉부 CT 영상에서 비소세포폐암 환자의 재발 예측을 위한 종양 내외부 영상 패치 기반 앙상블 학습 (Ensemble Learning Based on Tumor Internal and External Imaging Patch to Predict the Recurrence of Non-small Cell Lung Cancer Patients in Chest CT Image)

  • 이예슬;조아현;홍헬렌
    • 한국멀티미디어학회논문지
    • /
    • 제24권3호
    • /
    • pp.373-381
    • /
    • 2021
  • In this paper, we propose a classification model based on convolutional neural network(CNN) for predicting 2-year recurrence in non-small cell lung cancer(NSCLC) patients using preoperative chest CT images. Based on the region of interest(ROI) defined as the tumor internal and external area, the input images consist of an intratumoral patch, a peritumoral patch and a peritumoral texture patch focusing on the texture information of the peritumoral patch. Each patch is trained through AlexNet pretrained on ImageNet to explore the usefulness and performance of various patches. Additionally, ensemble learning of network trained with each patch analyzes the performance of different patch combination. Compared with all results, the ensemble model with intratumoral and peritumoral patches achieved the best performance (ACC=98.28%, Sensitivity=100%, NPV=100%).

MODIFIED CONVOLUTIONAL NEURAL NETWORK WITH TRANSFER LEARNING FOR SOLAR FLARE PREDICTION

  • Zheng, Yanfang;Li, Xuebao;Wang, Xinshuo;Zhou, Ta
    • 천문학회지
    • /
    • 제52권6호
    • /
    • pp.217-225
    • /
    • 2019
  • We apply a modified Convolutional Neural Network (CNN) model in conjunction with transfer learning to predict whether an active region (AR) would produce a ≥C-class or ≥M-class flare within the next 24 hours. We collect line-of-sight magnetogram samples of ARs provided by the SHARP from May 2010 to September 2018, which is a new data product from the HMI onboard the SDO. Based on these AR samples, we adopt the approach of shuffle-and-split cross-validation (CV) to build a database that includes 10 separate data sets. Each of the 10 data sets is segregated by NOAA AR number into a training and a testing data set. After training, validating, and testing our model, we compare the results with previous studies using predictive performance metrics, with a focus on the true skill statistic (TSS). The main results from this study are summarized as follows. First, to the best of our knowledge, this is the first time that the CNN model with transfer learning is used in solar physics to make binary class predictions for both ≥C-class and ≥M-class flares, without manually engineered features extracted from the observational data. Second, our model achieves relatively high scores of TSS = 0.640±0.075 and TSS = 0.526±0.052 for ≥M-class prediction and ≥C-class prediction, respectively, which is comparable to that of previous models. Third, our model also obtains quite good scores in five other metrics for both ≥C-class and ≥M-class flare prediction. Our results demonstrate that our modified CNN model with transfer learning is an effective method for flare forecasting with reasonable prediction performance.

지역 중첩 신뢰도가 적용된 샴 네트워크 기반 객체 추적 알고리즘 (Object Tracking Algorithm based on Siamese Network with Local Overlap Confidence)

  • 임수창;김종찬
    • 한국전자통신학회논문지
    • /
    • 제18권6호
    • /
    • pp.1109-1116
    • /
    • 2023
  • 객체 추적은 영상의 첫 번째 프레임에서 annotation으로 제공되는 좌표 정보를 활용하여 비디오 시퀀스의 목표 추적에 활용된다. 본 논문에서는 객체 추적 정확도 향상을 위해 심층 특징과 영역 추론 모듈을 결합한 추적 알고리즘을 제안한다. 충분한 객체 정보를 획득하기 위해 Convolution Neural Network를 Siamese Network 구조로 네트워크를 설계하였다. 객체의 영역 추론을 위해 지역 제안 네트워크와 중첩 신뢰도 모듈을 적용하여 추적에 활용하였다. 제안한 추적 알고리즘은 Object Tracking Benchmark 데이터셋을 사용하여 성능검증을 수행하였고, Success 지표에서 69.1%, Precision 지표에서 89.3%를 달성하였다.

비소세포폐암 환자의 재발 예측을 위한 흉부 CT 영상 패치 기반 CNN 분류 및 시각화 (Chest CT Image Patch-Based CNN Classification and Visualization for Predicting Recurrence of Non-Small Cell Lung Cancer Patients)

  • 마세리;안가희;홍헬렌
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제28권1호
    • /
    • pp.1-9
    • /
    • 2022
  • 비소세포폐암(NSCLC)은 전체 폐암 중 85%의 높은 비중을 차지하며 사망률(22.7%)이 다른 암에 비해 현저히 높은 암으로 비소세포폐암 환자의 수술 후 예후에 대한 예측은 매우 중요하다. 본 연구에서는 종양을 관심영역으로 갖는 비소세포폐암 환자의 수술 전 흉부 CT 영상 패치의 종류를 종양 관련 정보에 따라 총 다섯 가지로 다양화하고, 이를 입력데이터로 갖는 사전 학습 된 ResNet 과 EfficientNet CNN 네트워크를 사용하여 단일 모델과 간접 투표 방식을 이용한 앙상블 모델, 그리고 3 개의 입력 채널을 활용한 앙상블 모델에서의 실험 결과 및 성능을 오분류의 사례와 Grad-CAM 시각화를 통해 비교 분석한다. 실험 결과, 종양 주변부 패치를 학습한 ResNet152 단일 모델과 EfficientNet-b7 단일 모델은 각각 87.93%와 81.03%의 정확도를 보였다. 또한 ResNet152 에서 총 3 개의 입력 채널에 각각 영상 패치, 종양 주변부 패치, 형상 집중 종양 내부 패치를 넣어 앙상블 모델을 구성한 경우에는 정확도 87.93%를, EfficientNet-b7 에서 간접 투표 방식으로 영상 패치와 종양 주변부 패치 학습 모델을 앙상블 한 경우에는 정확도 84.48%를 도출하며 안정적인 성능을 보였다.

MODIS와 기상자료 기반 회선신경망 알고리즘을 이용한 남한 전역 쌀 생산량 추정 (Convolutional Neural Networks for Rice Yield Estimation Using MODIS and Weather Data: A Case Study for South Korea)

  • 마종원;우엔콩효;이경도;허준
    • 한국측량학회지
    • /
    • 제34권5호
    • /
    • pp.525-534
    • /
    • 2016
  • 쌀은 오랜 기간 동안 남한 지역의 주식임과 동시에 농부들의 주 수입원이며, 농업 분야 관련 정책 수립을 위한 수학적인 쌀 생산량 추정 모델의 구축이 필요하다. 본 연구의 목적은 (1) 쌀 생산량 추정을 위한 회선신경망 모델의 구축과, (2) 최고의 성능을 보이는 회선신경망의 파라미터를 결정하는 것과, (3) 인공신경망 모델과의 비교를 통해 회선신경망의 성능을 평가하는 것이다. 각 모델의 입력데이터로는 2000~2013년도의 4~9월까지에 해당하는 기상자료와 MODIS 위성자료를 사용하였으며, 정확도 평가를 위해 교차 검증을 실시하였다. 회선신경망과 인공신경망은 쌀 생산 표본점을 대상으로 각각 36.10kg/10a, 48.61kg/10a와 시군구 지역을 대상으로 각각 31.30kg/10a, 39.31kg/10a의 RMSE를 보였다. 회선신경망 모델은 인공신경망 모델보다 우수한 성능을 보였으며, 본 연구를 통해 쌀 생산량 추정 분야에 대한 회선신경망 모델의 적용 가능성을 확인할 수 있었다.

A Study on Fruit Quality Identification Using YOLO V2 Algorithm

  • Lee, Sang-Hyun
    • International Journal of Advanced Culture Technology
    • /
    • 제9권1호
    • /
    • pp.190-195
    • /
    • 2021
  • Currently, one of the fields leading the 4th industrial revolution is the image recognition field of artificial intelligence, which is showing good results in many fields. In this paper, using is a YOLO V2 model, which is one of the image recognition models, we intend to classify and select into three types according to the characteristics of fruits. To this end, it was designed to proceed the number of iterations of learning 9000 counts based on 640 mandarin image data of 3 classes. For model evaluation, normal, rotten, and unripe mandarin oranges were used based on images. We as a result of the experiment, the accuracy of the learning model was different depending on the number of learning. Normal mandarin oranges showed the highest at 60.5% in 9000 repetition learning, and unripe mandarin oranges also showed the highest at 61.8% in 9000 repetition learning. Lastly, rotten tangerines showed the highest accuracy at 86.0% in 7000 iterations. It will be very helpful if the results of this study are used for fruit farms in rural areas where labor is scarce.