• 제목/요약/키워드: SegNet

검색결과 22건 처리시간 0.025초

SegNet과 U-Net을 활용한 동남아시아 지역 홍수탐지 (Extracting Flooded Areas in Southeast Asia Using SegNet and U-Net)

  • 김준우;전현균;김덕진
    • 대한원격탐사학회지
    • /
    • 제36권5_3호
    • /
    • pp.1095-1107
    • /
    • 2020
  • 홍수 발생 시 위성영상을 활용하여 침수된 지역을 추출하는 것은 홍수 발생 기간 내의 위성영상 취득과 영상에 나타난 침수구역의 정확한 분류 등에서 많은 어려움이 존재한다. 딥러닝은 전통적인 영상분류기법들에 비해 보다 정확도가 높은 위성영상분류기법으로 주목받고 있지만, 광학영상에 비해 홍수 발생 시 위성영상의 취득이 용이한 SAR 영상의 분류 잠재력은 아직 명확히 규명되지 않았다. 본 연구는 대표적인 의미론적 영상 분할을 위한 딥러닝 모델인 SegNet과 U-Net을 활용하여 동남아시아의 라오스, 태국, 필리핀의 대표적인 홍수 발생지역인 코랏 유역(Khorat basin), 메콩강 유역(Mekong river basin), 카가얀강 유역(Cagayan river basin)에 대해 Sentinel-1 A/B 위성영상으로부터 침수지역 추출을 실시하였다. 분석결과 침수지역 탐지에서 SegNet의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9847, 0.6016, 0.6467로 나타났으며, U-Net의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9937, 0.7022, 0.7125로 나타났다. 국지적 분류결과 확인을 위한 육안검증에서 U-Net이 SegNet에 비해 보다 높은 분류 정확도를 보여주었지만, 모델의 훈련에 필요한 시간은 67분 17초와 187분 19초가 각각 소요되어 SegNet이 U-Net에 비해 약 3배 정도 빠른 처리속도를 보여주었다. 본 연구의 결과는 향후 딥러닝 기법을 활용한 SAR 영상기반의 홍수탐지 모델과 실무적으로 활용이 가능한 자동화된 딥러닝 기반의 수계탐지 기법의 제시를 위한 중요한 참고자료로 활용될 수 있을 것으로 판단된다.

X-ray 영상에서 SegNet을 이용한 폐결핵 자동검출 시스템의 유용성 평가 (Evaluation on the Usefulness of X-ray Computer-Aided Detection (CAD) System for Pulmonary Tuberculosis (PTB) using SegNet)

  • 이주희;안현수;최동혁;태기식
    • 대한의용생체공학회:의공학회지
    • /
    • 제38권1호
    • /
    • pp.25-31
    • /
    • 2017
  • Testing TB in chest X-ray images is a typical method to diagnose presence and magnitude of PTB lesion. However, the method has limitation due to inter-reader variability. Therefore, it is essential to overcome this drawback with automatic interpretation. In this study, we propose a novel method for detection of PTB using SegNet, which is a deep learning architecture for semantic pixel wise image labelling. SegNet is composed of a stack of encoders followed by a corresponding decoder stack which feeds into a soft-max classification layer. We modified parameters of SegNet to change the number of classes from 12 to 2 (TB or none-TB) and applied the architecture to automatically interpret chest radiographs. 552 chest X-ray images, provided by The Korean Institute of Tuberculosis, used for training and test and we constructed a receiver operating characteristic (ROC) curve. As a consequence, the area under the curve (AUC) was 90.4% (95% CI:[85.1, 95.7]) with a classification accuracy of 84.3%. A sensitivity was 85.7% and specificity was 82.8% on 431 training images (TB 172, none-TB 259) and 121 test images (TB 63, none-TB 58). This results show that detecting PTB using SegNet is comparable to other PTB detection methods.

딥러닝 기반의 영상분할을 이용한 토지피복분류 (Land Cover Classification Using Sematic Image Segmentation with Deep Learning)

  • 이성혁;김진수
    • 대한원격탐사학회지
    • /
    • 제35권2호
    • /
    • pp.279-288
    • /
    • 2019
  • 본 연구에서는 항공정사영상을 이용하여 SegNet 기반의 의미분할을 수행하고, 토지피복분류에서의 그 성능을 평가하였다. 의미분할을 위한 분류 항목을 4가지(시가화건조지역, 농지, 산림, 수역)로 선정하였고, 항공정사영상과 세분류 토지피복도를 이용하여 총 2,000개의 데이터셋을 8:2 비율로 훈련(1,600개) 및 검증(400개)로 구분하여 구축하였다. 구축된 데이터셋은 훈련과 검증으로 나누어 학습하였고, 모델 학습 시 정확도에 영향을 미치는 하이퍼파라미터의 변화에 따른 검증 정확도를 평가하였다. SegNet 모델 검증 결과 반복횟수 100,000회, batch size 5에서 가장 높은 성능을 보였다. 이상과 같이 훈련된 SegNet 모델을 이용하여 테스트 데이터셋 200개에 대한 의미분할을 수행한 결과, 항목별 정확도는 농지(87.89%), 산림(87.18%), 수역(83.66%), 시가화건조지역(82.67%), 전체 분류정확도는 85.48%로 나타났다. 이 결과는 기존의 항공영상을 활용한 토지피복분류연구보다 향상된 정확도를 나타냈으며, 딥러닝 기반 의미분할 기법의 적용 가능성이 충분하다고 판단된다. 향후 다양한 채널의 자료와 지수의 활용과 함께 분류 정확도 향상에 크게 기여할 수 있을 것으로 기대된다.

SegNet과 ResNet을 조합한 딥러닝에 기반한 횡단보도 영역 검출 (Detection of Zebra-crossing Areas Based on Deep Learning with Combination of SegNet and ResNet)

  • 량한;서수영
    • 한국측량학회지
    • /
    • 제39권3호
    • /
    • pp.141-148
    • /
    • 2021
  • 본 논문은 SegNet과 ResNet을 조합한 딥러닝을 이용하여 횡단보도를 검출하는 방법을 제안한다. 시각 장애인의 경우 횡단보도가 어디에 있는지 정확히 아는 게 안전한 교통 시스템에서 중요하다. 딥러닝에 의한 횡단보도 검출은 이 문제에 대한 좋은 해결책이 될 수 있다. 로봇 시각 기반 보조 기술은 지난 몇년 동안 카메라를 사용하는 특정 장면에 초점을 두고 제안되어 왔다. 이러한 전통적인 방법은 비교적 긴 처리 시간으로 의미있는 결과를 얻었으며 횡단보도 인식을 크게 향상시켰다. 그러나 전통적인 방법은 지연 시간이 길고 웨어러블 장비에서 실시간을 만족시킬 수 없다. 본 연구에서 제안하는 방법은 취득한 영상에서 횡단보도를 빠르고 안정적으로 검출하기 위한 모델을 제안한다. 모델은 SegNet과 ResNet을 기반으로 개선되었으며 3단계로 구성된다. 첫째, 입력 영상을 서브샘플링하여 이미지 특징을 추출하고 ResNet의 컨벌루션 신경망을 수정하여 새로운 인코더로 만든다. 둘째, 디코딩 과정에서 업샘플링 네트워크를 통해 특징맵을 원영상 크기로 복원한다. 셋째, 모든 픽셀을 분류하고 각 픽셀의 정확도를 계산한다. 이 실험의 결과를 통하여 수정된 시맨틱 분할 알고리즘의 적격한 정확성을 검증하는 동시에 결과 출력 속도가 비교적 빠른 것으로 파악되었다.

SegFormer 및 U-Net의 철도 구성요소 객체 분할 성능 비교 (The Comparison of Segmentation Performance between SegFormer and U-Net on Railway Components)

  • 이재현;박창준;김남중;박준휘;곽정환
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.347-348
    • /
    • 2024
  • 본 논문에서는 철도 구성요소 모니터링을 위한 효율적인 객체 분할 기법으로 사전학습된 SegFormer 모델의 적용을 제안하고, 객체 분할을 위해 보편적으로 사용되는 U-Net 모델과의 성능 비교 분석을 진행하였다. 철도의 주요 구성요소인 선로, 침목, 고정 장치, 배경을 분할할 수 있도록 라벨링된 데이터셋을 학습에 사용하였다. SegFormer 모델이 대조군인 U-Net보다 성능이 Jaccard Score 기준 5.29% 향상됨에 따라 Vision Transformer 기반의 모델이 기존 CNN 기반 모델의 이미지의 전역적인 문맥을 파악하기 상대적으로 어렵다는 한계를 극복하고, 철도 구성요소 객체 분할에 더욱 효율적인 모델임을 확인한다.

  • PDF

Multi-scale U-SegNet architecture with cascaded dilated convolutions for brain MRI Segmentation

  • 챠이트라 다야난다;이범식
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 추계학술대회
    • /
    • pp.25-28
    • /
    • 2020
  • Automatic segmentation of brain tissues such as WM, GM, and CSF from brain MRI scans is helpful for the diagnosis of many neurological disorders. Accurate segmentation of these brain structures is a very challenging task due to low tissue contrast, bias filed, and partial volume effects. With the aim to improve brain MRI segmentation accuracy, we propose an end-to-end convolutional based U-SegNet architecture designed with multi-scale kernels, which includes cascaded dilated convolutions for the task of brain MRI segmentation. The multi-scale convolution kernels are designed to extract abundant semantic features and capture context information at different scales. Further, the cascaded dilated convolution scheme helps to alleviate the vanishing gradient problem in the proposed model. Experimental outcomes indicate that the proposed architecture is superior to the traditional deep-learning methods such as Segnet, U-net, and U-Segnet and achieves high performance with an average DSC of 93% and 86% of JI value for brain MRI segmentation.

  • PDF

Enhanced CNN Model for Brain Tumor Classification

  • Kasukurthi, Aravinda;Paleti, Lakshmikanth;Brahmaiah, Madamanchi;Sree, Ch.Sudha
    • International Journal of Computer Science & Network Security
    • /
    • 제22권5호
    • /
    • pp.143-148
    • /
    • 2022
  • Brain tumor classification is an important process that allows doctors to plan treatment for patients based on the stages of the tumor. To improve classification performance, various CNN-based architectures are used for brain tumor classification. Existing methods for brain tumor segmentation suffer from overfitting and poor efficiency when dealing with large datasets. The enhanced CNN architecture proposed in this study is based on U-Net for brain tumor segmentation, RefineNet for pattern analysis, and SegNet architecture for brain tumor classification. The brain tumor benchmark dataset was used to evaluate the enhanced CNN model's efficiency. Based on the local and context information of the MRI image, the U-Net provides good segmentation. SegNet selects the most important features for classification while also reducing the trainable parameters. In the classification of brain tumors, the enhanced CNN method outperforms the existing methods. The enhanced CNN model has an accuracy of 96.85 percent, while the existing CNN with transfer learning has an accuracy of 94.82 percent.

ATLAS V2.0 데이터에서 의료영상 분할 모델 성능 비교 (Comparison of Performance of Medical Image Semantic Segmentation Model in ATLASV2.0 Data)

  • 우소연;구영현;유성준
    • 방송공학회논문지
    • /
    • 제28권3호
    • /
    • pp.267-274
    • /
    • 2023
  • 의료영상 공개 데이터는 수집에 한계가 있어 데이터셋의 양이 부족하다는 문제점이 있다. 때문에 기존 연구들은 공개 데이터셋에 과적합 되었을 우려가 있다. 본 논문은 실험을 통해 8개의 (Unet, X-Net, HarDNet, SegNet, PSPNet, SwinUnet, 3D-ResU-Net, UNETR) 의료영상 분할 모델의 성능을 비교함으로써 기존 모델의 성능을 재검증하고자 한다. 뇌졸중 진단 공개 데이터 셋인 Anatomical Tracings of Lesions After Stroke(ATLAS) V1.2과 ATLAS V2.0에서 모델들의 성능 비교 실험을 진행한다. 실험결과 대부분 모델은 V1.2과 V2.0에서 성능이 비슷한 결과를 보였다. 하지만 X-net과 3D-ResU-Net는 V1.2 데이터셋에서 더 높은 성능을 기록했다. 이러한 결과는 해당 모델들이 V1.2에 과적합 되었을 것으로 해석할 수 있다.

웨이블릿 퓨전에 의한 딥러닝 색상화의 성능 향상 (High-performance of Deep learning Colorization With Wavelet fusion)

  • 김영백;최현;조중휘
    • 대한임베디드공학회논문지
    • /
    • 제13권6호
    • /
    • pp.313-319
    • /
    • 2018
  • We propose a post-processing algorithm to improve the quality of the RGB image generated by deep learning based colorization from the gray-scale image of an infrared camera. Wavelet fusion is used to generate a new luminance component of the RGB image luminance component from the deep learning model and the luminance component of the infrared camera. PSNR is increased for all experimental images by applying the proposed algorithm to RGB images generated by two deep learning models of SegNet and DCGAN. For the SegNet model, the average PSNR is improved by 1.3906dB at level 1 of the Haar wavelet method. For the DCGAN model, PSNR is improved 0.0759dB on the average at level 5 of the Daubechies wavelet method. It is also confirmed that the edge components are emphasized by the post-processing and the visibility is improved.