• 제목/요약/키워드: ResU-Net

검색결과 25건 처리시간 0.025초

SpaceNet 건물 데이터셋과 Context-based ResU-Net을 이용한 건물 자동 추출 (Automatic Building Extraction Using SpaceNet Building Dataset and Context-based ResU-Net)

  • 유수홍;김철환;권영목;최원준;손홍규
    • 대한원격탐사학회지
    • /
    • 제38권5_2호
    • /
    • pp.685-694
    • /
    • 2022
  • 건물 정보는 다양한 도시 공간 분석에 활용되는 필수 정보 중 하나이기에 지속적인 모니터링이 필요하지만 현실적으로 어려움이 존재하고 있다. 이를 위해 광범위한 지역에 대해서도 지속적인 관찰이 가능한 위성영상으로부터 건물을 추출하기 위한 연구가 진행되고 있으며, 최근에는 딥러닝 기반의 시맨틱 세그멘테이션 기법들이 활용되고 있다. 본 연구에서는 SpaceNet의 건물 v2 무료 오픈 데이터를 이용하여 30 cm 급 Worldview-3 RGB 영상으로부터 건물을 자동으로 추출하기 위해, context-based ResU-Net의 일부 구조를 변경하여 학습을 진행하였다. 분류 정확도 평가 결과, f1-score가 2회차 SpaceNet 대회 수상작의 분류 정확도보다 높은 것으로 나타났다. 앞으로 지속적으로 Worldview-3 위성 영상을 확보할 수 있다면 본 연구의 성과를 활용하여 전세계 건물 자동 추출 모델을 제작하는 것도 가능할 것으로 판단된다.

ATLAS V2.0 데이터에서 의료영상 분할 모델 성능 비교 (Comparison of Performance of Medical Image Semantic Segmentation Model in ATLASV2.0 Data)

  • 우소연;구영현;유성준
    • 방송공학회논문지
    • /
    • 제28권3호
    • /
    • pp.267-274
    • /
    • 2023
  • 의료영상 공개 데이터는 수집에 한계가 있어 데이터셋의 양이 부족하다는 문제점이 있다. 때문에 기존 연구들은 공개 데이터셋에 과적합 되었을 우려가 있다. 본 논문은 실험을 통해 8개의 (Unet, X-Net, HarDNet, SegNet, PSPNet, SwinUnet, 3D-ResU-Net, UNETR) 의료영상 분할 모델의 성능을 비교함으로써 기존 모델의 성능을 재검증하고자 한다. 뇌졸중 진단 공개 데이터 셋인 Anatomical Tracings of Lesions After Stroke(ATLAS) V1.2과 ATLAS V2.0에서 모델들의 성능 비교 실험을 진행한다. 실험결과 대부분 모델은 V1.2과 V2.0에서 성능이 비슷한 결과를 보였다. 하지만 X-net과 3D-ResU-Net는 V1.2 데이터셋에서 더 높은 성능을 기록했다. 이러한 결과는 해당 모델들이 V1.2에 과적합 되었을 것으로 해석할 수 있다.

Corneal Ulcer Region Detection With Semantic Segmentation Using Deep Learning

  • Im, Jinhyuk;Kim, Daewon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권9호
    • /
    • pp.1-12
    • /
    • 2022
  • 안과 환자의 질병을 판단하기 위해서는 특수 촬영 장비를 통해 찍은 안구영상을 이용한 안과의사의 주관적 판단의 개입이 전통적으로 활용되고 있다. 본 연구에서는 안과 의료진이 질병을 판단할 때 보조적 도움이 될 수 있도록 객관적 진단결과를 제시해주는 각막궤양 의미론적 분할방법에 대하여 제안하였다. 이를 위해 DeepLab 모델을 활용하였고 그 중 Backbone network으로 Xception과 ResNet 네트워크를 이용하였다. 실험결과를 나타내기 위한 평가지표로 다이스 유사계수와 IoU 값을 이용하였고 ResNet101 네트워크를 사용하였을 때 'crop & resized' 이미지에 대해 최대 평균 정확도 93%의 다이스 유사계수 값을 보였다. 본 연구는 객체 검출을 위한 의미론적 분할모델 또한 안구의 각막궤양 부분과 같은 불규칙하고 특이한 모양을 추출하고 분류하는데 뛰어난 결과를 도출할 수 있는 성능을 보유하고 있음을 보여주었다. 향후 학습용 Dataset을 양적으로 보강하여 실험결과의 정확도를 제고할 수 있도록 하고 실제 의료진단 환경에서 구현되어 사용되어 질 수 있도록 할 계획이다.

임베디드 보드에서 실시간 의미론적 분할을 위한 심층 신경망 구조 (A Deep Neural Network Architecture for Real-Time Semantic Segmentation on Embedded Board)

  • 이준엽;이영완
    • 정보과학회 논문지
    • /
    • 제45권1호
    • /
    • pp.94-98
    • /
    • 2018
  • 본 논문은 자율주행을 위한 실시간 의미론적 분할 방법으로 최적화된 심층 신경망 구조인 Wide Inception ResNet (WIR Net)을 제안한다. 신경망 구조는 Residual connection과 Inception module을 적용하여 특징을 추출하는 인코더와 Transposed convolution과 낮은 층의 특징 맵을 사용하여 해상도를 높이는 디코더로 구성하였고 ELU 활성화 함수를 적용함으로써 성능을 올렸다. 또한 신경망의 전체 층수를 줄이고 필터 수를 늘리는 방법을 통해 성능을 최적화하였다. 성능평가는 NVIDIA Geforce gtx 1080과 TX1 보드를 사용하여 주행환경의 Cityscapes 데이터에 대해 클래스와 카테고리별 IoU를 평가하였다. 실험 결과를 통해 클래스 IoU 53.4, 카테고리 IoU 81.8의 정확도와 TX1 보드에서 $640{\times}360$, $720{\times}480$ 해상도 영상처리에 17.8fps, 13.0fps의 실행속도를 보여주는 것을 확인하였다.

A three-stage deep-learning-based method for crack detection of high-resolution steel box girder image

  • Meng, Shiqiao;Gao, Zhiyuan;Zhou, Ying;He, Bin;Kong, Qingzhao
    • Smart Structures and Systems
    • /
    • 제29권1호
    • /
    • pp.29-39
    • /
    • 2022
  • Crack detection plays an important role in the maintenance and protection of steel box girder of bridges. However, since the cracks only occupy an extremely small region of the high-resolution images captured from actual conditions, the existing methods cannot deal with this kind of image effectively. To solve this problem, this paper proposed a novel three-stage method based on deep learning technology and morphology operations. The training set and test set used in this paper are composed of 360 images (4928 × 3264 pixels) in steel girder box. The first stage of the proposed model converted high-resolution images into sub-images by using patch-based method and located the region of cracks by CBAM ResNet-50 model. The Recall reaches 0.95 on the test set. The second stage of our method uses the Attention U-Net model to get the accurate geometric edges of cracks based on results in the first stage. The IoU of the segmentation model implemented in this stage attains 0.48. In the third stage of the model, we remove the wrong-predicted isolated points in the predicted results through dilate operation and outlier elimination algorithm. The IoU of test set ascends to 0.70 after this stage. Ablation experiments are conducted to optimize the parameters and further promote the accuracy of the proposed method. The result shows that: (1) the best patch size of sub-images is 1024 × 1024. (2) the CBAM ResNet-50 and the Attention U-Net achieved the best results in the first and the second stage, respectively. (3) Pre-training the model of the first two stages can improve the IoU by 2.9%. In general, our method is of great significance for crack detection.

임베디드 연산을 위한 잡음에서 음성추출 U-Net 설계 (Design of Speech Enhancement U-Net for Embedded Computing)

  • 김현돈
    • 대한임베디드공학회논문지
    • /
    • 제15권5호
    • /
    • pp.227-234
    • /
    • 2020
  • In this paper, we propose wav-U-Net to improve speech enhancement in heavy noisy environments, and it has implemented three principal techniques. First, as input data, we use 128 modified Mel-scale filter banks which can reduce computational burden instead of 512 frequency bins. Mel-scale aims to mimic the non-linear human ear perception of sound by being more discriminative at lower frequencies and less discriminative at higher frequencies. Therefore, Mel-scale is the suitable feature considering both performance and computing power because our proposed network focuses on speech signals. Second, we add a simple ResNet as pre-processing that helps our proposed network make estimated speech signals clear and suppress high-frequency noises. Finally, the proposed U-Net model shows significant performance regardless of the kinds of noise. Especially, despite using a single channel, we confirmed that it can well deal with non-stationary noises whose frequency properties are dynamically changed, and it is possible to estimate speech signals from noisy speech signals even in extremely noisy environments where noises are much lauder than speech (less than SNR 0dB). The performance on our proposed wav-U-Net was improved by about 200% on SDR and 460% on NSDR compared to the conventional Jansson's wav-U-Net. Also, it was confirmed that the processing time of out wav-U-Net with 128 modified Mel-scale filter banks was about 2.7 times faster than the common wav-U-Net with 512 frequency bins as input values.

Multi-class Classification of Histopathology Images using Fine-Tuning Techniques of Transfer Learning

  • Ikromjanov, Kobiljon;Bhattacharjee, Subrata;Hwang, Yeong-Byn;Kim, Hee-Cheol;Choi, Heung-Kook
    • 한국멀티미디어학회논문지
    • /
    • 제24권7호
    • /
    • pp.849-859
    • /
    • 2021
  • Prostate cancer (PCa) is a fatal disease that occurs in men. In general, PCa cells are found in the prostate gland. Early diagnosis is the key to prevent the spreading of cancers to other parts of the body. In this case, deep learning-based systems can detect and distinguish histological patterns in microscopy images. The histological grades used for the analysis were benign, grade 3, grade 4, and grade 5. In this study, we attempt to use transfer learning and fine-tuning methods as well as different model architectures to develop and compare the models. We implemented MobileNet, ResNet50, and DenseNet121 models and used three different strategies of freezing layers techniques of fine-tuning, to get various pre-trained weights to improve accuracy. Finally, transfer learning using MobileNet with the half-layer frozen showed the best results among the nine models, and 90% accuracy was obtained on the test data set.

위성 및 드론 영상을 이용한 해안쓰레기 모니터링 기법 개발 (Development of Marine Debris Monitoring Methods Using Satellite and Drone Images)

  • 김흥민;박수호;한정익;예건희;장선웅
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1109-1124
    • /
    • 2022
  • 본 연구에서는 단시간 내 광범위한 지역에 대한 해양쓰레기 발생 실태 파악이 가능하도록 위성 및 드론다중분광 영상을 이용한 해안쓰레기 모니터링 기법을 제안한다. Sentinel-2 위성 영상을 이용한 해안쓰레기 탐지를 위해 multi-layer perceptron (MLP) 모델을 적용하였고, 드론 다중분광 영상을 이용한 해안쓰레기 탐지를 위해 딥러닝 모델 중 U-Net, DeepLabv3+ (ResNet50), DeepLabv3+ (Inceptionv3)의 탐지 성능평가 및 비교를 수행하였다. 위성 영상을 이용한 해안쓰레기 탐지 결과 F1-Score 0.97을 보였다. 드론 다중분광 영상을 이용한 해안쓰레기 탐지는 초목류와 플라스틱류에 대한 탐지를 수행하였고, 탐지 결과 DeepLabv3+ (Inceptionv3) 모델이 mean Intersection over Union (mIoU) 0.68로 가장 우수한 성능을 보였다. 초목류는 F1-Score 0.93, IoU는 0.86을 보인 반면에 플라스틱류의 F1-Score 0.5, IoU는 0.33으로 낮은 성능을 보였다. 그러나 플라스틱류 마스크 영상 생성을 위해 적용된 분광 지수식의 F1-Score는 0.81로 DeepLabv3+ (Inceptionv3)의 플라스틱류 탐지 성능보다 높은 성능을 보이며, 분광 지수식을 이용한 플라스틱류 모니터링이 가능할 것으로 판단된다. 본 연구에서 제안된 해안쓰레기 모니터링 기법을 통해 해안쓰레기 발생에 대한 정량적 자료 제공과 더불어 해안쓰레기 수거·처리 계획 수립에 활용할 수 있다.

영상 기반 Semantic Segmentation 알고리즘을 이용한 도로 추출 (Road Extraction from Images Using Semantic Segmentation Algorithm)

  • 오행열;전승배;김건;정명훈
    • 한국측량학회지
    • /
    • 제40권3호
    • /
    • pp.239-247
    • /
    • 2022
  • 현대에는 급속한 산업화와 인구 증가로 인해 도시들이 더욱 복잡해지고 있다. 특히 도심은 택지개발, 재건축, 철거 등으로 인해 빠르게 변화하는 지역에 해당한다. 따라서 자율주행에 필요한 정밀도로지도와 같은 다양한 목적을 위해 빠른 정보 갱신이 필요하다. 우리나라의 경우 기존 지도 제작 과정을 통해 지도를 제작하면 정확한 공간정보를 생성할 수 있으나 대상 지역이 넓은 경우 시간과 비용이 많이 든다는 한계가 있다. 지도 요소 중 하나인 도로는 인류 문명을 위한 많은 다양한 자원을 제공하는 중추이자 필수적인 수단에 해당한다. 따라서 도로 정보를 정확하고 신속하게 갱신하는 것이 중요하다. 이 목표를 달성하기 위해 본 연구는 Semantic Segmentation 알고리즘인 LinkNet, D-LinkNet 및 NL-LinkNet을 사용하여 광주광역시 도시철도 2호선 공사 현장을 촬영한 드론 정사영상에서 도로를 추출한 다음 성능이 가장 높은 모델에 하이퍼 파라미터 최적화를 적용하였다. 그 결과, 사전 훈련된 ResNet-34를 Encoder로 사용한 LinkNet 모델이 85.125 mIoU를 달성했다. 향후 연구 방향으로 최신 Semantic Segmentation 알고리즘 또는 준지도 학습 기반 Semantic Segmentation 기법을 사용하는 연구의 결과와의 비교 분석이 수행될 것이다. 본 연구의 결과는 기존 지도 갱신 프로세스의 속도를 개선하는 데 도움을 줄 수 있을 것으로 예상된다.

콘크리트 구조체 균열 탐지에 대한 Mask R-CNN 알고리즘 적용성 평가 (Application of Mask R-CNN Algorithm to Detect Cracks in Concrete Structure)

  • 배병규;최용진;윤강호;안재훈
    • 한국지반공학회논문집
    • /
    • 제40권3호
    • /
    • pp.33-39
    • /
    • 2024
  • 구조물의 상태를 파악하기 위한 균열조사는 정밀안전 진단에 필수적인 검사 항목이다. 그러나 육안으로 이루어지는 균열조사 방식은 현장 상황의 변화에 따라 주관적으로 수행될 수 있다. 이러한 육안검사의 한계를 극복하기 위해 본 연구에서는, ResNet, FPN, Mask R-CNN을 백본(Backbone), 넥(Neck), 헤드(head)로 구성한 합성곱 신경망을 바탕으로, 이미지 데이터에서의 콘크리트 균열 탐지를 자동화하고. 그 성능을 IoU 값을 바탕으로 분석하였다. 해석에 사용된 데이터는 총 1,203개의 이미지 데이터로 구성하였으며, 이 중 70%를 훈련(Training)에, 20%를 검증(Validation)에, 그리고 10%의 데이터를 시험(Testing)에 사용하였다. 시험 결과의 평균 IoU값은 95.83%로 산정되었고, 또한 이미지 내 균열이 전혀 탐지되지 않는 경우는 존재하지 않아, 본 연구에 가정한 모델이 콘크리트의 균열 탐지를 성공적으로 수행하는 것을 확인하였다.