• 제목/요약/키워드: SegFormer

검색결과 4건 처리시간 0.02초

SegFormer 및 U-Net의 철도 구성요소 객체 분할 성능 비교 (The Comparison of Segmentation Performance between SegFormer and U-Net on Railway Components)

  • 이재현;박창준;김남중;박준휘;곽정환
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.347-348
    • /
    • 2024
  • 본 논문에서는 철도 구성요소 모니터링을 위한 효율적인 객체 분할 기법으로 사전학습된 SegFormer 모델의 적용을 제안하고, 객체 분할을 위해 보편적으로 사용되는 U-Net 모델과의 성능 비교 분석을 진행하였다. 철도의 주요 구성요소인 선로, 침목, 고정 장치, 배경을 분할할 수 있도록 라벨링된 데이터셋을 학습에 사용하였다. SegFormer 모델이 대조군인 U-Net보다 성능이 Jaccard Score 기준 5.29% 향상됨에 따라 Vision Transformer 기반의 모델이 기존 CNN 기반 모델의 이미지의 전역적인 문맥을 파악하기 상대적으로 어렵다는 한계를 극복하고, 철도 구성요소 객체 분할에 더욱 효율적인 모델임을 확인한다.

  • PDF

Automatic crack detection of dam concrete structures based on deep learning

  • Zongjie Lv;Jinzhang Tian;Yantao Zhu;Yangtao Li
    • Computers and Concrete
    • /
    • 제32권6호
    • /
    • pp.615-623
    • /
    • 2023
  • Crack detection is an essential method to ensure the safety of dam concrete structures. Low-quality crack images of dam concrete structures limit the application of neural network methods in crack detection. This research proposes a modified attentional mechanism model to reduce the disturbance caused by uneven light, shadow, and water spots in crack images. Also, the focal loss function solves the small ratio of crack information. The dataset collects from the network, laboratory and actual inspection dataset of dam concrete structures. This research proposes a novel method for crack detection of dam concrete structures based on the U-Net neural network, namely AF-UNet. A mutual comparison of OTSU, Canny, region growing, DeepLab V3+, SegFormer, U-Net, and AF-UNet (proposed) verified the detection accuracy. A binocular camera detects cracks in the experimental scene. The smallest measurement width of the system is 0.27 mm. The potential goal is to achieve real-time detection and localization of cracks in dam concrete structures.

의미론적 분할 기반 모델을 이용한 조선소 사외 적치장 객체 자동 관리 기술 (Segmentation Foundation Model-based Automated Yard Management Algorithm)

  • 정민규;노정현;김장현;하성헌;강태선;이병학;강기룡;김준현;박진선
    • 스마트미디어저널
    • /
    • 제13권2호
    • /
    • pp.52-61
    • /
    • 2024
  • 조선소에서는 사외 적치장의 관리를 위해 일정 주기로 Unmanned Aerial Vehicle (UAV)을 이용해 항공영상을 획득하고, 이를 사람이 판독하여 적치장 현황을 파악한다. 이러한 방법은 넓은 면적의 사외 적치장 현황을 파악하는 데 상당한 시간과 인력을 요구한다. 본 논문에서는 이러한 문제점을 해결하고 정확한 사외 적치장 현황을 파악하기 위해 사전 학습된 의미론적 분할 기반 모델(Foundation Model)을 활용한 자동 관리 기술을 제안한다. 또한, 조선소 사외 적치장의 경우 관련 부품이나 장비를 포함한 공개 데이터셋이 충분하지 않기 때문에, 의미론적 분할 기반 모델에 필요한 객체 프롬프트(Prompt)를 생성하기 위한 소규모 사외 적치장 객체 데이터셋을 직접 구축하였다. 이를 이용해 객체 검출기를 소규모 데이터셋에 추가 학습하여 초기 객체 후보를 추출하고, 의미론적 분할 기반 모델인 Segment Anything Model (SAM)의 프롬프트로 활용해 정확한 의미론적 분할 결과를 얻는다. 더 나아가, 지속적인 적치장 데이터셋 수집을 위해 SAM을 활용한 훈련 데이터 생성 파이프라인을 제안한다. 본 연구에서 제안한 방법은 기존의 의미론적 분할 방법과 비교하여 평균적 4.00%p, SegFormer에 비해 5.08%p 높은 성능을 달성하였다.

Bird's Eye View Semantic Segmentation based on Improved Transformer for Automatic Annotation

  • Tianjiao Liang;Weiguo Pan;Hong Bao;Xinyue Fan;Han Li
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권8호
    • /
    • pp.1996-2015
    • /
    • 2023
  • High-definition (HD) maps can provide precise road information that enables an autonomous driving system to effectively navigate a vehicle. Recent research has focused on leveraging semantic segmentation to achieve automatic annotation of HD maps. However, the existing methods suffer from low recognition accuracy in automatic driving scenarios, leading to inefficient annotation processes. In this paper, we propose a novel semantic segmentation method for automatic HD map annotation. Our approach introduces a new encoder, known as the convolutional transformer hybrid encoder, to enhance the model's feature extraction capabilities. Additionally, we propose a multi-level fusion module that enables the model to aggregate different levels of detail and semantic information. Furthermore, we present a novel decoupled boundary joint decoder to improve the model's ability to handle the boundary between categories. To evaluate our method, we conducted experiments using the Bird's Eye View point cloud images dataset and Cityscapes dataset. Comparative analysis against stateof-the-art methods demonstrates that our model achieves the highest performance. Specifically, our model achieves an mIoU of 56.26%, surpassing the results of SegFormer with an mIoU of 1.47%. This innovative promises to significantly enhance the efficiency of HD map automatic annotation.