• 제목/요약/키워드: semantic segmentation

검색결과 243건 처리시간 0.026초

Segmenting Chinese Texts into Words for Semantic Network Analysis

  • Danowski, James A.
    • Journal of Contemporary Eastern Asia
    • /
    • 제16권2호
    • /
    • pp.110-144
    • /
    • 2017
  • Unlike most languages, written Chinese has no spaces between words. Word segmentation must be performed before semantic network analysis can be conducted. This paper describes how to perform Chinese word segmentation using the Stanford Natural Language Processing group's Stanford Word Segmenter v. 3.8.0, released in June 2017.

ETLi: Efficiently annotated traffic LiDAR dataset using incremental and suggestive annotation

  • Kang, Jungyu;Han, Seung-Jun;Kim, Nahyeon;Min, Kyoung-Wook
    • ETRI Journal
    • /
    • 제43권4호
    • /
    • pp.630-639
    • /
    • 2021
  • Autonomous driving requires a computerized perception of the environment for safety and machine-learning evaluation. Recognizing semantic information is difficult, as the objective is to instantly recognize and distinguish items in the environment. Training a model with real-time semantic capability and high reliability requires extensive and specialized datasets. However, generalized datasets are unavailable and are typically difficult to construct for specific tasks. Hence, a light detection and ranging semantic dataset suitable for semantic simultaneous localization and mapping and specialized for autonomous driving is proposed. This dataset is provided in a form that can be easily used by users familiar with existing two-dimensional image datasets, and it contains various weather and light conditions collected from a complex and diverse practical setting. An incremental and suggestive annotation routine is proposed to improve annotation efficiency. A model is trained to simultaneously predict segmentation labels and suggest class-representative frames. Experimental results demonstrate that the proposed algorithm yields a more efficient dataset than uniformly sampled datasets.

개선된 DeepResUNet과 컨볼루션 블록 어텐션 모듈의 결합을 이용한 의미론적 건물 분할 (Semantic Building Segmentation Using the Combination of Improved DeepResUNet and Convolutional Block Attention Module)

  • 예철수;안영만;백태웅;김경태
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1091-1100
    • /
    • 2022
  • 딥러닝 기술의 진보와 함께 다양한 국내외 고해상도 원격탐사 영상의 활용이 가능함에 따라 딥러닝 기술과 원격탐사 빅데이터를 활용하여 도심 지역 건물 검출과 변화탐지에 활용하고자 하는 관심이 크게 증가하고 있다. 본 논문에서는 고해상도 원격탐사 영상의 의미론적 건물 분할을 위해서 건물 분할에 우수한 성능을 보이는 DeepResUNet 모델을 기본 구조로 하고 잔차 학습 단위를 개선하고 Convolutional Block Attention Module(CBAM)을 결합한 새로운 건물 분할 모델인 CBAM-DRUNet을 제안한다. 제안한 건물 분할 모델은 WHU 데이터셋과 INRIA 데이터셋을 이용한 성능 평가에서 UNet을 비롯하여 ResUNet, DeepResUNet 대비 F1 score, 정확도, 재현율 측면에서 모두 우수한 성능을 보였다.

깊은 신경망에서 단일 중간층 연결을 통한 물체 분할 능력의 심층적 분석 (Investigating the Feature Collection for Semantic Segmentation via Single Skip Connection)

  • 임종화;손경아
    • 정보과학회 논문지
    • /
    • 제44권12호
    • /
    • pp.1282-1289
    • /
    • 2017
  • 최근 심층 컨볼루션 신경망을 활용한 이미지 분할과 물체 위치감지 연구가 활발히 진행되고 있다. 특히 네트워크의 최상위 단에서 추출한 특징 지도뿐만 아니라, 중간 은닉 층들에서 추출한 특징 지도를 활용하면 더욱 정확한 물체 감지를 수행할 수 있고 이에 대한 연구 또한 활발하게 진행되고 있다. 이에 밝혀진 경험적 특성 중 하나로 중간 은닉 층마다 추출되는 특징 지도는 각기 다른 특성을 가지고 있다는 것이다. 그러나 모델이 깊어질수록 가능한 중간 연결과 이용할 수 있는 중간 층 특징 지도가 많아지는 반면, 어떠한 중간 층 연결이 물체 분할에 더욱 효과적일지에 대한 연구는 미비한 상황이다. 또한 중간층 연결 방식 및 중간층의 특징 지도에 대한 정확한 분석 또한 부족한 상황이다. 따라서 본 연구에서 최신 깊은 신경망에서 중간층 연결의 특성을 파악하고, 어떠한 중간 층 연결이 물체 감지에 최적의 성능을 보이는지, 그리고 중간 층 연결마다 특징은 어떠한지 밝혀내고자 한다. 그리고 이전 방식에 비해 더 깊은 신경망을 활용하는 물체 분할의 방법과 중간 연결의 방향을 제시한다.

광학영상에서의 해빙종류 분류 연구 (Sea Ice Type Classification with Optical Remote Sensing Data)

  • 지준화;김현철
    • 대한원격탐사학회지
    • /
    • 제34권6_2호
    • /
    • pp.1239-1249
    • /
    • 2018
  • 광학 위성영상은 레이더 영상에 비해 시각적으로 친숙한 영상을 제공한다. 하지만해빙종류에 대한 구분은 분광학적으로 쉽지 않아 기존 기계학습에서 주로 사용하는 분광정보를 이용한 분류기법을 이용했을 경우 광학영상에서 해빙종류의 구분은 매우 어렵다. 본 연구에서는 분광정보 기반의 분류모델이 아닌 딥러닝 기반 분류기법인 semantic segmentation을 이용하여 계층적, 공간적 패턴을 학습하여 해빙종류 분류를 수행하였다. 또한 주기적으로 획득되는 광학위성자료에 비해 감독분류에서 매우 중요한 양질의 레이블 자료는 수집하는데 있어 높은 시간 및 노동 비용이 소모된다. 본 연구에서는 부족한 레이블 자료로 인해 어려운 다중영상에 대한 감독분류 문제를 준지도학습과 능동학습의 결합을 통해 해결을 시도 하였다. 이를 통해 레이블 되지 않은 새로운 영상자료로부터 추가적인 레이블을 스스로 학습하여 분류모델을 강화할 수 있었으며, 이는 향후 광학영상 기반의 운영 가능한 해빙종류 산출물 개발에도 적용될 수 있을 것으로 기대된다.

딥러닝 기반 픽셀 단위 콘크리트 벽체 균열 검출 방법 (Deep Learning-based Pixel-level Concrete Wall Crack Detection Method)

  • 강경수;류한국
    • 한국건축시공학회지
    • /
    • 제23권2호
    • /
    • pp.197-207
    • /
    • 2023
  • 콘크리트는 압축력에 잘 저항하고 내구성이 우수하여 널리 사용되는 재료이다. 하지만 구조물은 시공 단계에서 주변 환경, 사용되는 재료의 특성에 따라 완공된 후 표면의 균열, 구조물의 침하 등 다양한 하자가 발생하거나 시간이 지남에 따라 콘크리트 구조물 표면에 결함이 발생한다. 그대로 방치하면 구조물에 심각한 손상을 초래하기 때문에 안전 점검을 통해 검사해야 한다. 하지만 전문 검사원들이 직접 조사하기에 비용이 높고 육안으로 판단하는 외관 검사법을 사용한다. 고층 건물일수록 상세한 검사가 힘들다. 본 연구는 노후화로 인해 콘크리트 표면에 발생하는 결함 중 균열을 탐지하는 딥러닝 기반 시맨틱 세그먼테이션 모형과 해당 모형의 특징 추출과 일반화 성능을 높이기 위한 이미지 어그멘테이션 기법을 개발하였다. 이를 위해 공개 데이터셋과 자체 데이터셋을 결합하여 시맨틱 세그먼테이션용 데이터셋을 구축하고 대표적인 딥러닝 기반 시맨틱 세그먼테이션 모형들을 비교실험하였다. 콘크리트 내벽을 중점으로 학습한 모형의 균열 추출 성능은 81.4%이며, 개발한 이미지 어그멘테이션을 적용한 결과 3%의 성능향상을 확인하였다. 향후 고층 건물과 같이 접근성이 어려운 지점을 드론을 통해 콘크리트 외벽에서 균열을 검출할 수 있는 시스템을 개발함으로써 실질적으로 활용할 수 있기를 기대한다.

특징 융합을 이용한 농작물 다중 분광 이미지의 의미론적 분할 (Semantic Segmentation of Agricultural Crop Multispectral Image Using Feature Fusion)

  • 문준렬;박성준;백중환
    • 한국항행학회논문지
    • /
    • 제28권2호
    • /
    • pp.238-245
    • /
    • 2024
  • 본 논문에서는 농작물 다중 분광 이미지에 대해 특징 융합 기법을 이용하여 의미론적 분할 성능을 향상시키기 위한 프레임워크를 제안한다. 스마트팜 분야에서 연구 중인 딥러닝 기술 중 의미론적 분할 모델 대부분은 RGB(red-green-blue)로 학습을 진행하고 있고 성능을 높이기 위해 모델의 깊이와 복잡성을 증가시키는 데에 집중하고 있다. 본 연구는 기존 방식과 달리 다중 분광과 어텐션 메커니즘을 통해 모델을 최적화하여 설계한다. 제안하는 방식은 RGB 단일 이미지와 함께 UAV (unmanned aerial vehicle)에서 수집된 여러 채널의 특징을 융합하여 특징 추출 성능을 높이고 상호보완적인 특징을 인식하여 학습 효과를 증대시킨다. 특징 융합에 집중할 수 있도록 모델 구조를 개선하고, 작물 이미지에 유리한 채널 및 조합을 실험하여 다른 모델과의 성능을 비교한다. 실험 결과 RGB와 NDVI (normalized difference vegetation index)가 융합된 모델이 다른 채널과의 조합보다 성능이 우수함을 보였다.

Boundary-Aware Dual Attention Guided Liver Segment Segmentation Model

  • Jia, Xibin;Qian, Chen;Yang, Zhenghan;Xu, Hui;Han, Xianjun;Ren, Hao;Wu, Xinru;Ma, Boyang;Yang, Dawei;Min, Hong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권1호
    • /
    • pp.16-37
    • /
    • 2022
  • Accurate liver segment segmentation based on radiological images is indispensable for the preoperative analysis of liver tumor resection surgery. However, most of the existing segmentation methods are not feasible to be used directly for this task due to the challenge of exact edge prediction with some tiny and slender vessels as its clinical segmentation criterion. To address this problem, we propose a novel deep learning based segmentation model, called Boundary-Aware Dual Attention Liver Segment Segmentation Model (BADA). This model can improve the segmentation accuracy of liver segments with enhancing the edges including the vessels serving as segment boundaries. In our model, the dual gated attention is proposed, which composes of a spatial attention module and a semantic attention module. The spatial attention module enhances the weights of key edge regions by concerning about the salient intensity changes, while the semantic attention amplifies the contribution of filters that can extract more discriminative feature information by weighting the significant convolution channels. Simultaneously, we build a dataset of liver segments including 59 clinic cases with dynamically contrast enhanced MRI(Magnetic Resonance Imaging) of portal vein stage, which annotated by several professional radiologists. Comparing with several state-of-the-art methods and baseline segmentation methods, we achieve the best results on this clinic liver segment segmentation dataset, where Mean Dice, Mean Sensitivity and Mean Positive Predicted Value reach 89.01%, 87.71% and 90.67%, respectively.

디컨볼루션 픽셀층 기반의 도로 이미지의 의미론적 분할 (Deconvolution Pixel Layer Based Semantic Segmentation for Street View Images)

  • Wahid, Abdul;Lee, Hyo Jong
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 춘계학술발표대회
    • /
    • pp.515-518
    • /
    • 2019
  • Semantic segmentation has remained as a challenging problem in the field of computer vision. Given the immense power of Convolution Neural Network (CNN) models, many complex problems have been solved in computer vision. Semantic segmentation is the challenge of classifying several pixels of an image into one category. With the help of convolution neural networks, we have witnessed prolific results over the time. We propose a convolutional neural network model which uses Fully CNN with deconvolutional pixel layers. The goal is to create a hierarchy of features while the fully convolutional model does the primary learning and later deconvolutional model visually segments the target image. The proposed approach creates a direct link among the several adjacent pixels in the resulting feature maps. It also preserves the spatial features such as corners and edges in images and hence adding more accuracy to the resulting outputs. We test our algorithm on Karlsruhe Institute of Technology and Toyota Technologies Institute (KITTI) street view data set. Our method achieves an mIoU accuracy of 92.04 %.

아리랑 5호 위성 영상에서 수계의 의미론적 분할을 위한 딥러닝 모델의 비교 연구 (Comparative Study of Deep Learning Model for Semantic Segmentation of Water System in SAR Images of KOMPSAT-5)

  • 김민지;김승규;이도훈;감진규
    • 한국멀티미디어학회논문지
    • /
    • 제25권2호
    • /
    • pp.206-214
    • /
    • 2022
  • The way to measure the extent of damage from floods and droughts is to identify changes in the extent of water systems. In order to effectively grasp this at a glance, satellite images are used. KOMPSAT-5 uses Synthetic Aperture Radar (SAR) to capture images regardless of weather conditions such as clouds and rain. In this paper, various deep learning models are applied to perform semantic segmentation of the water system in this SAR image and the performance is compared. The models used are U-net, V-Net, U2-Net, UNet 3+, PSPNet, Deeplab-V3, Deeplab-V3+ and PAN. In addition, performance comparison was performed when the data was augmented by applying elastic deformation to the existing SAR image dataset. As a result, without data augmentation, U-Net was the best with IoU of 97.25% and pixel accuracy of 98.53%. In case of data augmentation, Deeplab-V3 showed IoU of 95.15% and V-Net showed the best pixel accuracy of 96.86%.