• 제목/요약/키워드: Deep learning segmentation

검색결과 412건 처리시간 0.033초

라이다 플랫폼과 딥러닝 모델에 따른 잣나무와 낙엽송의 분류정확도 비교 및 평가 (Comparison and Evaluation of Classification Accuracy for Pinus koraiensis and Larix kaempferi based on LiDAR Platforms and Deep Learning Models)

  • 이용규;이상진;이정수
    • 한국산림과학회지
    • /
    • 제112권2호
    • /
    • pp.195-208
    • /
    • 2023
  • 본 연구는 잣나무와 낙엽송을 대상으로 라이다로부터 취득된 3차원의 Point cloud data (PCD)를 이용하여 딥러닝 기반의 수종 분류 모델을 구축하고 분류정확도를 비교·평가하였다. 수종 분류 모델은 라이다 플랫폼(고정식과 이동식), Farthest point sampling (FPS) 기반의 다운샘플링 강도(1024개, 2048개, 4096개, 8192개), 딥러닝 모델(PointNet, PointNet++) 3가지 조건에 따라 총 16개의 모델을 구축하였다. 분류 정확도 평가 결과, 고정식 라이다는 다운샘플링 강도가 8192개인 PCD 자료에 PointNet++ 모델을 적용하였을 때 카파계수가 93.7%로 가장 높았으며, 이동식 라이다는 다운샘플링 강도가 2048개에 PointNet++을 적용하였을 때 카파계수가 96.9%로 가장 높았다. 또한, 플랫폼과 다운샘플링 강도가 동일한 경우 PointNet++이 PointNet보다 정확도가 높았다. 구축된 16개 모델의 오분류 사례는 첫 번째, 수종 간의 구조적인 특징이 유사한 개체목 두 번째, 경사지 또는 임도 주변에 위치하여 편심생장한 개체목 세 번째, 개체목 분할 시 수관부가 수직으로 분할된 개체목에 대해 발생하였다.

딥러닝기반 건축폐기물 이미지 분류 시스템 비교 (A Comparison of Image Classification System for Building Waste Data based on Deep Learning)

  • 성재경;양민철;문경남;김용국
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권3호
    • /
    • pp.199-206
    • /
    • 2023
  • 본 연구는 건축시 발생되는 폐기물의 자동분류를 위해 딥러닝 알고리즘을 활용해 건출 폐기물 데이터를 각각 목재 폐기물, 플라스틱 폐기물, 콘크리트 폐기물로 분류하는 두 모델들을 통해서 성능 비교를 한다. 건축 폐기물의 분류를 위해 사용된 딥러닝 알고리즘은 합성곱 신경망 이미지 분류 알고리즘 VGG-16과 NLP를 기반으로 이미지를 시퀀스화 시킨ViT, Vision Transformer 모델을 사용했다. 건축 폐기물 데이터 수집을 위해 이미지 데이터를 전 세계 검색엔진에서 크롤링 하였고, 육안으로도 명확히 구분하기 어렵거나, 중복되는 등 실험에 방해되는 이미지는 전부 제외하여 각 분류당 1천장씩 총 3천장의 이미지를 확보했다. 또한, 데이터 학습시에 모델의 정확도 향상에 도움을 주기 위해 데이터 확대 작업을 진행해 총 3만장의 이미지로 실험을 진행 하였다. 수집된 이미 데이터가 정형화 되어있지 않은 데이터 임에도 불구하고 실험 결과는 정확도가 VGG-16는 91.5%, ViT 는 92.7%의 결과가 나타났다. 이는 실제 건축폐기물 데이터 관리 작업에 실전 활용 가능성을 제시한 것으로 보인다. 본 연구를 바탕으로 추후에 객체 탐지 기법이나 의미론적 분할 기법까지 활용한다면, 하나의 이미지 안에서도 여러 세밀한 분류가 가능해 더욱 완벽한 분류가 가능할 것이다.

Automated Measurement of Native T1 and Extracellular Volume Fraction in Cardiac Magnetic Resonance Imaging Using a Commercially Available Deep Learning Algorithm

  • Suyon Chang;Kyunghwa Han;Suji Lee;Young Joong Yang;Pan Ki Kim;Byoung Wook Choi;Young Joo Suh
    • Korean Journal of Radiology
    • /
    • 제23권12호
    • /
    • pp.1251-1259
    • /
    • 2022
  • Objective: T1 mapping provides valuable information regarding cardiomyopathies. Manual drawing is time consuming and prone to subjective errors. Therefore, this study aimed to test a DL algorithm for the automated measurement of native T1 and extracellular volume (ECV) fractions in cardiac magnetic resonance (CMR) imaging with a temporally separated dataset. Materials and Methods: CMR images obtained for 95 participants (mean age ± standard deviation, 54.5 ± 15.2 years), including 36 left ventricular hypertrophy (12 hypertrophic cardiomyopathy, 12 Fabry disease, and 12 amyloidosis), 32 dilated cardiomyopathy, and 27 healthy volunteers, were included. A commercial deep learning (DL) algorithm based on 2D U-net (Myomics-T1 software, version 1.0.0) was used for the automated analysis of T1 maps. Four radiologists, as study readers, performed manual analysis. The reference standard was the consensus result of the manual analysis by two additional expert readers. The segmentation performance of the DL algorithm and the correlation and agreement between the automated measurement and the reference standard were assessed. Interobserver agreement among the four radiologists was analyzed. Results: DL successfully segmented the myocardium in 99.3% of slices in the native T1 map and 89.8% of slices in the post-T1 map with Dice similarity coefficients of 0.86 ± 0.05 and 0.74 ± 0.17, respectively. Native T1 and ECV showed strong correlation and agreement between DL and the reference: for T1, r = 0.967 (95% confidence interval [CI], 0.951-0.978) and bias of 9.5 msec (95% limits of agreement [LOA], -23.6-42.6 msec); for ECV, r = 0.987 (95% CI, 0.980-0.991) and bias of 0.7% (95% LOA, -2.8%-4.2%) on per-subject basis. Agreements between DL and each of the four radiologists were excellent (intraclass correlation coefficient [ICC] of 0.98-0.99 for both native T1 and ECV), comparable to the pairwise agreement between the radiologists (ICC of 0.97-1.00 and 0.99-1.00 for native T1 and ECV, respectively). Conclusion: The DL algorithm allowed automated T1 and ECV measurements comparable to those of radiologists.

Sentinel-1 SAR 영상을 활용한 국내 내륙 수체 학습 데이터셋 구축 및 알고리즘 적용 연구 (A Study of Development and Application of an Inland Water Body Training Dataset Using Sentinel-1 SAR Images in Korea)

  • 이어루;정형섭
    • 대한원격탐사학회지
    • /
    • 제39권6_1호
    • /
    • pp.1371-1388
    • /
    • 2023
  • 지구온난화로 인해 촉발된 기후변화가 홍수와 같은 수재해의 빈도와 규모를 증가시키며 국내 또한 장마와 집중호우로 인한 수재해가 증가하는 추세를 보인다. 이에 광범위한 수재해에 대해 효과적인 대응 및 기후 변화에 따른 선제적 대처가 필수적이며 이는 위성레이더 영상을 통해 가능하다. 본 연구에서는 Sentinel-1 위성 레이더 영상으로부터 국내 수체의 특성을 반영하기 위해 한강권역과 낙동강 권역의 일부 수체 영역에 대해 수체 학습 데이터셋 1,423장을 구축하였다. 정밀한 데이터 어노테이션(Annotation)을 위해 다양한 상황에 따른 구축 기준 문서를 작성한 뒤 진행하였다. 구축이 완료된 데이터셋을 딥러닝 모델 중 U-Net에 적용하여 수체 탐지 결과를 분석하였다. 최종적으로 학습된 모델을 학습과에 활용되지 않은 수체 영역에 적용하여 결과를 분석함으로써 전 국토 수체 모니터링의 가능성을 확인하였다. 분석 결과 구축된 수체 영역의 대해서는 F1-Score 0.987, Intersection over Union (IoU) 0.955의 높은 정확도로 수체를 탐지할 수 있었으며, 학습 및 평가에 활용되지 않은 다른 국내 수체 영역에 대해서도 동일하게 F1-Score 0.941, IoU 0.89의 높은 수체 탐지 결과를 나타냈다. 두 결과 모두 전반적으로 일부 그림자 영역과 폭이 좁은 하천에서 오류가 관찰되었으나, 그 외에는 정밀하게 수체를 탐지하였다. 이러한 연구 결과는 수재해 피해 규모 및 수자원 변화 모니터링에 중요한 기여를 할 것으로 기대된다. 추후 연구에서는 보다 다양한 수체 특성을 가진 데이터셋을 추가 구축한다면 오분류한 영역을 개선할 수 있을 것으로 기대되며, 전 국토의 수체를 효율적으로 관리 및 모니터링하는데 활용될 것으로 사료된다.

적외선 카메라 영상에서의 마스크 R-CNN기반 발열객체검출 (Object Detection based on Mask R-CNN from Infrared Camera)

  • 송현철;강민식;김태은
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권6호
    • /
    • pp.1213-1218
    • /
    • 2018
  • 최근 비전분야에 소개된 Mask R-CNN은 객체 인스턴스 세분화를위한 개념적으로 간단하고 유연하며 일반적인 프레임 워크를 제시한다. 이 논문에서는 열적외선 카메라로부터 획득한 열감지영상에서 발열체인 인스턴스에 대해 발열부위의 세그멘테이션 마스크를 생성하는 동시에 이미지 내의 오브젝트 발열부분을 효율적으로 탐색하는 알고리즘을 제안한다. Mask R-CNN 기법은 바운딩 박스 인식을 위해 기존 브랜치와 병렬로 객체 마스크를 예측하기 위한 브랜치를 추가함으로써 Faster R-CNN을 확장한 알고리즘이다. Mask R-CNN은 훈련이 간단하고 빠르게 실행하는 고속 R-CNN에 추가된다. 더욱이, Mask R-CNN은 다른 작업으로 일반화하기 용이하다. 본 연구에서는 이 R-CNN기반 적외선 영상 검출알고리즘을 제안하여 RGB영상에서 구별할 수 없는 발열체를 탐지하였다. 실험결과 Mask R-CNN에서 변별하지 못하는 발열객체를 성공적으로 검출하였다.

건설 현장 CCTV 영상을 이용한 작업자와 중장비 추출 및 다중 객체 추적 (Extraction of Workers and Heavy Equipment and Muliti-Object Tracking using Surveillance System in Construction Sites)

  • 조영운;강경수;손보식;류한국
    • 한국건축시공학회지
    • /
    • 제21권5호
    • /
    • pp.397-408
    • /
    • 2021
  • 건설업은 업무상 재해 발생빈도와 사망자 수가 다른 산업군에 비해 높아 가장 위험한 산업군으로 불린다. 정부는 건설 현장에서 발생하는 산업 재해를 줄이고 예방하기 위해 CCTV 설치 의무화를 발표했다. 건설 현장의 안전 관리자는 CCTV 관제를 통해 현장의 잠재된 위험성을 찾아 제거하고 재해를 예방한다. 하지만 장시간 관제 업무는 피로도가 매우 높아 중요한 상황을 놓치는 경우가 많다. 따라서 본 연구는 딥러닝 기반 컴퓨터 비전 모형 중 개체 분할인 YOLACT와 다중 객체 추적 기법인 SORT을 적용하여 다중 클래스 다중 객체 추적 시스템을 개발하였다. 건설 현장에서 촬영한 영상으로 제안한 방법론의 성능을 MS COCO와 MOT 평가지표로 평가하였다. SORT는 YOLACT의 의존성이 높아서 작은 객체가 적은 데이터셋을 학습한 모형의 성능으로 먼 거리의 물체를 추적하는 성능이 떨어지지만, 크기가 큰 객체에서 뛰어난 성능을 나타냈다. 본 연구로 인해 딥러닝 기반 컴퓨터 비전 기법들의 안전 관제 업무에 보조 역할로 업무상 재해를 예방할 수 있을 것으로 판단된다.

마네킨 의상사진 기반 온라인 가상의상착용 (Online Virtual Try On using Mannequin Cloth Pictures)

  • 안희준
    • 한국산업정보학회논문지
    • /
    • 제23권6호
    • /
    • pp.29-38
    • /
    • 2018
  • 본 논문에서 마네킨에 착용된 의상 이미지를 분할하고 사용자의 사진에 입히는 가상의상착용 (VTON) 기술을 개발하였다. 의상과 모델의 3차원 정보가 필요하지 않는 2차원 이미지 기반 가상착용연구는 실용적인 가치가 크지만, 연구결과 현재 기술로는 의상 분할 시 가림이나 왜곡에 의한 문제 등 제약사항이 존재한다. 본 연구는 마네킨 의상을 사용함으로써 이러한 어려움을 줄였다는 가정 하에서, 딥러닝 기반 영역분할과 자세추정을 통하여 얻은 결과를 사용자 사진에 입히는 알고리즘을 제안하였다. 기존의 연구 대비 성능 개선을 위하여 사전 자세정보의 신뢰성 검사, 외곽선을 이용한 변형개선, 분할 영역개선 등을 사용하였다. 결과로 시각적으로 만족할 만한 의상착용의 경우가 전체의 50%이상으로 상당히 개선된 결과를 얻었다.

멀티 테스크 CNN의 경량화 모델을 이용한 차량 및 차선의 동시 검출 (Concurrent Detection for Vehicles and Lanes Using Light-Weight Model of Multi-Task CNN)

  • 신현식;김형원;홍상욱
    • 한국정보통신학회논문지
    • /
    • 제26권3호
    • /
    • pp.367-373
    • /
    • 2022
  • 딥러닝 기반 자율 주행 기술이 발전함에 따라 다양한 목적의 인공지능 모델이 연구되었다. 연구된 여러 모델들을 동시에 구동하여 자율주행 시스템을 개발한다. 그러나 동시에 인공지능 모델을 사용하면서 많은 하드웨어 자원 소비가 증가한다. 이를 해결하기 위해 본 논문은 백본 모델을 공유하며 다중 태스크를 고속으로 수행할 수 있는 Multi-Task CNN 모델을 제안한다. 이를 통해 AI모델을 사용하기 위한 백본 수의 증가를 해결할 수 있었습니다. 제안하는 CNN 모델은 기존 모델 대비 50% 이상 웨이트 파라미터 수를 감소시키며, 3배 이상의 FPS 속도를 향상시켰다. 또한, 차선인식은 Instance segmentation 기반으로 차선검출 및 차선별 Labeling을 모두 출력한다. 그러나 기존 모델에 비해 정확도가 감소하는 부분에 대해서는 추가적인 연구가 필요하다.

SpaceNet 건물 데이터셋과 Context-based ResU-Net을 이용한 건물 자동 추출 (Automatic Building Extraction Using SpaceNet Building Dataset and Context-based ResU-Net)

  • 유수홍;김철환;권영목;최원준;손홍규
    • 대한원격탐사학회지
    • /
    • 제38권5_2호
    • /
    • pp.685-694
    • /
    • 2022
  • 건물 정보는 다양한 도시 공간 분석에 활용되는 필수 정보 중 하나이기에 지속적인 모니터링이 필요하지만 현실적으로 어려움이 존재하고 있다. 이를 위해 광범위한 지역에 대해서도 지속적인 관찰이 가능한 위성영상으로부터 건물을 추출하기 위한 연구가 진행되고 있으며, 최근에는 딥러닝 기반의 시맨틱 세그멘테이션 기법들이 활용되고 있다. 본 연구에서는 SpaceNet의 건물 v2 무료 오픈 데이터를 이용하여 30 cm 급 Worldview-3 RGB 영상으로부터 건물을 자동으로 추출하기 위해, context-based ResU-Net의 일부 구조를 변경하여 학습을 진행하였다. 분류 정확도 평가 결과, f1-score가 2회차 SpaceNet 대회 수상작의 분류 정확도보다 높은 것으로 나타났다. 앞으로 지속적으로 Worldview-3 위성 영상을 확보할 수 있다면 본 연구의 성과를 활용하여 전세계 건물 자동 추출 모델을 제작하는 것도 가능할 것으로 판단된다.

Arabic Words Extraction and Character Recognition from Picturesque Image Macros with Enhanced VGG-16 based Model Functionality Using Neural Networks

  • Ayed Ahmad Hamdan Al-Radaideh;Mohd Shafry bin Mohd Rahim;Wad Ghaban;Majdi Bsoul;Shahid Kamal;Naveed Abbas
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권7호
    • /
    • pp.1807-1822
    • /
    • 2023
  • Innovation and rapid increased functionality in user friendly smartphones has encouraged shutterbugs to have picturesque image macros while in work environment or during travel. Formal signboards are placed with marketing objectives and are enriched with text for attracting people. Extracting and recognition of the text from natural images is an emerging research issue and needs consideration. When compared to conventional optical character recognition (OCR), the complex background, implicit noise, lighting, and orientation of these scenic text photos make this problem more difficult. Arabic language text scene extraction and recognition adds a number of complications and difficulties. The method described in this paper uses a two-phase methodology to extract Arabic text and word boundaries awareness from scenic images with varying text orientations. The first stage uses a convolution autoencoder, and the second uses Arabic Character Segmentation (ACS), which is followed by traditional two-layer neural networks for recognition. This study presents the way that how can an Arabic training and synthetic dataset be created for exemplify the superimposed text in different scene images. For this purpose a dataset of size 10K of cropped images has been created in the detection phase wherein Arabic text was found and 127k Arabic character dataset for the recognition phase. The phase-1 labels were generated from an Arabic corpus of quotes and sentences, which consists of 15kquotes and sentences. This study ensures that Arabic Word Awareness Region Detection (AWARD) approach with high flexibility in identifying complex Arabic text scene images, such as texts that are arbitrarily oriented, curved, or deformed, is used to detect these texts. Our research after experimentations shows that the system has a 91.8% word segmentation accuracy and a 94.2% character recognition accuracy. We believe in the future that the researchers will excel in the field of image processing while treating text images to improve or reduce noise by processing scene images in any language by enhancing the functionality of VGG-16 based model using Neural Networks.