• 제목/요약/키워드: You Only Look Once Version 5 (YOLOv5)

검색결과 13건 처리시간 0.017초

YOLO를 이용한 SAR 영상의 선박 객체 탐지: 편파별 모델 구성과 정확도 특성 분석 (Ship Detection from SAR Images Using YOLO: Model Constructions and Accuracy Characteristics According to Polarization)

  • 임윤교;윤유정;강종구;김서연;정예민;최소연;서영민;이양원
    • 대한원격탐사학회지
    • /
    • 제39권5_3호
    • /
    • pp.997-1008
    • /
    • 2023
  • 해상의 선박탐지는 다양한 방법으로 수행될 수 있는데, 위성은 광역적인 감시가 가능하고, 특히 합성개구레이더(Synthetic Aperture Radar, SAR) 영상은 주야간 및 전천후로 활용될 수 있다. 본 연구에서는 SAR 영상으로부터 효율적인 선박 탐지 방법을 제시하기 위하여, Sentinel-1 영상에 You Only Look Once Version 5 (YOLOv5) 모델을 적용하여 선박 탐지를 수행하고, 편파별 개별 모델과 통합 모델의 차이 및 편파별 정확도 특성을 분석하였다. 파라미터가 작고 가벼운 YOLOv5s와 파라미터가 많지만 정확도가 높은 YOLOv5x 두가지 모델에 대하여 각각 (1) HH, HV, VH, VV 각 편파별로 나누어 학습/검증 및 평가 그리고 (2) 모든 편파의 영상을 사용하여 학습/검증 및 평가를 실시한 결과, 네 가지 실험에서 모두 0.977 ≤ AP@0.5 ≤ 0.998의 비슷하면서 매우 높은 정확도를 나타냈다. 이러한 결과를 현업시스템의 관점에서 보면, 가벼운 YOLO 모델(YOLOv5s, YOLOv8s 등)로 4개 편파 통합 모델을 구축하는 것이 실시간 선박탐지에 효과적임을 시사하는 것이다. 이 실험에서 사용한 영상은 19,582장이었지만, Sentinel-1 이외에도 Capella, ICEYE 등 다른 SAR 영상을 추가적으로 활용한다면, 보다 더 유연하고 정확한 선박 탐지 모델이 구축될 수 있을 것이다.

수중영상을 이용한 저서성 해양무척추동물의 실시간 객체 탐지: YOLO 모델과 Transformer 모델의 비교평가 (Realtime Detection of Benthic Marine Invertebrates from Underwater Images: A Comparison betweenYOLO and Transformer Models)

  • 박강현;박수호;장선웅;공신우;곽지우;이양원
    • 대한원격탐사학회지
    • /
    • 제39권5_3호
    • /
    • pp.909-919
    • /
    • 2023
  • Benthic marine invertebrates, the invertebrates living on the bottom of the ocean, are an essential component of the marine ecosystem, but excessive reproduction of invertebrate grazers or pirate creatures can cause damage to the coastal fishery ecosystem. In this study, we compared and evaluated You Only Look Once Version 7 (YOLOv7), the most widely used deep learning model for real-time object detection, and detection tansformer (DETR), a transformer-based model, using underwater images for benthic marine invertebratesin the coasts of South Korea. YOLOv7 showed a mean average precision at 0.5 (mAP@0.5) of 0.899, and DETR showed an mAP@0.5 of 0.862, which implies that YOLOv7 is more appropriate for object detection of various sizes. This is because YOLOv7 generates the bounding boxes at multiple scales that can help detect small objects. Both models had a processing speed of more than 30 frames persecond (FPS),so it is expected that real-time object detection from the images provided by divers and underwater drones will be possible. The proposed method can be used to prevent and restore damage to coastal fisheries ecosystems, such as rescuing invertebrate grazers and creating sea forests to prevent ocean desertification.

Light-field 이미지로 변환된 다중 평면 홀로그램 영상에 대해 객체 검출 알고리즘을 적용한 평면별 객체의 깊이 정보 해석 및 조절 기법 (A Technique for Interpreting and Adjusting Depth Information of each Plane by Applying an Object Detection Algorithm to Multi-plane Light-field Image Converted from Hologram Image)

  • 배영규;신동하;이승열
    • 방송공학회논문지
    • /
    • 제28권1호
    • /
    • pp.31-41
    • /
    • 2023
  • 재생하고자 하는 3차원 이미지에서 발현되는 빛의 간섭 무늬를 계산하여 얻게 되는 Computer Generated Hologram(CGH)은 본래의 3차원 이미지와 유사관계를 찾기 힘든 형태로 형성되기에 직접적인 초점 위치 혹은 크기 등의 변환이 어려운 것으로 알려져 있다. 본논문은 이러한 문제 중 하나인 다중 평면으로 구성된 3차원 이미지 CGH의 평면별 초점 거리를 변환하는 문제를 해결하는 기술을 제안한다. 제안하는 기술은 CGH로부터 재생되는 3차원 이미지를 여러 각도에서 관측한 2차원 이미지의 집합으로 구성된 Light-Field (LF) 이미지로 변환하고, 관측한 각도별로 이동하는 객체의 위치를 객체 탐지 알고리즘인 YOLOv5(You Only Look Once version 5)로 분석한 뒤, 이를 조절함으로써 초점 거리가 변환된 LF 이미지와 이를 역변환한 결과인 CGH를 생성한다. 해당 기술은 CGH의 픽셀 사이즈가 3.6 ㎛, 해상도가 3840⨯2160인 상황에서 10 cm 거리에 재생되는 상에 적용되어 영상 품질의 큰 손실 없이 약 3 cm 정도의 범위에서 초점 거리를 변환시킬 수 있음을 시뮬레이션 분석과 실제 실험 관측을 통해 확인하였다.