• 제목/요약/키워드: YOLOv5 Model

검색결과 93건 처리시간 0.023초

항공영상으로부터 YOLOv5를 이용한 도심수목 탐지 (Detection of Urban Trees Using YOLOv5 from Aerial Images)

  • 박채원;정형섭
    • 대한원격탐사학회지
    • /
    • 제38권6_2호
    • /
    • pp.1633-1641
    • /
    • 2022
  • 도시의 인구 집중과 무분별한 개발은 대기오염, 열섬현상과 같은 다양한 환경 문제들을 유발하며, 자연재해로 인한 피해 상황을 악화시키는 등 인재의 원인이 되고 있다. 도심 수목은 이러한 도시 문제들의 해결방안으로 제시되어왔으며, 실제로 환경 개선 기능을 제공하는 등 중요한 역할들을 수행한다. 이에 따라 수목이 도시 환경에 미치는 영향을 파악하기 위해 도심 수목에서 개별목에 대한 정량적인 측정 및 분석이 요구된다. 그러나 도심 수목의 복잡성 및 다양성은 단일 수목 탐지 정확도를 낮추는 문제점이 존재한다. 따라서 본 연구는 수목 개체에 대해 효과적인 탐지가 가능한 고해상도 항공영상 및 object detection에서 뛰어난 성능을 발휘한 You Only Look Once Version 5 (YOLOv5) 모델을 사용하여 도심 수목을 효과적으로 탐지하는 연구를 진행하였다. 수목 AI 학습 데이터셋의 구축을 위한 라벨링 가이드라인을 생성하고 이를 기준으로 동작구 수목에 대해 box annotation을 수행하였다. 구축된 데이터셋으로부터 다양한 scale의 YOLOv5 모델들을 테스트하고 최적의 모델을 채택하여 효율적인 도심 수목 탐지를 수행한 결과, mean Average Precision (mAP) 0.663의 유의미한 결과를 도출하였다.

Designing a smart safe transportation system within a university using object detection algorithm

  • Na Young Lee;Geon Lee;Min Seop Lee;Yun Jung Hong;In-Beom Yang;Jiyoung Woo
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권1호
    • /
    • pp.51-59
    • /
    • 2024
  • 교내 보행자 교통사고를 예방하고 안전한 환경을 조성하기 위해 교내 위험 구간을 설정하고, 해당 구역에서 차량 속도 측정 및 교차로 횡단보도에서의 차량과 보행자 상호작용을 실시간으로 감지하는 시스템을 설계하였다. YOLOv5s 모델과 Deep SORT 방법을 이용하여 구간 속도 측정 및 객체 추적을 수행하고, 횡단보도 구역에서는 YOLOv5s 객체 탐지 모델을 활용하여 보행자와 차량을 구분하는 조건별 출력 시스템을 개발하여 실시간으로 구동이 됨을 검증하였다. 이 시스템은 저렴한 비용으로 일반 스마트폰 카메라나 화상용 카메라를 활용하여 설치할 수 있으며, 대학 캠퍼스뿐만 아니라 비슷한 문제 지역에 도입하여 차량과 보행자의 안전을 위한 해결 방안으로 기대된다.

Vehicle Detection at Night Based on Style Transfer Image Enhancement

  • Jianing Shen;Rong Li
    • Journal of Information Processing Systems
    • /
    • 제19권5호
    • /
    • pp.663-672
    • /
    • 2023
  • Most vehicle detection methods have poor vehicle feature extraction performance at night, and their robustness is reduced; hence, this study proposes a night vehicle detection method based on style transfer image enhancement. First, a style transfer model is constructed using cycle generative adversarial networks (cycleGANs). The daytime data in the BDD100K dataset were converted into nighttime data to form a style dataset. The dataset was then divided using its labels. Finally, based on a YOLOv5s network, a nighttime vehicle image is detected for the reliable recognition of vehicle information in a complex environment. The experimental results of the proposed method based on the BDD100K dataset show that the transferred night vehicle images are clear and meet the requirements. The precision, recall, mAP@.5, and mAP@.5:.95 reached 0.696, 0.292, 0.761, and 0.454, respectively.

재난지역에서의 신속한 건물 피해 정도 감지를 위한 딥러닝 모델의 정량 평가 (Quantitative Evaluations of Deep Learning Models for Rapid Building Damage Detection in Disaster Areas)

  • 서준호;양병윤
    • 한국측량학회지
    • /
    • 제40권5호
    • /
    • pp.381-391
    • /
    • 2022
  • 본 연구는 AI 기법 중에 최근 널리 사용되고 있는 딥러닝 모델들을 비교하여 재난으로 인해 손상된 건물의 신속한 감지에 가장 적합한 모델을 선정하는 데 목적이 있다. 먼저, 신속한 객체감지에 적합한 1단계 기반 검출기 중 주요 딥러닝 모델인 SSD-512, RetinaNet, YOLOv3를 후보 모델로 선정하였다. 이 방법들은 1단계 기반 검출기 방식을 적용한 모델로서 객체 인식 분야에 널리 이용되고 있다. 이 모델들은 객체 인식 처리방식의 구조와 빠른 연산의 장점으로 인해 객체 인식 분야에 널리 사용되고 있으나 재난관리에서의 적용은 초기 단계에 머물러 있다. 본 연구에서는 피해감지에 가장 적합한 모델을 찾기 위해 다음과 같은 과정을 거쳤다. 먼저, 재난에 의한 건물의 피해 정도 감지를 위해 재난에 의해 손상된 건물로 구성된 xBD 데이터셋을 활용하여 초고해상도 위성영상을 훈련시켰다. 다음으로 모델 간의 성능을 비교·평가하기 위하여 모델의 감지 정확도와 이미지 처리속도를 정량적으로 분석하였다. 학습 결과, YOLOv3는 34.39%의 감지 정확도와 초당 46개의 이미지 처리속도를 기록하였다. RetinaNet은 YOLOv3보다 1.67% 높은 36.06%의 감지 정확도를 기록하였으나, 이미지 처리속도는 YOLOv3의 3분의 1에 그쳤다. SSD-512는 두 지표에서 모두 YOLOv3보다 낮은 수치를 보였다. 대규모 재난에 의해 발생한 피해 정보에 대한 신속하고 정밀한 수집은 재난 대응에 필수적이다. 따라서 본 연구를 통해 얻은 결과는 신속한 지리정보 취득이 요구되는 재난관리에 효과적으로 활용될 수 있을 것이라 기대한다.

A deep learning-based approach for feeding behavior recognition of weanling pigs

  • Kim, MinJu;Choi, YoHan;Lee, Jeong-nam;Sa, SooJin;Cho, Hyun-chong
    • Journal of Animal Science and Technology
    • /
    • 제63권6호
    • /
    • pp.1453-1463
    • /
    • 2021
  • Feeding is the most important behavior that represents the health and welfare of weanling pigs. The early detection of feed refusal is crucial for the control of disease in the initial stages and the detection of empty feeders for adding feed in a timely manner. This paper proposes a real-time technique for the detection and recognition of small pigs using a deep-leaning-based method. The proposed model focuses on detecting pigs on a feeder in a feeding position. Conventional methods detect pigs and then classify them into different behavior gestures. In contrast, in the proposed method, these two tasks are combined into a single process to detect only feeding behavior to increase the speed of detection. Considering the significant differences between pig behaviors at different sizes, adaptive adjustments are introduced into a you-only-look-once (YOLO) model, including an angle optimization strategy between the head and body for detecting a head in a feeder. According to experimental results, this method can detect the feeding behavior of pigs and screen non-feeding positions with 95.66%, 94.22%, and 96.56% average precision (AP) at an intersection over union (IoU) threshold of 0.5 for YOLOv3, YOLOv4, and an additional layer and with the proposed activation function, respectively. Drinking behavior was detected with 86.86%, 89.16%, and 86.41% AP at a 0.5 IoU threshold for YOLOv3, YOLOv4, and the proposed activation function, respectively. In terms of detection and classification, the results of our study demonstrate that the proposed method yields higher precision and recall compared to conventional methods.

Automatic Detection of Dead Trees Based on Lightweight YOLOv4 and UAV Imagery

  • Yuanhang Jin;Maolin Xu;Jiayuan Zheng
    • Journal of Information Processing Systems
    • /
    • 제19권5호
    • /
    • pp.614-630
    • /
    • 2023
  • Dead trees significantly impact forest production and the ecological environment and pose constraints to the sustainable development of forests. A lightweight YOLOv4 dead tree detection algorithm based on unmanned aerial vehicle images is proposed to address current limitations in dead tree detection that rely mainly on inefficient, unsafe and easy-to-miss manual inspections. An improved logarithmic transformation method was developed in data pre-processing to display tree features in the shadows. For the model structure, the original CSPDarkNet-53 backbone feature extraction network was replaced by MobileNetV3. Some of the standard convolutional blocks in the original extraction network were replaced by depthwise separable convolution blocks. The new ReLU6 activation function replaced the original LeakyReLU activation function to make the network more robust for low-precision computations. The K-means++ clustering method was also integrated to generate anchor boxes that are more suitable for the dataset. The experimental results show that the improved algorithm achieved an accuracy of 97.33%, higher than other methods. The detection speed of the proposed approach is higher than that of YOLOv4, improving the efficiency and accuracy of the detection process.

Multi-Human Behavior Recognition Based on Improved Posture Estimation Model

  • Zhang, Ning;Park, Jin-Ho;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제24권5호
    • /
    • pp.659-666
    • /
    • 2021
  • With the continuous development of deep learning, human behavior recognition algorithms have achieved good results. However, in a multi-person recognition environment, the complex behavior environment poses a great challenge to the efficiency of recognition. To this end, this paper proposes a multi-person pose estimation model. First of all, the human detectors in the top-down framework mostly use the two-stage target detection model, which runs slow down. The single-stage YOLOv3 target detection model is used to effectively improve the running speed and the generalization of the model. Depth separable convolution, which further improves the speed of target detection and improves the model's ability to extract target proposed regions; Secondly, based on the feature pyramid network combined with context semantic information in the pose estimation model, the OHEM algorithm is used to solve difficult key point detection problems, and the accuracy of multi-person pose estimation is improved; Finally, the Euclidean distance is used to calculate the spatial distance between key points, to determine the similarity of postures in the frame, and to eliminate redundant postures.

A Study on Recognition of Dangerous Behaviors using Privacy Protection Video in Single-person Household Environments

  • Lim, ChaeHyun;Kim, Myung Ho
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권5호
    • /
    • pp.47-54
    • /
    • 2022
  • 최근 딥러닝 기술의 발달로 사람의 행동을 인식하는 연구가 진행 중에 있다. 본 논문에서는 딥러닝 기술을 활용하여 1인 가구 환경에서 발생할 수 있는 위험 행동을 인식하는 연구를 진행하였다. 1인 가구의 특성상 개인의 프라이버시 보호가 필요하다. 본 논문에서는 개인의 프라이버시 보호를 위해 가우시안 블러 필터가 적용된 프라이버시 보호 영상에서 사람의 위험 행동을 인식한다. 위험 행동 인식 방법은 객체 검출 모델인 YOLOv5 모델을 활용하여 영상에서 사람 객체 검출 및 전처리 방법을 적용한 후 행동 인식 모델의 입력값으로 활용하여 위험 행동을 인식한다. 실험에는 ResNet3D, I3D, SlowFast 모델을 사용하였고, 실험 결과 SlowFast 모델이 프라이버시 보호 영상에서 95.7%로 가장 높은 정확도를 달성하였다. 이를 통해 개인의 프라이버시를 보호하면서 1인 가구 환경에서 사람의 위험 행동을 인식하는 것이 가능하다.

개인 성향 추출을 위한 딥러닝 기반 SNS 리뷰 분석 방법에 관한 연구 (A Study on SNS Reviews Analysis based on Deep Learning for User Tendency)

  • 박우진;이주오;이형걸;김아연;허승연;안용학
    • 한국융합학회논문지
    • /
    • 제11권11호
    • /
    • pp.9-17
    • /
    • 2020
  • 본 논문에서는 개인의 성향을 추출하기 위한 딥러닝 기반의 SNS 리뷰 분석 방법을 제안한다. 기존의 SNS 리뷰 분석 방법은 대부분이 가장 높은 가중치를 기반으로 처리되기 때문에 여러 관심사에 대한 다양한 의견을 반영하지 못하는 문제점이 있다. 이를 해결하기 위해 제안된 방법은 음식을 대상으로 한 SNS의 리뷰에서 사용자의 개인적인 성향을 추출하기 위한 방법이다. YOLOv3 모델을 사용하여 분류체계를 작성하고, BiLSTM 모델을 통해 감성분석을 수행한 후 집합 알고리즘을 통해 다양한 개인적 성향을 추출한다. 실험 결과, YOLOv3 모델의 경우 Top-1 88.61%, Top-5 90.13%의 성능을 보여주었으며, BiLSTM 모델의 경우 90.99%의 정확도를 보여주었다. 또한, SNS 리뷰 분류에서의 개인 성향에 대한 다양성을 히트맵을 통해 시각화하여 확인하였다. 향후에는 다양한 분야에서의 개인 성향을 추출하여 사용자 맞춤 서비스나 마케팅 등에 활용될 것으로 기대된다.

YOLOv5 학습 시 바운딩 박스 개수에 따른 화재 탐지 성능 비교 (Comparison of Fire Detection Performance according to the Number of Bounding Boxes for YOLOv5)

  • 성영아;이현섭;장시웅
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.50-53
    • /
    • 2022
  • YOLOv5에서 객체 탐지를 위해 이미지를 학습 시 기존의 이미지에 위치 정보를 어노테이션 하는 과정이 필요한다. 가장 대표적인 방법이 이미지에 바운딩 박스를 그려 위치 정보를 메타정보로 저장하게 하는 것이다. 하지만 객체의 경계가 모호한 경우 바운딩 박스를 하는 것에 어려움을 겪게 된다. 그 대표적인 예시가 화재인 부분과 화재가 아닌 부분을 분류하는 것이다. 따라서 본 논문에서는 화재가 났다고 판단되는 샘플 100개의 이미지를 바운딩 박싱 개수를 달리하여 학습시켜 보았다. 그 결과 바운딩 박스를 어노테이션 시 가장자리를 가능한 크게 잡아 하나의 박스로 어노테이션하는 것보다 조금 더 세분화 하여 박스 3개로 어노테이션하여 학습시킨 모델에서 더 뛰어난 화재 탐지 성능을 보여주었다.

  • PDF