• 제목/요약/키워드: yolov5

검색결과 175건 처리시간 0.018초

Estimating vegetation index for outdoor free-range pig production using YOLO

  • Sang-Hyon Oh;Hee-Mun Park;Jin-Hyun Park
    • Journal of Animal Science and Technology
    • /
    • 제65권3호
    • /
    • pp.638-651
    • /
    • 2023
  • The objective of this study was to quantitatively estimate the level of grazing area damage in outdoor free-range pig production using a Unmanned Aerial Vehicles (UAV) with an RGB image sensor. Ten corn field images were captured by a UAV over approximately two weeks, during which gestating sows were allowed to graze freely on the corn field measuring 100 × 50 m2. The images were corrected to a bird's-eye view, and then divided into 32 segments and sequentially inputted into the YOLOv4 detector to detect the corn images according to their condition. The 43 raw training images selected randomly out of 320 segmented images were flipped to create 86 images, and then these images were further augmented by rotating them in 5-degree increments to create a total of 6,192 images. The increased 6,192 images are further augmented by applying three random color transformations to each image, resulting in 24,768 datasets. The occupancy rate of corn in the field was estimated efficiently using You Only Look Once (YOLO). As of the first day of observation (day 2), it was evident that almost all the corn had disappeared by the ninth day. When grazing 20 sows in a 50 × 100 m2 cornfield (250 m2/sow), it appears that the animals should be rotated to other grazing areas to protect the cover crop after at least five days. In agricultural technology, most of the research using machine and deep learning is related to the detection of fruits and pests, and research on other application fields is needed. In addition, large-scale image data collected by experts in the field are required as training data to apply deep learning. If the data required for deep learning is insufficient, a large number of data augmentation is required.

농작물 병해충 진단을 위한 인공지능 앱, Dr. Vegetable (Dr. Vegetable: an AI-based Mobile Application for Diagnosis of Plant Diseases and Insect Pests)

  • 김수환;정대기;이승준;정성엽;양동재;정근영;황석형;황세웅
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제67차 동계학술대회논문집 31권1호
    • /
    • pp.457-460
    • /
    • 2023
  • 본 연구는 시설작물의 병충해 진단을 위해 딥러닝 모델을 응용한 인공지능 서비스 앱, Dr. Vegetable을 제안하고자 한다. 농업 현장에서 숙련된 농부는 한눈에 농작물의 병충해를 판단할 수 있지만 미숙련된 농부는 병충해 피해를 발견하더라도 그 종류와 해결 방법을 찾아내기가 매우 어렵다. 또한 아무리 숙련된 농부라고 할지라도 육안검사만으로 병충해를 조기에 발견하는 것은 쉽지 않다. 한편 시설작물의 경우 병충해에 의한 연쇄피해가 발생할 우려가 있으므로 병충해의 조기 발견 및 방제가 매우 중요하다. 즉, 농부의 경험에 따른 농작물 병해충 진단은 정확성을 장담할 수 없으며 비용과 시간적인 측면에서 위험성이 높다고 할 수 있다. 본 논문에서는 YOLOv5를 활용하여 상추, 고추, 토마토 등 농작물의 병충해를 진단하는 인공지능 서비스를 제안한다. 특히 한국지능정보사회진흥원이 운영하고 있는 AI 통합 플랫폼인 AI 허브에서 제공하는 노지 작물 질병 및 해충 진단 이미지를 사용하여 딥러닝 모델을 학습하였다. 본 연구를 통해 개발된 모바일 어플리케이션을 이용하여 실제 시설농장에서 병충해 진단 서비스를 적용한 결과 약 86%의 정확도, F1 Score 0.84, 그리고 0.98의 mAP 값을 얻을 수 있었다. 본 연구에서 개발한 병충해 진단 딥러닝 모델을 다양한 조도에서 강인하게 동작하도록 개선한다면 농업 현장에서 널리 활용될 수 있을 것으로 기대한다.

  • PDF

지능적인 이형부품 인식과 비전 정렬 방법에 관한 연구 (A Study on the Intelligent Recognition of a Various Electronic Components and Alignment Method with Vision)

  • 신균섭;김종원
    • 반도체디스플레이기술학회지
    • /
    • 제23권2호
    • /
    • pp.1-5
    • /
    • 2024
  • In the electronics industry, a lot of research and development is being conducted on electronic component supply, component alignment and insertion, and automation of soldering on the back side of the PCB for automatic PCB assembly. Additionally, as the use of electronic components increases in the automotive component field, there is a growing need to automate the alignment and insertion of components with leads such as transistors, coils, and fuses on PCB. In response to these demands, the types of PCB and parts used have been more various, and as this industrial trend, the quantity and placement of automation equipment that supplies, aligns, inserts, and solders components has become important in PCB manufacturing plants. It is also necessary to reduce the pre-setting time before using each automation equipment. In this study, we propose a method in which a vision system recognizes the type of component and simultaneously corrects alignment errors during the process of aligning and inserting various types of electronic components. The proposed method is effective in manufacturing various types of PCBs by minimizing the amount of automatic equipment inserted after alignment with the component supply device and omitting the preset process depending on the type of component supplied. Also the advantage of the proposed method is that the structure of the existing automatic insertion machine can be easily modified and utilized without major changes.

  • PDF

계층적 군집화 기반 Re-ID를 활용한 객체별 행동 및 표정 검출용 영상 분석 시스템 (Video Analysis System for Action and Emotion Detection by Object with Hierarchical Clustering based Re-ID)

  • 이상현;양성훈;오승진;강진범
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.89-106
    • /
    • 2022
  • 최근 영상 데이터의 급증으로 이를 효과적으로 처리하기 위해 객체 탐지 및 추적, 행동 인식, 표정 인식, 재식별(Re-ID)과 같은 다양한 컴퓨터비전 기술에 대한 수요도 급증했다. 그러나 객체 탐지 및 추적 기술은 객체의 영상 촬영 장소 이탈과 재등장, 오클루전(Occlusion) 등과 같이 성능을 저하시키는 많은 어려움을 안고 있다. 이에 따라 객체 탐지 및 추적 모델을 근간으로 하는 행동 및 표정 인식 모델 또한 객체별 데이터 추출에 난항을 겪는다. 또한 다양한 모델을 활용한 딥러닝 아키텍처는 병목과 최적화 부족으로 성능 저하를 겪는다. 본 연구에서는 YOLOv5기반 DeepSORT 객체추적 모델, SlowFast 기반 행동 인식 모델, Torchreid 기반 재식별 모델, 그리고 AWS Rekognition의 표정 인식 모델을 활용한 영상 분석 시스템에 단일 연결 계층적 군집화(Single-linkage Hierarchical Clustering)를 활용한 재식별(Re-ID) 기법과 GPU의 메모리 스루풋(Throughput)을 극대화하는 처리 기법을 적용한 행동 및 표정 검출용 영상 분석 시스템을 제안한다. 본 연구에서 제안한 시스템은 간단한 메트릭을 사용하는 재식별 모델의 성능보다 높은 정확도와 실시간에 가까운 처리 성능을 가지며, 객체의 영상 촬영 장소 이탈과 재등장, 오클루전 등에 의한 추적 실패를 방지하고 영상 내 객체별 행동 및 표정 인식 결과를 동일 객체에 지속적으로 연동하여 영상을 효율적으로 분석할 수 있다.

다중 카메라 네트워크 가상의 관심선(Line of Interest)을 활용한 건물 내 재실자 인원 계수 방법론 개발 (Developing an Occupants Count Methodology in Buildings Using Virtual Lines of Interest in a Multi-Camera Network)

  • 천휘경;박찬혁;지석호;노명일
    • 대한토목학회논문집
    • /
    • 제43권5호
    • /
    • pp.667-674
    • /
    • 2023
  • 건물에서 재난이 발생할경우, 건물 내 인원을 신속히 구조하여 사상자를 최소화하는 것은 단연 최우선순위가 된다. 이러한 구조활동을 위해서는 건물내 어디에 몇 명이 있는지를 알아야 하는데, 실시간으로 알기가 어렵다보니 주로 건물주나 경비원 등 관계자의 진술이나 층별 면적, 수용 인원과 같은 기초자료에 의존하는 실정이다. 따라서 빠르고 정확하게 재실인원 정보를 파악하여 현장에 대한 불확실성을 낮추고 골든타임내 효율적인 구조활동을 지원하는 것이 반드시 필요하다. 본 연구는 컴퓨터 비전 알고리즘을 활용하여 이미 건물에 설치되어 있는 여러대의 CCTV 가 촬영한 이미지 로부터 건물 위치별 재실인원을 계수하는 방법론을 제시한다. 계수 방법론은 (1)카메라별 관심선(LOI) 설정을 통한 다중카메라 네트워크 환경구축, (2)딥러닝을 활용한 모니터링 구역내 사람 탐지 및 추적, (3)다중 카메라 네트워크 환경을 고려한 인원 합산 세단계로 구성된다. 제안된 방법론은 5층 건물을 대상으로 세 개의 시간대 별로 수행된 현장 실험을 통해 검증되었다. 최종 결과는 89.9%의 정확도로 재실자를 인식하는 것으로 나타났으며, 층별, 구역별 합산결과도 93.1%, 93.3%의 정확도로 우수했다. 층별 평균MAE와 RMSE는 각각 0.178과 0.339이었다. 이 처럼 실시간으로 제공하는 건물내 재실자 정보는 초기 재난 대응단계에 신속하고 정확한 구조활동을 지원 할 수있다.