• 제목/요약/키워드: Video Image Tracking

검색결과 272건 처리시간 0.025초

서베일런스에서 고속 푸리에 변환을 이용한 실시간 특징점 검출 (Real-Time Landmark Detection using Fast Fourier Transform in Surveillance)

  • 강성관;박양재;정경용;임기욱;이정현
    • 디지털융복합연구
    • /
    • 제10권7호
    • /
    • pp.123-128
    • /
    • 2012
  • 본 논문에서는 보다 정확한 물체 인식을 위하여 물체의 특징점 검출 시스템을 제안한다. 물체의 특징점 검출 시스템은 학습 단계와 검출 단계로 구분된다. 학습 단계에서는 각 특징점의 탐색영역을 설정하기 위한 관심영역모델과 탐색영역에서 특징점을 검출하기 위한 각 특징점별 검출기를 생성한다. 검출 단계에서는 학습 단계에서 생성했던 관심영역모델을 이용하여 입력 영상에서 각각의 특징점의 탐색영역을 설정한다. 시스템에서 검출하고자 하는 특징점 검출 방법은 고속 푸리에 변환을 이용하기 때문에 검출 속도가 빠르며 물체의 추적 시 실패하는 확률이 낮아진다. 제안하는 방법을 개발하여 실험 영상에 적용한 결과 추적하고자 하는 물체가 불규칙적인 속도로 움직일 때에도 안정적으로 추적함을 알 수 있었다. 실험 결과는 기존의 방법들에서 사용되었던 다양한 데이터 집합에 적용하였을 때 우수한 성능을 보여준다.

Object Detection Based on Deep Learning Model for Two Stage Tracking with Pest Behavior Patterns in Soybean (Glycine max (L.) Merr.)

  • Yu-Hyeon Park;Junyong Song;Sang-Gyu Kim ;Tae-Hwan Jun
    • 한국작물학회:학술대회논문집
    • /
    • 한국작물학회 2022년도 추계학술대회
    • /
    • pp.89-89
    • /
    • 2022
  • Soybean (Glycine max (L.) Merr.) is a representative food resource. To preserve the integrity of soybean, it is necessary to protect soybean yield and seed quality from threats of various pests and diseases. Riptortus pedestris is a well-known insect pest that causes the greatest loss of soybean yield in South Korea. This pest not only directly reduces yields but also causes disorders and diseases in plant growth. Unfortunately, no resistant soybean resources have been reported. Therefore, it is necessary to identify the distribution and movement of Riptortus pedestris at an early stage to reduce the damage caused by insect pests. Conventionally, the human eye has performed the diagnosis of agronomic traits related to pest outbreaks. However, due to human vision's subjectivity and impermanence, it is time-consuming, requires the assistance of specialists, and is labor-intensive. Therefore, the responses and behavior patterns of Riptortus pedestris to the scent of mixture R were visualized with a 3D model through the perspective of artificial intelligence. The movement patterns of Riptortus pedestris was analyzed by using time-series image data. In addition, classification was performed through visual analysis based on a deep learning model. In the object tracking, implemented using the YOLO series model, the path of the movement of pests shows a negative reaction to a mixture Rina video scene. As a result of 3D modeling using the x, y, and z-axis of the tracked objects, 80% of the subjects showed behavioral patterns consistent with the treatment of mixture R. In addition, these studies are being conducted in the soybean field and it will be possible to preserve the yield of soybeans through the application of a pest control platform to the early stage of soybeans.

  • PDF

Implementation of AESA Radar Integration Analysis System by using Heterogeneous Media

  • Min-Jung Kang
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권3호
    • /
    • pp.117-125
    • /
    • 2024
  • 본 논문은 다양한 매체를 활용하여 레이다 개발에 특화된 능동 전자 주사식 위상 배열(AESA, Active Electronically Scanned Array) 레이다 통합 분석 시스템을 구현하고 제안한다. 대부분 분석 시스템은 결함의 원인을 분석하고 개선하기 위해 활용되어 시험을 수월하게 한다. 그러나 기존에 텍스트 기반의 로그 분석 시스템은 로그 정보가 많으면 직관적이지 않고 원하는 정보를 한 번에 찾기 어려워 장비 결함 발생 시 결함의 원인을 분석하기에는 한계가 있다. 따라서 본 논문의 분석 시스템은 다양한 매체를 활용한다. 본 논문에서 정의하는 매체란 텍스트 기반의 데이터를 기록하고, 데이터를 이미지 및 영상으로 전시하며 데이터를 시각화하는 것을 말한다. 제안하는 분석 시스템은 레이다 장치 간에 송수신된 데이터, 레이다 표적 탐지 추적 알고리즘 데이터 등을 분류하여 저장하고 레이다 작동 결과 및 장비 결함 정보를 실시간 전시하고 시각화한다. 이 분석 시스템을 통해 사용자에게 원하는 정보를 빠르게 제공하고 완성도 높은 레이다 개발에 도움을 준다.

뇌혈관 중재시술 지원 가이드 시스템에 관한 연구 (A Study of Guide System for Cerebrovascular Intervention)

  • 이성권;정창원;윤권하;주수종
    • 인터넷정보학회논문지
    • /
    • 제17권1호
    • /
    • pp.101-107
    • /
    • 2016
  • 최근 디지털 영상장비 개발 기술의 발전으로 인하여 중재 시술이 일반화되고 있다. 중재 영상시술은 미세한 카테터와 가이드와이어를 체내에 삽입하고 시술하는 기술적 특성으로 인하여, 시술의 효과와 안전성을 높이기위해서는 엑스선영상의 고화질이어야 한다. 이로인하여 방사선 피폭량이 증가하는 문제점을 갖고 있다. 따라서 엑스선 디텍터의 성능을 개선하는 연구가 활발하게 진행되고 있다. 또한, 혈관 조영술을 기반으로 한 중재시술은 참조 영상 처리와 3D 의료 영상처리 기술이 요구된다. 본 논문에서는 중재시술을 지원하기 위한 가이드 시스템을 제안하고자 한다. 뇌혈관질환의 중재시술에 기존 혈관조형검사기반의 2D 의료영상이 갖고 있는 문제점을 해결하고, 중재시술 도구인 카테터와 가이드와이어의 목표 병변까지 실시간 위치 추적과 최적의 경로를 안내 해주고자 한다. 이를 위한 전체 시스템은 의료영상 획득부와 영상처리부 그리고 디스플레이 디바이스부로 구성하였다. 그리고 제안한 시스템에서 제공하는 가이드서비스의 실험환경은 브레인 팬텀(Complete intracranial model with aneurysms, ref H+N-S-A-010)을 엑스선으로 촬영하면서 실험하였다. 그리고 참조 영상을 생성하기 위해서 라프라시안 알고리즘 기반의 뇌혈관 모델링과 DICOM에서 추출한 이미지 처리를 위해 Volume ray casting 기법을 적용하였다. 그리고 카테터와 가이드와이어의 위치추적과 경로 제공을 위해 $A^*$ 알고리즘을 적용하였다. 끝으로 제안한 시스템에서 제공하는 카테터와 가이드와이어의 위치추적 수행결과를 보인다. 제안한 시스템은 향후 중재시술에 유용한 안내 서비스를 제공할 것으로 기대하고 있다.

Positive Guidance 기법을 응용한 실시간 교통안전 경고정보 제공방안 (A Methodology for Providing More Reliable Traffic Safety Warning Information based on Positive Guidance Techniques)

  • 김준형;오철;오주택
    • 대한교통학회지
    • /
    • 제27권2호
    • /
    • pp.207-214
    • /
    • 2009
  • 최근 각종 센서 및 통신기술의 발달은 과거에 비해 보다 미시적이고 폭넓은 교통자료의 수집과 운전자의 주행편의를 위한 다양한 방식의 정보제공을 실시간 환경에서 가능하도록 하였다. 본 연구에서는 Positive Guidance 기법을 응용하여 이와 같은 실시간 환경에서 적용 가능한 실시간 교통상충 분석 기반의 경고정보 제공 방안을 제안하고자 한다. 제안하는 시스템은 영상 이미지 추적 기법으로 개별차량의 주행패턴을 분석하여 인접 차량간 상충을 분석하고, ARIMA 모형을 이용하여 상충분석결과를 바탕으로 영상검지영역의 위험도를 예측한다. 위험도 예측을 통해 생성된 경고정보는 Positive Guidance 기법을 적용하여 영상검지영역 상류부에서 접근 중인 운전자에게 제공된다. 본 연구의 성과물은 향후 보다 교통사고 예방을 위한 보다 진보된 교통정보시스템의 개발 시 유용하게 활용될 것으로 기대된다.

영상 특성과 스켈레톤 분석을 이용한 실시간 인간 객체 추출 (Realtime Human Object Segmentation Using Image and Skeleton Characteristics)

  • 김민준;이주철;김원하
    • 방송공학회논문지
    • /
    • 제21권5호
    • /
    • pp.782-791
    • /
    • 2016
  • 영상에서 배경으로부터 객체를 추출하는 영상 segmentation 알고리즘은 물체 인식 및 추적 등 다양한 응용분야에서 활용될 수 있다. 본 논문에서는 고정된 카메라에서 다수의 초기 프레임을 참조하여 실시간 객체 segmentation 방법을 제안한다. 먼저 객체와 배경을 분류하는 확률모델을 제안하였으며 초기 프레임 동안에 카메라의 color consistency와 focus 특성을 분석하여 안정적인 segmentation 성능을 증가시켰다. 또한 분류된 객체에서 human의 skeleton 특성을 이용하여 추출 결과를 보정하는 방법을 제안한다. 마지막으로 제안된 알고리즘은 객체 segmentation 실시간 처리를 위하여 복잡도를 최소화하므로 다양한 mobile 단말에 확대 적용 가능하다.

6DOF Simulation of a Floating Structure Model Using a Single Video

  • Trieu, Hang Thi;Han, Dongyeob
    • 한국측량학회지
    • /
    • 제32권6호
    • /
    • pp.563-570
    • /
    • 2014
  • This paper purposes on stimulating the dynamic behavior of a floating structure model with the image processing and the close-range photogrammetry, instead of the contact sensors. Previously, the movement of structures was presented by the exterior orientation estimation from a single camera following the space resection. The inverse resection yields to 6 orientation parameters of the floating structure, with respect to the camera coordinates system. The single camera solution of interest in applications is characterized by the restriction in terms of costs, unfavorable observation conditions, or synchronization demands when using multiple cameras. This paper discusses the theoretical determinations of camera exterior orientation by using the least squares adjustment, applied of the values from the DLT (Direct Linear Transformation) and the photogrammetric resection. This proposed method is applied to monitor motions of a floating model. The results of 6DOF (Six Degrees of Freedom) from the inverse resection were signified that applying appropriate initial values from DLT in the least square adjustment is effective in obtaining precise exterior orientation parameters. Therefore, the proposed method can be concluded as an efficient solution to simulate movements of the floating structure.

자율 주차 시스템을 위한 실시간 차량 추출 알고리즘 (A Real-time Vehicle Localization Algorithm for Autonomous Parking System)

  • 한종우;최영규
    • 반도체디스플레이기술학회지
    • /
    • 제10권2호
    • /
    • pp.31-38
    • /
    • 2011
  • This paper introduces a video based traffic monitoring system for detecting vehicles and obstacles on the road. To segment moving objects from image sequence, we adopt the background subtraction algorithm based on the local binary patterns (LBP). Recently, LBP based texture analysis techniques are becoming popular tools for various machine vision applications such as face recognition, object classification and so on. In this paper, we adopt an extension of LBP, called the Diagonal LBP (DLBP), to handle the background subtraction problem arise in vision-based autonomous parking systems. It reduces the code length of LBP by half and improves the computation complexity drastically. An edge based shadow removal and blob merging procedure are also applied to the foreground blobs, and a pose estimation technique is utilized for calculating the position and heading angle of the moving object precisely. Experimental results revealed that our system works well for real-time vehicle localization and tracking applications.

딥 러닝 기반의 영상처리 기법을 이용한 겹침 돼지 분리 (Separation of Occluding Pigs using Deep Learning-based Image Processing Techniques)

  • 이한해솔;사재원;신현준;정용화;박대희;김학재
    • 한국멀티미디어학회논문지
    • /
    • 제22권2호
    • /
    • pp.136-145
    • /
    • 2019
  • The crowded environment of a domestic pig farm is highly vulnerable to the spread of infectious diseases such as foot-and-mouth disease, and studies have been conducted to automatically analyze behavior of pigs in a crowded pig farm through a video surveillance system using a camera. Although it is required to correctly separate occluding pigs for tracking each individual pigs, extracting the boundaries of the occluding pigs fast and accurately is a challenging issue due to the complicated occlusion patterns such as X shape and T shape. In this study, we propose a fast and accurate method to separate occluding pigs not only by exploiting the characteristics (i.e., one of the fast deep learning-based object detectors) of You Only Look Once, YOLO, but also by overcoming the limitation (i.e., the bounding box-based object detector) of YOLO with the test-time data augmentation of rotation. Experimental results with two-pigs occlusion patterns show that the proposed method can provide better accuracy and processing speed than one of the state-of-the-art widely used deep learning-based segmentation techniques such as Mask R-CNN (i.e., the performance improvement over Mask R-CNN was about 11 times, in terms of the accuracy/processing speed performance metrics).

실시간 얼굴 방향성 추정을 위한 효율적인 얼굴 특성 검출과 추적의 결합방법 (A Hybrid Approach of Efficient Facial Feature Detection and Tracking for Real-time Face Direction Estimation)

  • 김웅기;전준철
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.117-124
    • /
    • 2013
  • 본 논문에서는 실시간으로 입력되는 비디오 영상으로부터 사용자의 얼굴 방향을 효율적으로 추정하는 새로운 방법을 제안하였다. 이를 위하여 입력 영상으로부터 외부조명의 변화에 덜 민감한 Haar-like 특성을 이용하여 얼굴영역의 검출을 수행하고 검출 된 얼굴영역 내에서 양쪽 눈, 코, 입 등의 주요 특성을 검출한다. 이 후 실시간으로 매 프레임마다 광류를 이용해 검출된 특징 점을 추적하게 되며, 추적된 특징 점을 이용해 얼굴의 방향성 추정한다. 일반적으로 광류를 이용한 특징 추적에서 발생할 수 있는 특징점의 좌표가 유실되어 잘못된 특징점을 추적하게 되는 상황을 방지하기 위하여 검출된 특징점의 템플릿 매칭(template matching)을 사용해 추적중인 특징점의 유효성을 실시간 판단하고, 그 결과에 따라 얼굴 특징 점들을 다시 검출하거나, 추적을 지속하여 얼굴의 방향성을 추정을 가능하게 한다. 탬플릿 매칭은 특징검출 단계에서 추출된 좌우 눈, 코끝 그리고 입의 위치 등 4가지 정보를 저장한 후 얼굴포즈 측정에 있어 광류에의해 추적중인 해당 특징점들 간의 유사도를 비교하여 유사도가 임계치를 벗어 날 경우 새로이 특징점을 찾아내는 작업을 수행하여 정보를 갱신한다. 제안된 방법을 통해 얼굴의 특성 추출을 위한 특성 검출과정과 검출된 특징을 지속적으로 보완하는 추적과정을 자동적으로 상호 결합하여 안정적으로 실시간에 얼굴 방향성 추정 할 수 있었다. 실험을 통하여 제안된 방법이 효과적으로 얼굴의 포즈를 측정할 수 있음을 입증하였다.