• 제목/요약/키워드: Tracking of Moving Object

검색결과 530건 처리시간 0.03초

손 모양 인식을 이용한 모바일 로봇제어 (Mobile Robot Control using Hand Shape Recognition)

  • 김영래;김은이;장재식;박세현
    • 전자공학회논문지CI
    • /
    • 제45권4호
    • /
    • pp.34-40
    • /
    • 2008
  • 본 논문에서는 손 모양 인식을 이용한 비전기반의 모바일 로봇제어 시스템을 제안한다. 손 모양을 인식하기 위해서는 움직이는 카메라로부터 정확한 손의 경계선을 추출하고 추적하는 것이 필요하다. 이를 위해 본 논문에서는 초기 윤곽선 위치 및 경계에 강건하고, 빠른 물체를 정확히 추적할 수 있는 mean shift를 이용한 활성 윤곽선 모델(ACM) 추적 방법을 개발하였다. 제안된 시스템은 손 검출기, 손 추적기, 손 모양 인식기, 로봇 제어기 4가지 모듈로 구성된다. 손 검출기는 영상에서 피부색 영역으로 정확한 모양을 손으로 추출한 이후 활성 윤곽선 모델(ACM) 과 mean shift를 사용하여 손 영역을 정확히 추적한다. 마지막으로 Hue 모멘트에 이용하여 손의 형태를 인식한다. 제안된 시스템의 적합성을 평가하기 위하여 2족 보행로봇 RCB-1에서 실험이 수행되었다. 실험 결과는 제안된 시스템의 효율성을 증명하였다.

배경모델링과 CNN을 이용한 실시간 피플 카운팅 알고리즘 (A Real-time People Counting Algorithm Using Background Modeling and CNN)

  • 양훈준;장혁;정재협;이보원;정동석
    • 전자공학회논문지
    • /
    • 제54권3호
    • /
    • pp.70-77
    • /
    • 2017
  • 최근 IoT 및 딥러닝 관련 기술요소들이 영상보안감시시스템에서도 다양하게 응용되고 있다. 그 중 CCTV를 통해 촬영된 동영상에서 자동으로 특정 객체를 검출, 추적, 분류 하는 감시 기능이 점점 지능화되고 있다. 본 논문에서는 보급형 CPU만 사용하는 PC 환경에서도 실시간 처리가 가능한 알고리즘을 목표로 하였다. GMM(Gaussian Mixture Model)을 이용한 배경 모델링과 헝가리안 알고리즘, 그리고 칼만 필터를 조합한 추적 알고리즘은 전통적이며 복잡도가 비교적 적지만 검출 오류가 높다. 이를 보강하기 위해 대용량 데이터 학습에 적합한 딥러닝을 기술을 적용하였다. 특히 움직임이 있는 사람의 특징을 강조하기 위해 추적된 객체에 대해 SRGB-3 Layer CNN을 사용하였다. 성능 평가를 위해 기존의 HOG와 SVM을 이용한 시스템과 비교했을 때 Move-in은 7.6%, Move-out은 9.0%의 오류율 감소가 있었다.

동영상 코덱과 연동이 가능한 객체 추적 카메라용 저연산량 움직임 추적기 (Low-computation Motion Tracker Unit Linkable to Video Codec for Object Tracking Camera)

  • 양현철;이성수
    • 대한전자공학회논문지SD
    • /
    • 제45권10호
    • /
    • pp.66-74
    • /
    • 2008
  • 능동형 감시 카메라를 이용한 감시 시스템은 기존의 소리나 센서를 이용하는 방법과 달리 거리의 제약이 없이 시스템을 구성할 수 있다는 장점을 가지지만 하드웨어 구현 시에 많은 연산량을 요구한다. 본 논문은 기존의 DSP나 임베디드 프로세서를 이용하는 방법과 달리 연속 영상의 차영상을 이용하는 방법을 통해서 간단하고 빠르게 객체의 움직임을 추출 및 추적할 수 있는 움직임 추적기를 제안하고 구현하였다. 제안하는 움직임 추적기는 하드웨어 크기가 작으면서도 시속 10km 이내의 사람 움직임을 효과적으로 감지할 수 있다. 차분의 절대값을 이용하는 방법을 사용하였기 때문에 동영상 압축 표준과 연동하여서 사용할 수 있다. 또한 화면 건너뛰기값을 조절함으로서 고속 물체와 저속 물체 모두를 효과적으로 감지할 수 있다. 차영상에 존재할 수 있는 잡음에 대해서 객체의 정보를 이용하는 방법을 통해서 잡음에 대한 내성을 강하게 하였다. 제안한 움직임 추적기는 NTSC급 영상을 충분히 처리할 수 있으며 약 13,000 게이트로 FPGA에서 구현되었으며 능동형 감시 카메라 시스템에 내장되어 실제로 원활히 동작하는 것을 확인하였다. 이를 바탕으로 기존에 개발한 움직임 추정기에 제안한 움직임 추적기를 내장하여 동영상 압축 코덱과 연동이 가능한 움직임 추적기 내장형 움직임 추정기를 구현하였다. 구현된 움직임 추정기는 $0.35{\mu}m$ 공정에서 약 17,000 게이트의 크기를 가진다.

반투영 거울 기반 공간 증강 현실 환경의 전시물 안내 시스템 (Annotation System using Spatial Augmented Reality Display with Half-slivered Mirror)

  • 김정훈;이영보;박현우;윤태수;이동훈
    • 한국산업정보학회논문지
    • /
    • 제13권1호
    • /
    • pp.37-45
    • /
    • 2008
  • 본 논문에서는 반투영 거울을 사용하여 원하는 출력물을 허공에 디스플레이 하는 방식의 전시물 안내 시스템을 제안한다. 관람객이 전시물을 관람시 즉각적인 정보 획득이 가능하도록, 전시물에 대한 설명을 전시물 주변에 출력한다. 이를 위해 본 논문에서는 세 가지 문제를 해결한다. 첫째, 실시간 입력 카메라영상을 사용하여 위치 추적을 한다. 이를 통하여 고정된 전시물뿐만 아니라, 유동적인 전시물에도 사용이 가능하다. 둘째, 실시간으로 계산되어진 대상의 위치좌표를 이용하여 결과물을 출력할 때, 자연스러운 이동을 위하여 병렬처리를 통한 추적 알고리즘을 사용한다. 셋째, 공간 증강 현실 시스템제작을 위해 전시 공간 앞면에 반투영 거울을 설치하는데, 설치된 거울의 기울기로 인하여 생기는 왜곡은 반사 변환 행렬을 사용하여 보정한다. 본 논문의 제안 시스템은 전시물에 대하여 관람자의 호기심을 유발하며, 쉽고 즉각적인 설명을 통하여 관람자가 전시물에 대한 정보를 쉽고 빠르게 획득하도록 한다.

  • PDF

직선광선의 2D 영상을 이용한 이동로봇의 이동물체 추적 알고리즘 (A Moving Target Tracking Algorithmfor a Mobile Robot Based on a 2D Image of a Line Light)

  • 임호;한헌수;홍민철
    • 전자공학회논문지SC
    • /
    • 제37권4호
    • /
    • pp.11-21
    • /
    • 2000
  • 본 논문에서는 이동로봇이 작업환경 내에서 이동하는 물체를 실시간에 인지, 추적하기 위한 비젼센서 시스템을 제안한다. 제안하는 시스템은 하나의 직선광선을 카메라 영상의 중앙에 수평하게 투영되도록 하여 이동로봇의 경로에 투사하고 이 광선이 물체와 교차하여 생성하는 선분영상만을 취득, 해석함으로써 비젼센서를 이용하는 기존의 방법들이 영상전체를 이해하기 위해 필요로 하던 계산상의 복잡도를 줄이고 있다. 이동물체의 존재여부, 속도 및 위치는 2개의 연속된 영상에서 얻어진 선분영상의 위치 및 길이의 변형도를 일정한 기준치와 비교하여 결정하는 간단한 방법을 제안한다. 제안된 알고리즘은 보안 및 다수이동로봇의 제어분야에서 다양하게 응용될 수 있으며 실험을 통해 그 성능을 평가하였다.

  • PDF

광 JTC를 이용한 이동 물체의 스테레오 주시각 시차 추출 (Stereo Convergence Angle Disparity Extraction of the Moving Target using Optical JTC)

  • 이재수;김성호;김규태;김은수;박순영;이용범
    • 전자공학회논문지D
    • /
    • 제35D권12호
    • /
    • pp.99-107
    • /
    • 1998
  • 스테레오 비젼 시스템은 사람의 눈 구조와 같이 좌,우 양방향에 위치한 두 대의 카메라로부터 영상이 입력되기 때문에 기존의 2차원 영상에 비해 보다 현실감 있는 입체 영상을 제공하는 특징을 갖고 있다. 그러나 스테레오 비젼 시스템에서 좌,우 영상의 시점이 일치하지 않을 경우 발생하는 스테레오 시차로 인해 오랜 시간동안 작업하는 관측자에게 눈의 피로감을 주고 물체의 입체감을 느끼지 못하기 때문에 스테레오 시차를 0으로 유지시키는 것이 요구되고 있다. 따라서 본 논문에서는 스테레오 시차를 0으로 유지시키기 위한 새로운 접근방법으로 적응적 물체 추적이 가능한 광 JTC를 이용하여 좌,우 영상에 대한 상관 첨두치의 상대적 위치 변화를 측정하는 새로운 스테레오 시차추출 방법을 제시하고, 광학적 실험을 통해 배경 잡음에 강하고 주시각 시차의 실시간적 제어가 가능한 스테레오 비젼 시스템을 제시하였다.

  • PDF

행동 탐지 기반의 효율적인 객체 선택 알고리듬 (Efficient Object Selection Algorithm by Detection of Human Activity)

  • 박왕배;서융호;두경수;최종수
    • 대한전자공학회논문지SP
    • /
    • 제47권3호
    • /
    • pp.61-69
    • /
    • 2010
  • 본 논문에서는 행동 탐지 기반으로 사람의 지시행위를 인식하여 지시방향의 객체를 선택하고 이를 추적하는 시스템을 제안한다. 일반적으로 사람은 무엇인가를 지시할 경우, 얼굴 방향을 목표물에 두게 된다. 따라서 얼굴과 손끝을 연결한 직선을 지시방향이라 간주하고, 지시된 객체를 선택한다. 제안된 알고리듬에서는 카메라를 통해 입력된 영상으로부터 움직임 영역을 검출하기 위해 배경 차분을 사용하여 실시간으로 관심 객체의 움직임을 추출한다. 보행 여부의 판단은 주성분(PCA) 분석과 객체의 움직임 변위로 결정되며, 이 때 사람이 정지 상태면, 머리를 기준으로 손에 이르는 벡터 관계를 계산하여 사용자의 지시방향을 최종적으로 결정한다. 실험결과를 통하여 다시점 카메라를 이용한 다각도의 영상에서 사람의 지시 방향을 정확하게 추정해 냄으로서 제안된 알고리즘의 유효성을 검증하였다.

실시간 범죄 모니터링을 위한 CCTV 협업 추적시스템 개발 연구 (Development of CCTV Cooperation Tracking System for Real-Time Crime Monitoring)

  • 최우철;나준엽
    • 한국산학기술학회논문지
    • /
    • 제20권12호
    • /
    • pp.546-554
    • /
    • 2019
  • 본 논문에서는 CCTV를 통해 실시간 범죄에 대응할 수 있도록 CCTV 카메라 간 협업이 가능한 기술과 이를 활용한 실시간 범죄대응 서비스에 대해 연구하였다. 본 연구에서 개발하고자 하는 CCTV 협업 기술은 한 곳의 CCTV에서 추출된 이동 객체(용의자)가 범위를 벗어나 다른 CCTV로 이동했을 때 객체의 유사도 정보를 관제자에게 전달하여 선택된 객체를 추적하는 프로그램 모델이다. 일련의 유사도 정보 획득 과정은 객체 감지(object detection), 사전 분류(pre-classification), 특징 추출(feature extraction), 분류(classification)의 4단계의 프로세스로 진행된다. 이는 주로 사후처리용으로 사용되던 CCTV 모니터링을 긴박한 실시간 범죄에 대응하도록 개선시켜 범죄발생 초기대응 체계를 강화 할 수 있다. 또한 관제요원의 모니터링에만 의존하는 CCTV 관제시스템을 부분 자동화하여 지자체 관제센터 운영효율성을 증대시킬 수 있다. 해당 기술 및 서비스는 안양시 테스트베드에 구축하여 시범운영할 예정으로, 서비스가 안정화가 되면 전국 지자체에 확산하여 상용화가 될 것으로 예상된다. 향후 CCTV 협업 뿐 아니라 실시간 개인 정밀위치결정, 스마트폰 연계 등 통합 방범서비스 연구가 진행되어 시민들이 보다 안전한 생활을 영위할 수 있기를 기대한다.

컴퓨터 비전 기술을 기반으로 한 자동 차량 감시 시스템 연구 (A Study on the automatic vehicle monitoring system based on computer vision technology)

  • 정하영;최종환;최영규;김현열;김태우
    • 한국정보전자통신기술학회논문지
    • /
    • 제10권2호
    • /
    • pp.133-140
    • /
    • 2017
  • 본 논문은 컴퓨터 비전 기술을 기반으로 자동 차량 감시 시스템을 제안하였다. 실시간 주행표시 시스템은 ITS의 필수 요건을 충족하면서, 자동 감시제어가 가능한 시스템이다. 이러한 장점은 확실한 자동차 추적에 대해 주요 장애물 처리 시스템 적용할 경우, 움직이는 물체에 대한 그림자 추적이다. 추적 차량 이미지에서 모든 종류의 정보를 획득하기 위해 차량을 확실하게 감시 화면에 나타나게 하였다. 시간이 지남에 따라 차량을 정밀 추적 제어 할 필요가 있고, 입체 모델 기반접근 방식 또한 필요한 방식으로 적용하였다. 일반적으로 개체 또는 와이어 프레임 모델의 골격에 의해 차량의 각각의 유형을 나타내었고, 시스템이 실시간 실행되지 않더라도 차량 궤적은 3D기반 방식에서 높은 정밀도로 측정 될 수 있다는 점을 보여 준다. 본 논문에서는 차량, 배경, 그림자에 적용 가능하고, 도로 교통 감시의 시스템을 분할 방법을 역시 적용하였다. 과속 자동차의 속도 추적을 통해 낮은 레벨의 차량제어 추적기의 유효성 역시 실행 하였다. 결론에서 개발된 추적 제어 시스템에서 향상된 자동차 추적의 방법을 개선하고자 하였으며 고속도로 감시제어 시스템을 개발하고자 하였다.

Real-Time Tracking of Human Location and Motion using Cameras in a Ubiquitous Smart Home

  • Shin, Dong-Kyoo;Shin, Dong-Il;Nguyen, Quoc Cuong;Park, Se-Young
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제3권1호
    • /
    • pp.84-95
    • /
    • 2009
  • The ubiquitous smart home is the home of the future, which exploits context information from both the human and the home environment, providing an automatic home service for the human. Human location and motion are the most important contexts in the ubiquitous smart home. In this paper, we present a real-time human tracker that predicts human location and motion for the ubiquitous smart home. The system uses four network cameras for real-time human tracking. This paper explains the architecture of the real-time human tracker, and proposes an algorithm for predicting human location and motion. To detect human location, three kinds of images are used: $IMAGE_1$ - empty room image, $IMAGE_2$ - image of furniture and home appliances, $IMAGE_3$ - image of $IMAGE_2$ and the human. The real-time human tracker decides which specific furniture or home appliance the human is associated with, via analysis of three images, and predicts human motion using a support vector machine (SVM). The performance experiment of the human's location, which uses three images, lasted an average of 0.037 seconds. The SVM feature of human motion recognition is decided from the pixel number by the array line of the moving object. We evaluated each motion 1,000 times. The average accuracy of all types of motion was 86.5%.