• 제목/요약/키워드: Human Tracking

검색결과 652건 처리시간 0.028초

동심원 확장 및 추적 알고리즘을 이용한 손동작 인식 (Hand-Gesture Recognition Using Concentric-Circle Expanding and Tracing Algorithm)

  • 황동현;장경식
    • 한국정보통신학회논문지
    • /
    • 제21권3호
    • /
    • pp.636-642
    • /
    • 2017
  • 본 논문은 동심원 확장 및 추적 기법을 이용하여 손동작을 인식하는 알고리즘을 제안한다. 제안하는 알고리즘은 웹 카메라로부터 영상을 입력받아 전처리 과정을 통해 손 영상에 대한 ROI를 추출한 뒤 동심원을 사용하여 펴진 손가락의 개수뿐만 아니라 손가락의 끝점, 손가락의 기저의 위치정보, 손가락 사이의 각도를 추출하여 HCI분야에서 활용할 수 있는 다양한 입력 방법을 제공한다. 또한 이 알고리즘은 이미지 전체의 화소를 참조하는 래스터 스캔방식과 비교하여 동심원을 구성하는 화소만을 참조함으로서 계산복잡도를 줄일 수 있다. 제안하는 알고리즘은 9가지의 손동작을 평균 90.7%의 인식률과 평균 78ms의 수행속도를 보여줌을 확인했고, 가상현실, 증강현실 및 혼합현실 그리고 HCI 분야 전반의 입력수단으로의 적용가능성을 확인하였다.

단일 카메라를 이용한 보행자의 높이 및 위치 추정 기법 (Estimation of Human Height and Position using a Single Camera)

  • 이석한;최종수
    • 전자공학회논문지SC
    • /
    • 제45권3호
    • /
    • pp.20-31
    • /
    • 2008
  • 본 논문에서는 단일 카메라를 이용하여 영상 내에 존재하는 객체의 3차원 공간 상에서의 위치 및 높이를 추출하기 위한 기법을 제안한다. 본 논문에서 제안하는 방법은 영상으로 사영된 3차원 장면(scene)에 대한 기준 좌표계를 마커(marker)를 이용해서 설정한 다음, 대상 물체의 2차원 영상을 기준 좌표계로 직접 역사영(back-projection) 시킴으로써 대상 물체에 대한 3차원 공간에서의 위치 및 높이를 계산한다. 그리고 부정확한 카메라 교정으로 인하여 발생하는 역사영 오차를 마커의 기하학 정보를 이용해서 보정한다. 제안된 방법은 기존의 방법에서 주로 이용되던 소실점(vanishing point) 및 소실선(vanishing line) 등을 이용하지 않으며, 3차원 공간 내에서의 객체의 높이 및 위치의 동시 추정이 가능한 장점이 있다. 또한 단일 카메라만을 이용하여 필요한 위치 및 높이 정보를 추출하기 때문에 다중 카메라를 이용한 기법에서 발생할 수 있는 3차원 좌표계 상에서의 대응점의 모호성, 다수의 카메라를 정확히 교정시켜야 하는 어려움 등의 문제가 발생하지 않는다. 실험 결과를 통하여 제안된 기법의 정확도 및 안정성을 확인하였다.

한글 문자 입력 인터페이스 개발을 위한 눈-손 Coordination에 대한 연구 (A Study on the Eye-Hand Coordination for Korean Text Entry Interface Development)

  • 김정환;홍승권;명노해
    • 대한인간공학회지
    • /
    • 제26권2호
    • /
    • pp.149-155
    • /
    • 2007
  • Recently, various devices requiring text input such as mobile phone IPTV, PDA and UMPC are emerging. The frequency of text entry for them is also increasing. This study was focused on the evaluation of Korean text entry interface. Various models to evaluate text entry interfaces have been proposed. Most of models were based on human cognitive process for text input. The cognitive process was divided into two components; visual scanning process and finger movement process. The time spent for visual scanning process was modeled as Hick-Hyman law, while the time for finger movement was determined as Fitts' law. There are three questions on the model-based evaluation of text entry interface. Firstly, are human cognitive processes (visual scanning and finger movement) during the entry of text sequentially occurring as the models. Secondly, is it possible to predict real text input time by previous models. Thirdly, does the human cognitive process for text input vary according to users' text entry speed. There was time gap between the real measured text input time and predicted time. The time gap was larger in the case of participants with high speed to enter text. The reason was found out investigating Eye-Hand Coordination during text input process. Differently from an assumption that visual scan on the keyboard is followed by a finger movement, the experienced group performed both visual scanning and finger movement simultaneously. Arrival Lead Time was investigated to measure the extent of time overlapping between two processes. 'Arrival Lead Time' is the interval between the eye fixation on the target button and the button click. In addition to the arrival lead time, it was revealed that the experienced group uses the less number of fixations during text entry than the novice group. This result will contribute to the improvement of evaluation model for text entry interface.

FMCW 레이다 센서 기반 사람과 사물 분류 시스템 설계 및 구현 (Design and Implementation of Human and Object Classification System Using FMCW Radar Sensor)

  • 심윤성;송승준;장선영;정윤호
    • 전기전자학회논문지
    • /
    • 제26권3호
    • /
    • pp.364-372
    • /
    • 2022
  • 본 논문에서는 FMCW(frequency modulated continuous wave) 레이다 센서를 활용한 사람과 사물을 분류하는 시스템 설계 및 구현 결과를 제시한다. 해당 시스템은 다중 객체 탐지를 위한 레이다 센서 신호처리 과정과 객체를 사람 및 사물로 분류하는 딥러닝 과정을 수행한다. 딥러닝의 경우 높은 연산량과 많은 양의 메모리를 요구하기 때문에 경량화가 필수적이다. 따라서 CNN (convolution neural network) 연산을 이진화하여 동작하는 BNN (binary neural network) 구조를 적용하였으며, 실시간 동작을 위해 하드웨어 가속기를 설계하고 FPGA 보드 상에서 구현 및 검증하였다. 성능 평가 및 검증 결과 90.5%의 다중 객체 구분 정확도, CNN 대비 96.87% 감소된 메모리 구현이 가능하며, 총 수행 시간은 5ms로 실시간 동작이 가능함을 확인하였다.

Application of Virtual Studio Technology and Digital Human Monocular Motion Capture Technology -Based on <Beast Town> as an Example-

  • YuanZi Sang;KiHong Kim;JuneSok Lee;JiChu Tang;GaoHe Zhang;ZhengRan Liu;QianRu Liu;ShiJie Sun;YuTing Wang;KaiXing Wang
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.106-123
    • /
    • 2024
  • This article takes the talk show "Beast Town" as an example to introduce the overall technical solution, technical difficulties and countermeasures for the combination of cartoon virtual characters and virtual studio technology, providing reference and experience for the multi-scenario application of digital humans. Compared with the live broadcast that combines reality and reality, we have further upgraded our virtual production technology and digital human-driven technology, adopted industry-leading real-time virtual production technology and monocular camera driving technology, and launched a virtual cartoon character talk show - "Beast Town" to achieve real Perfectly combined with virtuality, it further enhances program immersion and audio-visual experience, and expands infinite boundaries for virtual manufacturing. In the talk show, motion capture shooting technology is used for final picture synthesis. The virtual scene needs to present dynamic effects, and at the same time realize the driving of the digital human and the movement with the push, pull and pan of the overall picture. This puts forward very high requirements for multi-party data synchronization, real-time driving of digital people, and synthetic picture rendering. We focus on issues such as virtual and real data docking and monocular camera motion capture effects. We combine camera outward tracking, multi-scene picture perspective, multi-machine rendering and other solutions to effectively solve picture linkage and rendering quality problems in a deeply immersive space environment. , presenting users with visual effects of linkage between digital people and live guests.

영상 피드백을 이용한 단일 영상에서의 적응적 피부색 검출 (Adaptive Skin Color Segmentation in a Single Image using Image Feedback)

  • 도준형;김근호;김종열
    • 대한전자공학회논문지SP
    • /
    • 제46권3호
    • /
    • pp.112-118
    • /
    • 2009
  • 피부색 검출 기법은 안면 정보를 이용한 체질 진단 및 건강 진단, 인간과 로봇과의 상호작용, 영상 검색 시스템 등 다양한 응용분야에서 사람의 얼굴과 손의 검출을 위해 많이 사용되어 왔다. 비디오 영상의 경우 조명이나 환경 변화에 강인한 피부색 영역의 추적을 위해 매 프레임마다 대상 영역의 피부색 모델을 업데이트 하는 것이 일반적이나, 단일 영상에서 피부색 영역을 검출하거나 비디오 영상의 첫 프레임에서 피부색 영역을 검출할 때에는, 많은 연구들이 하나의 고정된 피부색 모델을 이용하기 때문에 입력 영상의 특징에 따라 낮은 검출율이나 높은 긍정 오류율이 발생하는 경우가 많다. 이러한 문제점을 해결하기 위해 본 논문에서는 피부색 검출 결과를 피드백 받아 피드백 받은 정보를 바탕으로 피부색 검출 조건을 수정하는 과정을 반복함으로써 다양한 환경 조건들을 가지는 단일 영상에 대해 효과적으로 피부색을 검출할 수 있는 방법을 제안한다.

시공간적으로 확장된 토폴로지를 이용한 개인 환경간 상호작용 파악 공간 분석 (Spatial Analysis to Capture Person Environment Interactions through Spatio-Temporally Extended Topology)

  • 이병재
    • 대한지리학회지
    • /
    • 제47권3호
    • /
    • pp.426-439
    • /
    • 2012
  • 본 연구의 목적은 정성적인 개인의 공간 행동을 파악하고 행동 원인을 유추해 볼 수 있는 새로운 방법을 제안하는 것이다. 이동 객체의 단순한 기하학적인 움직임에 초점을 맞추는 것을 넘어서서, 사람과 환경 사이의 관계 변화 내지는 상호작용을 파악하여 이동 객체의 행동 특성을 분석할 수 있는 모델을 제시하고자 한다. 특히, 본 연구에서는 특정 지역의 경계 근처에서의 이동 객체의 움직임에 중점을 두고 분석하였다. 이동 객체의 영향력 범위를 적용하는 새로운 접근 방법을 이용하여 정성적인 개인 공간행위 특성을 파악하였다. 본 연구에서는, 이러한 객체를 시공간적으로 확장된 점(STEP)이라 명명하였으며, 그 영향력 범위를 그 객체의 위치와 함께 잠재적 사건이나 주변과의 상호작용이 가능한 구역으로 정의한다. STEP과 특정공간간의 관계 정량화를 위해, 위상 데이터 모델을 기반으로 2차원 공간에서의 특정 영역과 STEP 사이의 위상 관계를 나타내는 12 교차점 모델이 이용되었다. 이 연구에서는 이러한 STEP 개념의 관점에서, GPS추적 데이터를 이용한 프로토타입 응용 분석결과가 제공되었다.

  • PDF

카메라 비전 센서를 활용하는 실시간 사람 점유 검출 (Real-time People Occupancy Detection by Camera Vision Sensor)

  • 길종인;김만배
    • 방송공학회논문지
    • /
    • 제22권6호
    • /
    • pp.774-784
    • /
    • 2017
  • 빌딩, 집에 설치되어 있는 점유센서는 사람이 없으면 소등하고, 반대이면 점등한다. 현재는 주요 센서로 PIR(pyroelectric infra-red)이 널리 사용되고 있다. 최근에 비전 카메라 센서를 이용하여 사람 점유를 검출하는 연구가 진행되고 있다. 카메라 센서는 정지된 사람을 검출할 수 없는 PIR의 단점을 극복할 수 있는 장점이 있다. 또한 카메라 센서는 사람의 행위 분석, 사람 트랙킹 등 PIR이 제공할 수 없는 기능을 가지기 때문에 향후 가격 대비 성능이 만족되면 PIR을 대체할 것으로 기대된다. 본 논문에서는 PIR 센서의 단점을 극복하기 위해서 카메라를 이용한 점유센서 기법을 제안한다. 제안 방법은 트랙킹, 인식, 검출의 3가지 단계로 구성되어 점유검출의 효율성을 높힌다. 실시간 처리도 중요한 성능이므로 처리 속도가 향상되도록 설계되었다. 비디오 프레임은 USB로 15fps로 입력되는데, 본 소프트웨어는 14.5fps로 처리한다. 점유 성능 검증에서는 82%의 정확도를 얻었다.

Watershed 알고리즘을 사용한 계층적 이동체 추적 알고리즘 (A Hierarchical Semantic Video Object Tracking Algorithm Using Watershed Algorithm)

  • 이재연;박현상;나종범
    • 한국통신학회논문지
    • /
    • 제24권10B호
    • /
    • pp.1986-1994
    • /
    • 1999
  • 본 논문에서는, 동영상에서 의미 있는 객체 영역을 추출하기 위해서, 첫 장의 영상 분할은 사람에 의해서 주어진 것으로 가정하고, 그 다음 프레임부터는 사람의 도움 없이 객체를 추적해 가는 반자동 방식의 이동체 추적 알고리즘을 제안한다. 제안하는 알고리즘은 계층적인 구조를 가지며, 각각의 계층에서는 seed 추출, watershed 알고리즘을 이용한 영상 분할, 영역 구분의 단계를 거쳐 영상 분할을 수행한다. 영역 구분 단계에서는, 순방향으로 추정된 움직임 벡터장으로부터 영역 분할의 판단 기준을 만들고 이를 이용하여 각각의 영역을 '객체 영역', '배경 영역', '불확실 영역'으로 구분한다. 이때, '불확실 영역'으로 구분된 영역들에 대해서는 좀 더 낮은 계층에서 위의 단계들을 반복하여 다시 수행하게 한다. 제안한 알고리즘은 컴퓨터 모의실험을 통해서 'Claire', 'Miss America', 'Akiyo', 'Mother and daughter'의 영상에서 바람직한 추적 결과를 나타냄을 확인하였다.

  • PDF

지능형 비디오 감시를 위한 능동적 객체 추적 시스템 (Active Object Tracking System for Intelligent Video Surveillance)

  • 박호식
    • 한국정보전자통신기술학회논문지
    • /
    • 제7권2호
    • /
    • pp.82-85
    • /
    • 2014
  • 지능형 영상 감시 시스템은 감시카메라의 영상정보를 디지털화 하여 시스템이 스스로 사물의 위치 및 패턴을 분석하고 위험 상황이 발생할 경우 경보 및 출입 차단 시스템을 작동하여 보안담당자에게 즉각 현황을 알려 사람의 관리로 인해 발생하는 취약점을 대체, 보완 할 수 있게 해준다. 그러나 원거리 화면에서에서 작은 객체를 확대하기 위해서는 객체 위치에 따른 정확한 확대 배율과 중심좌표 이동이 이루어져야 한다. 그래서 본 논문에서는 유동적 배경에서 객체 이동에 따른 Pan, Tilt 좌표와 확대 배율을 연산하여 객체가 근거리 혹은 원거리 어디에 있듯 일정한 크기의 객체를 추적할 수 있도록 하고자 하였다. 실험결과 카메라의 정확한 PTZ 제어를 위하여 무게 중심을 검출하여 제어한 결과, 거리에 따라 최소 94%~100%의 정확한 제어가 가능하여 객체의 주요 영역을 인식 및 추적할 수 있었다.