• Title/Summary/Keyword: 영역 기반 추적

Search Result 476, Processing Time 0.031 seconds

Face Detection and Tracking System using 2-legged Walking Robot (2 족 보행 로봇을 이용한 얼굴 검출 및 추적 시스템)

  • Kim, Jae-Hyun;Jung, Do-Joon;Kim, Hang-Joon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.885-888
    • /
    • 2005
  • 본 논문에서는 카메라가 장착된 2 족 보행 로봇을 이용한 얼굴 검출 및 추적 시스템을 제안한다. 제안된 시스템은 PCA(Principal Component Analysis) 기반의 시스템으로서 얼굴을 검출하기 위해 먼저, 스킨칼라 정보와 모션 정보를 사용하고, 그 이후에 PCA 를 사용하여 스킨칼라 영역에서 실제 얼굴이 있는지를 검증 한다. 새로 검출된 얼굴과 이전에 추적되는 얼굴 사이의 동일성은 Eigenspace 상에서의 Euclidian distance 를 사용하여 검증한다. 2 족 보행 로봇이 얼굴을 추적하기 위해서는, 검출된 얼굴 영역이 카메라 스크린 중심 영역에 계속 유지되도록 로봇의 움직임을 조절해 간다. 제안된 시스템은 움직임이 많고, 조명 변화나 배경의 변화가 심한 환경에서도, 얼굴을 잘 검출하고 추적 하였으며, 다른 2 족 보행 시스템이나 인간과 로봇의 상호작용을 위한 제스처 인식 시스템으로의 확장도 가능하다.

  • PDF

Efficient object tracking algorithm based on multi-drone collaboration (드론을 활용한 협업기반의 효율적인 대상물 추적 알고리즘)

  • Yun, Hyun Kyoung;Choi, Kwang Hoon;Kim, Jai-Hoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.04a
    • /
    • pp.42-45
    • /
    • 2016
  • 본 논문은 기동성은 있지만 한정된 비행시간과 비행거리를 가진 드론을 이용한 지능형 영상 보안 감시 시스템을 제안한다. 드론이 가지는 한계점을 보완하기 위해 그리드 기반으로 시스템을 구성하며 분할된 영역에서 다중 드론간 대상물의 효율적인 추적 및 감시 모니터링을 위해 연계 추적 방식을 이용한다. 먼저, 한정된 비행거리를 위해 각 드론스테이션 간의 최적 거리를 제안한다. 제안한 최적 거리를 통해 생성된 중첩 감시영역에서 효율적 연계 추적을 위해 드론의 전력상태와 대상물의 이동방향을 고려한 최적의 드론 선정 알고리즘을 제시한다. 제안한 알고리즘은 케이스 스터디를 통해 그 응용 가능성을 검토한다.

Realtime Facial Expression Data Tracking System using Color Information (컬러 정보를 이용한 실시간 표정 데이터 추적 시스템)

  • Lee, Yun-Jung;Kim, Young-Bong
    • The Journal of the Korea Contents Association
    • /
    • v.9 no.7
    • /
    • pp.159-170
    • /
    • 2009
  • It is very important to extract the expression data and capture a face image from a video for online-based 3D face animation. In recently, there are many researches on vision-based approach that captures the expression of an actor in a video and applies them to 3D face model. In this paper, we propose an automatic data extraction system, which extracts and traces a face and expression data from realtime video inputs. The procedures of our system consist of three steps: face detection, face feature extraction, and face tracing. In face detection, we detect skin pixels using YCbCr skin color model and verifies the face area using Haar-based classifier. We use the brightness and color information for extracting the eyes and lips data related facial expression. We extract 10 feature points from eyes and lips area considering FAP defined in MPEG-4. Then, we trace the displacement of the extracted features from continuous frames using color probabilistic distribution model. The experiments showed that our system could trace the expression data to about 8fps.

Robot vision system for face tracking using color information from video images (로봇의 시각시스템을 위한 동영상에서 칼라정보를 이용한 얼굴 추적)

  • Jung, Haing-Sup;Lee, Joo-Shin
    • Journal of Advanced Navigation Technology
    • /
    • v.14 no.4
    • /
    • pp.553-561
    • /
    • 2010
  • This paper proposed the face tracking method which can be effectively applied to the robot's vision system. The proposed algorithm tracks the facial areas after detecting the area of video motion. Movement detection of video images is done by using median filter and erosion and dilation operation as a method for removing noise, after getting the different images using two continual frames. To extract the skin color from the moving area, the color information of sample images is used. The skin color region and the background area are separated by evaluating the similarity by generating membership functions by using MIN-MAX values as fuzzy data. For the face candidate region, the eyes are detected from C channel of color space CMY, and the mouth from Q channel of color space YIQ. The face region is tracked seeking the features of the eyes and the mouth detected from knowledge-base. Experiment includes 1,500 frames of the video images from 10 subjects, 150 frames per subject. The result shows 95.7% of detection rate (the motion areas of 1,435 frames are detected) and 97.6% of good face tracking result (1,401 faces are tracked).

Real-time Hand Region Detection and Tracking using Depth Information (깊이정보를 이용한 실시간 손 영역 검출 및 추적)

  • Joo, SungIl;Weon, SunHee;Choi, HyungIl
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.1 no.3
    • /
    • pp.177-186
    • /
    • 2012
  • In this paper, we propose a real-time approach for detecting and tracking a hand region by analyzing depth images. We build a hand model in advance. The model has the shape information of a hand. The detecting process extracts out moving areas in an image, which are possibly caused by moving a hand in front of a camera. The moving areas can be identified by analyzing accumulated difference images and applying the region growing technique. The extracted moving areas are compared against a hand model to get justified as a hand region. The tracking process keeps the track of center points of hand regions of successive frames. For this purpose, it involves three steps. The first step is to determine a seed point that is the closest point to the center point of a previous frame. The second step is to perform region growing to form a candidate region of a hand. The third step is to determine the center point of a hand to be tracked. This point is searched by the mean-shift algorithm within a confined area whose size varies adaptively according to the depth information. To verify the effectiveness of our approach, we have evaluated the performance of our approach while changing the shape and position of a hand as well as the velocity of hand movement.

Foreground Motion Tracking and Compression/Transmission of Based Dynamic Mosaic (동적 모자이크 기반의 전경 움직임 추적 및 압축전송)

  • 박동진;윤인모;김찬수;현웅근;김남호;정영기
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2003.10a
    • /
    • pp.741-744
    • /
    • 2003
  • in this paper, we propose a dynamic-based compression system by creating mosaic background and transmitting the change information. A dynamic mosaic of the background is progressively integrated in a single image using the camera motion information. For the camera motion estimation, we calculate perspective projection parameters for each frame sequentially with respect to its previous frame. The camera motion is robustly estimated on the background by discriminating between background and foreground regions. The modified block-based motion estimation is used to separate the background region.

  • PDF

Multiple Objection and Tracking based on Morphological Region Merging from Real-time Video Sequences (실시간 비디오 시퀀스로부터 형태학적 영역 병합에 기반 한 다중 객체 검출 및 추적)

  • Park Jong-Hyun;Baek Seung-Cheol;Toan Nguyen Dinh;Lee Guee-Sang
    • The Journal of the Korea Contents Association
    • /
    • v.7 no.2
    • /
    • pp.40-50
    • /
    • 2007
  • In this paper, we propose an efficient method for detecting and tracking multiple moving objects based on morphological region merging from real-time video sequences. The proposed approach consists of adaptive threshold extraction, morphological region merging and detecting and tracking of objects. Firstly, input frame is separated into moving regions and static regions using the difference of images between two consecutive frames. Secondly, objects are segmented with a reference background image and adaptive threshold values, then, the segmentation result is refined by morphological region merge algorithm. Lastly, each object segmented in a previous step is assigned a consistent identification over time, based on its spatio-temporal information. The experimental results show that a proposed method is efficient and useful in terms of real-time multiple objects detecting and tracking.

ART2 기반 RBF 네트워크와 얼굴 인증을 이용한 주민등록증 인식

  • ;Lee, Jae-Eon;Kim, Kwang-Baek
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2005.11a
    • /
    • pp.526-535
    • /
    • 2005
  • 우리나라의 주민등록증은 주소지, 주민등록 변호, 얼굴사진, 지문 등 개개인의 방대한 정보를 가진다. 현재의 플라스틱 주민등록증은 위조 및 변조가 쉽고 날로 전문화 되어가고 있다. 따라서 육안으로 위조 및 변조 사실을 쉽게 확인하기가 어려워 사회적으로 많은 문제를 일으키고 있다. 이에 본 논문에서는 주민등록증 영상을 자동 인식할 수 있는 개선된 ART2 기반 RBF 네트워크와 얼굴인증을 이용한 주민등록증 자동 인식 방법을 제안한다. 제안된 방법은 주민등록증 영상에서 주민등록번호와 발행일을 추출하기 위하여 영상을 소벨마스크와 미디언 필터링을 적용한 후에 수평 스미어링을 적용하여 주민등록번호와 발행일 영역을 검출한다. 그리고 4 방향 윤곽선 추적 알고리즘으로 개별 문자를 추출하기 위한 전 단계로 주민등록증 영상에 대해 고주파 필터링을 적용하여 주민등록증 영상 전체를 이진화 한다. 이진화된 주민등록영상에서 COM 마스크를 적용하여 주민등록번호와 발행일 코드를 복원하고 검출된 각 영역에 대해 4 방향 윤곽선 추적 알고리즘으로 개별 문자를 추출한다. 추출된 개별 문자는 개선된 ART2 기반 RBF 네트워크를 제안하여 인식에 적용한다. 제안된 ART2 기반 RBF 네트워크는 학습 성능을 개선하기 위하여 중간충과 출력층의 학습에 퍼지 제어 기법을 적용하여 학습률을 동적으로 조정한다. 얼굴인증은 템플릿 매칭 알고리즘을 이용하여 얼굴 템플릿 데이터베이스를 구축하고 주민등록증애서 추출된 얼굴영역과의 유사도를 측정하여 주민등록증 얼굴 영역의 위조여부를 판별한다.

  • PDF

Technology Development for Non-Contact Interface of Multi-Region Classifier based on Context-Aware (상황 인식 기반 다중 영역 분류기 비접촉 인터페이스기술 개발)

  • Jin, Songguo;Rhee, Phill-Kyu
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.20 no.6
    • /
    • pp.175-182
    • /
    • 2020
  • The non-contact eye tracking is a nonintrusive human-computer interface providing hands-free communications for people with severe disabilities. Recently. it is expected to do an important role in non-contact systems due to the recent coronavirus COVID-19, etc. This paper proposes a novel approach for an eye mouse using an eye tracking method based on a context-aware based AdaBoost multi-region classifier and ASSL algorithm. The conventional AdaBoost algorithm, however, cannot provide sufficiently reliable performance in face tracking for eye cursor pointing estimation, because it cannot take advantage of the spatial context relations among facial features. Therefore, we propose the eye-region context based AdaBoost multiple classifier for the efficient non-contact gaze tracking and mouse implementation. The proposed method detects, tracks, and aggregates various eye features to evaluate the gaze and adjusts active and semi-supervised learning based on the on-screen cursor. The proposed system has been successfully employed in eye location, and it can also be used to detect and track eye features. This system controls the computer cursor along the user's gaze and it was postprocessing by applying Gaussian modeling to prevent shaking during the real-time tracking using Kalman filter. In this system, target objects were randomly generated and the eye tracking performance was analyzed according to the Fits law in real time. It is expected that the utilization of non-contact interfaces.

Active Appearance Model Face Shape Estimation Using Face Region Tracking and Mouth Detection (얼굴 영역 추적과 입 검출을 이용한 AAM 얼굴 모양 파라미터 추정)

  • Choi, Kwun-Taeg;Byun, Hye-Ran
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.928-930
    • /
    • 2005
  • 얼굴의 특징점 추적은 많은 응용프로그램에서 사용된다. AAM기반의 접근방식은 정교한 얼굴 특징점 정보를 제공하지만 정확한 특징 점 추출을 위해 얼굴 모양 파라미터 초기화 문제와 연속 영상에서 얼굴의 이동이 클 경우 모션 보정에 대한 문제가 여전히 남아있다. 이러한 문제를 풀기 위해 본 논문에서는 CAMShift를 사용해 얼굴 영역을 추적하고, 얼굴 영역 내에서 입을 검출함으로써 AAM 검색을 위한 얼굴 모양 파라미터를 추정하는 방법을 제안한다. 기존 알고리즘과의 비교 실험을 통해 얼굴의 움직임이 심한 상황에서도 제안하는 알고리즘의 성능이 매우 우수함을 확인할 수 있었다.

  • PDF