• 제목/요약/키워드: Face detection and tracking

검색결과 149건 처리시간 0.025초

운동 히스토리 영상을 활용한 CamShift 기반 손 추적 기법 (Hand Tracking based on CamShift using Motion History Image)

  • 길종인;김미나;황환규;김만배
    • 방송공학회논문지
    • /
    • 제22권2호
    • /
    • pp.182-192
    • /
    • 2017
  • 본 논문에서는 컬러와 운동 정보를 혼합한 손 추적 시스템을 제안하고자 한다. 손의 검출 및 추적은 많은 경우 피부색을 모델링하여 검출을 하는 방식을 사용한다. 하지만 이와 같은 방법으로는 빛이나 주변 사물에 의해 영향을 많이 받기 때문에 정확한 값을 일정하게 도출해 낼 수 없었다. 또한, 피부색에 의존하므로, 손뿐만 아니라 얼굴 및 비부 색과 비슷한 색을 갖는 배경 등에 의해 추적이 방해받을 수 있다. 이에 본 논문은 운동 히스토리 기법(MHI)을 이용하여 움직임을 파악한 후 이를 CamShift와 결합함으로서, 효과적으로 추적할 수 있도록 설계하였다. 제안된 시스템은 C/C++을 기반으로 구현하였으며, 실험에서 제안 방법이 안정적이고 우수한 성능을 보여줌을 증명하였다.

Skin Segmentation Using YUV and RGB Color Spaces

  • Al-Tairi, Zaher Hamid;Rahmat, Rahmita Wirza;Saripan, M. Iqbal;Sulaiman, Puteri Suhaiza
    • Journal of Information Processing Systems
    • /
    • 제10권2호
    • /
    • pp.283-299
    • /
    • 2014
  • Skin detection is used in many applications, such as face recognition, hand tracking, and human-computer interaction. There are many skin color detection algorithms that are used to extract human skin color regions that are based on the thresholding technique since it is simple and fast for computation. The efficiency of each color space depends on its robustness to the change in lighting and the ability to distinguish skin color pixels in images that have a complex background. For more accurate skin detection, we are proposing a new threshold based on RGB and YUV color spaces. The proposed approach starts by converting the RGB color space to the YUV color model. Then it separates the Y channel, which represents the intensity of the color model from the U and V channels to eliminate the effects of luminance. After that the threshold values are selected based on the testing of the boundary of skin colors with the help of the color histogram. Finally, the threshold was applied to the input image to extract skin parts. The detected skin regions were quantitatively compared to the actual skin parts in the input images to measure the accuracy and to compare the results of our threshold to the results of other's thresholds to prove the efficiency of our approach. The results of the experiment show that the proposed threshold is more robust in terms of dealing with the complex background and light conditions than others.

Pan-Tilt-Zoom 카메라를 이용한 파노라마 배경 생성과 객체 추적 (Panorama Background Generation and Object Tracking using Pan-Tilt-Zoom Camera)

  • 백인호;임재현;박경주;백준기
    • 대한전자공학회논문지SP
    • /
    • 제45권3호
    • /
    • pp.55-63
    • /
    • 2008
  • 본 논문은 전 방향을 감시할 수 있는 Pan-Tilt-Zoom(PTZ) 카메라를 이용한 파노라마 배경 생성과 객체 추적 방법을 제안한다. 제안된 방법은 연속되는 두 영상의 외곽 영역에서 미리 정한 지역만 위상정합(phase correlation)을 하여 카메라의 지역 움직임을 빠르게 추정하고 벡터 양자화를 통하여 움직임 추정 오차를 최소화 한다. 추정된 움직임 값을 이용하여 겹침 영역이 존재하는 영상들을 획득하여 실린더에 투영시키고 영상을 재 정렬함으로써 파노라마 배경 영상을 생성할 수 있다. 객체 추적은 미리 생성된 파노라마 배경과 입력 영상의 차분 방법을 이용하여 배경과 객체를 분리하고 객체의 움직임을 추적한다. 제안된 객체 추적 방법은 PTZ 카메라를 이용하여 빠르고 안정적인 배경 생성이 가능하고, 전방향의 객체를 지속적으로 추적하는 것이 가능하다. 제안된 방법은 실시간 처리가 가능하며 넓은 감시 지역에서 객체의 형태를 추적하거나 얼굴인식과 같은 분야에서 이용될 수 있을 것이다.

컬러 영상에서 추적 기능을 활용한 얼굴 영역 검출 및 차단 (Detection and Blocking of a Face Area Using a Tracking Facility in Color Images)

  • 장석우
    • 한국산학기술학회논문지
    • /
    • 제21권10호
    • /
    • pp.454-460
    • /
    • 2020
  • 최근 들어, 동영상의 간편한 촬영 그리고 인터넷을 통한 동영상의 보급 및 시청이 기하급수적으로 늘어남에 따라서 개인 정보의 외부 노출로 인한 피해가 발생하고 있다. 본 논문에서는 연속적으로 들어오는 영상으로부터 사람의 개인 정보가 노출된 목표 객체 영역을 강인하게 추출한 다음, 추출된 객체를 위치 예측 알고리즘을 이용해 빠르게 추적하면서 영상 블러링 기법을 통해 동시에 블로킹하는 새로운 방법을 제안한다. 본 논문에서는 먼저 입력받은 컬러 영상으로부터 개인 정보 영역이 노출된 목표 객체 영역을 인공 신경망 기반의 학습 알고리즘을 이용하여 정확하게 추출한다. 그런 다음, 검출된 객체를 위치 예측 알고리즘을 이용하여 빠르게 추적하면서 영상 블러링을 적용하여 블로킹한다. 실험 결과에서는 제안된 방법이 받아들인 다양한 종류의 컬러 영상 데이터로부터 개인 정보가 노출된 목표 객체를 기존 방법에 비해 2.5% 보다 정확하게 추적하면서 동시에 블러링함으로써 개인 정보 영역을 효과적으로 차단한다는 것을 보여준다. 본 논문에서 제안된 물체 차단 방법은 개인 정보의 보호, 비디오 감시 및 보안, 객체 검출 및 추적 등과 같은 많은 실제적인 응용 분야에서 유용하게 활용될 수 있을 것으로 기대된다.

서베일런스에서 Adaptive Boosting을 이용한 실시간 헤드 트래킹 (Real-Time Head Tracking using Adaptive Boosting in Surveillance)

  • 강성관;이정현
    • 디지털융복합연구
    • /
    • 제11권2호
    • /
    • pp.243-248
    • /
    • 2013
  • 본 논문에서는 복잡한 배경에서의 사람의 머리 추적에 있어서 효과적인 Adaptive Boosting에 의한 방법을 제안한다. 하나의 특징 추출 방법은 사람의 머리를 모델링하기에는 부족하다. 따라서 본 연구에서는 여러 가지 특징 추출 방법을 병행하여 정확한 머리 검출을 시도하였다. 머리 영상의 특징 추출은 sub-region과 Haar 웨이블릿 변환(Haar wavelet transform)을 이용하였다. Sub-region은 머리의 지역적인 특징을 나타내고, Haar 웨이블릿 변환은 얼굴의 주파수 특성을 나타내기 때문에 이들을 이용하여 특징을 추출하면 효과적인 모델링이 가능해 진다. 실시간으로 입력되는 영상에서 사람의 머리를 추적하기 위하여 제안하는 방법에서는 3가지 형태의 Harr-wavelet 특징을 AdaBoosting 알고리즘으로 학습한 후 결과를 이용하였다. 원래 AdaBoosting 알고리즘은 학습시간이 매우 길며 학습데이터가 변하면 다시 학습을 수행해야 하는 단점이 존재한다. 이 단점을 극복하기 위하여 제안하는 방법에서는 캐스케이드를 이용한 AdaBoosting의 효율적인 학습방법을 제안한다. 이 방법은 머리 영상에 대한 학습시간은 감소시키며, 학습데이터의 변화에도 효율적으로 대처할 수 있다. 이 방법은 학습과정을 레벨별로 분리한 후 중요도가 높은 학습데이터를 다음 단계에 반복적으로 적용시킨다. 제안하는 방법이 적은 학습 시간과 학습 데이터를 사용해서 우수한 성능을 가지는 분류기를 생성하였다. 또한, 이 방법은 다양한 머리데이터를 가진 실시간 영상데이터에 적용한 결과 다양한 머리를 정확하게 검출 및 추적하였다.

이동형 패럴랙스 배리어 모바일 3D 디스플레이를 위한 강인한 시청자 시역 위치 추정 알고리즘 (Robust Viewpoint Estimation Algorithm for Moving Parallax Barrier Mobile 3D Display)

  • 김기석;조재수;엄기문
    • 방송공학회논문지
    • /
    • 제17권5호
    • /
    • pp.817-826
    • /
    • 2012
  • 본 논문에서는 이동형 패럴랙스 배리어 방식의 모바일 3D 디스플레이를 위해 급격한 조명 변화에도 강인한 시청자 시역위치 추정 알고리즘을 제안한다. 기존의 비올라-존스 검출기와 옵티컬-플로우를 선형 결합한 시역 위치 추정 알고리즘[1]은 급격하게 조명이 변하는 경우 잘못된 시역 위치를 추정하는 문제가 있음을 확인하였고, 특히 이러한 급격한 조명의 변화 문제는 모바일 환경에서 흔히 발생하는 환경조건이다. 그리고 어두운 공간에서 3D 디스플레이를 시청하는 경우 디스플레이 조명이 시청자의 얼굴에 비치기 때문에 조명 변화가 매우 크게 발생할 수 있다. 급격한 조명의 변화에 대한 문제점을 해결하기 위해 본 논문에서는 매 프레임마다 정확하게 옵티컬-플로우 얼굴 검출기의 정확도를 판단할 수 있는 방법을 새롭게 제안하고, 다양한 실험을 통해 그 효과를 검증한다. 조명의 변화등에 의해 옵티컬-플로우가 잘못된 추적 결과를 출력하는 경우, 기존의 두 알고리즘(비올라-존스 얼굴검출기+옵티컬-플로우 특징점 추적기)을 선별적으로 선택함으로써 강인한 얼굴검출 및 추적이 이루어지도록 하고, 다양한 실험 결과를 통해 그 효과를 검증한다.

모바일 기기에서의 얼굴 특징점 및 선형 보간법 기반 시선 추적 (Gaze Detection Based on Facial Features and Linear Interpolation on Mobile Devices)

  • 고유진;박강령
    • 한국멀티미디어학회논문지
    • /
    • 제12권8호
    • /
    • pp.1089-1098
    • /
    • 2009
  • 최근에 인간컴퓨터 상호작용 분야에서 사용자의 시선 위치를 파악하여 더욱 편리한 입력 장치를 개발하고자 하는 연구가 많이 진행되고 있다. 기존의 대부분 연구들은 큰 모니터를 사용하는 컴퓨터 환경에서 시선 추적 시스템을 개발하였다. 최근 이동단말기의 사용 증대로 이동 중에 시선 추적에 의한 단말기 제어의 필요성이 증대되고 있다. 이에 본 연구에서는 이동형 컴퓨터 (Ultra-Mobile PC) 및 컴퓨터 내장 카메라를 이용하여 사용자의 얼굴을 추적하고, 얼굴내의 특징점의 위치를 능동외관모델 (Active Appearance Model)을 기반으로 추적하는 연구를 수행하였다. 본 논문의 독창성은 기존 연구와는 달리 소형 화면을 가지는 이동 단말기에서 사용자의 시선 위치를 추적할 수 있는 방법을 제안한 점과 정밀한 얼굴 특징점 검출을 위하여 능동외관모델을 사용한 점이다. 또한 사용자의 초기 캘리브레이션시 얻어진 특징값을 기반으로, 입력 특징값들을 정규화 함으로써, Z거리에 따라 시선 위치 정확도가 영향을 받지 않는다는 점이다. 실험결과, 약 1.77도의 시선 오차를 발생하였으나, 추가적인 얼굴 움직임에 의한 마우스 움직임 기능으로 이러한 시선 오차는 더욱 줄일 수 있음을 알 수 있었다.

  • PDF

화자의 긍정·부정 의도를 전달하는 실용적 텔레프레즌스 로봇 시스템의 개발 (Development of a Cost-Effective Tele-Robot System Delivering Speaker's Affirmative and Negative Intentions)

  • 진용규;유수정;조혜경
    • 로봇학회논문지
    • /
    • 제10권3호
    • /
    • pp.171-177
    • /
    • 2015
  • A telerobot offers a more engaging and enjoyable interaction with people at a distance by communicating via audio, video, expressive gestures, body pose and proxemics. To provide its potential benefits at a reasonable cost, this paper presents a telepresence robot system for video communication which can deliver speaker's head motion through its display stanchion. Head gestures such as nodding and head-shaking can give crucial information during conversation. We also can assume a speaker's eye-gaze, which is known as one of the key non-verbal signals for interaction, from his/her head pose. In order to develop an efficient head tracking method, a 3D cylinder-like head model is employed and the Harris corner detector is combined with the Lucas-Kanade optical flow that is known to be suitable for extracting 3D motion information of the model. Especially, a skin color-based face detection algorithm is proposed to achieve robust performance upon variant directions while maintaining reasonable computational cost. The performance of the proposed head tracking algorithm is verified through the experiments using BU's standard data sets. A design of robot platform is also described as well as the design of supporting systems such as video transmission and robot control interfaces.

입술 움직임 영상 선호를 이용한 음성 구간 검출 (Speech Activity Detection using Lip Movement Image Signals)

  • 김응규
    • 융합신호처리학회논문지
    • /
    • 제11권4호
    • /
    • pp.289-297
    • /
    • 2010
  • 본 논문에서는 음성인식을 위한 음성구간 검출과정에서 유입될 수 있는 동적인 음향에너지 이외에 화자의 입술움직임 영상신호까지 확인함으로써 외부 음향잡음이 음성인식 대상으로 오인식되는 것을 방지하기 위한 한 가지 방법이 제시된다. 우선, 연속적인 영상이 PC용 영상카메라를 통하여 획득되고 그 입술움직임 여부가 식별된다. 다음으로, 입술움직임 영상신호 데이터는 공유메모리에 저장되어 음성인식 프로세서와 공유한다. 한편, 음성인식의 전처리 단계인 음성구간 검출과정에서 공유메모리에 저장되어진 데이터를 확인함으로써 화자의 발성에 의한 음향에너지인지의 여부가 입증된다. 최종적으로, 음성인식기와 영상처리기를 연동시켜 실험한 결과, 영상카메라에 대면해서 발성하면 음성인식 결과의 출력에 이르기까지 연동처리가 정상적으로 진행됨을 확인하였고, 영상카메라에 대면치 않고 발성하면 연동처리시스템이 그 음성인식 결과를 출력치 못함을 확인하였다. 또한, 오프라인하의 입술움직임 초기 특정값 및 템플릿 초기영상을 온라인하에서 추출된 입술움직임 초기특정값 및 템플릿 영상으로 대체함으로써 입술움직임 영상 추적의 변별력을 향상시켰다. 입술움직임 영상 추적과정을 시각적으로 확인하고 실시간으로 관련된 패러미터를 해석하기 위해 영상처리 테스트베드를 구축하였다, 음성과 영상처리 시스템의 연동결과 다양한 조명환경 하에서도 약 99.3%의 연동율을 나타냈다.

실시간 원거리 얼굴영역 검출 및 추적 (Tracking and Detection of Face Region in Long Distance Image)

  • 박성진;한상일;차형태
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2005년도 추계학술대회 논문집
    • /
    • pp.201-204
    • /
    • 2005
  • 동영상에서 얼굴을 인식하는 기술은 Eigen-Face를 이용하는 방법, 템플릿을 이용하는 방법 등과 같이 다양한 방법이 연구되어지고 있다. 하지만 이들 기법들이 모두 동영상에서 얼굴영역을 검출했을지는 모르지만 얼굴영역이 영상에서 차지하는 위치와 크기를 일정하게 제한하고 있다. 그 중에서 입력되는 영상이 촬영 도구로부터 제한된 거리에서 촬영되어 얻어 지거나 실험을 통해 얻어진 영상을 이용하여 얼굴영역을 검출한다. 하지만 실제 다양한 응용분야에서 얼굴영역 검출 기술을 이용하기 위해서는 이러한 제한된 입력 영상뿐만이 아니라 어떠한 환경에서의 입력 영상에서도 얼굴영역을 검출할 수 있어야 한다. 본 논문은 근거리뿐만이 아니라 원거리에서 획득한 영상에서도 얼굴영역을 검출할 수 있으며, 얼굴의 특징 추출과 예측기법을 통하여 보다 향상된 얼굴영역 검출을 할 수 있다. 움직임 정보와 얼굴색상정보를 이용하여 8x8블록을 만들고 이런 블록 정보들을 특정한 규칙에 적용함으로써 얼굴영역을 후보를 검출하게 된다. 그리고 후보 얼굴영역의 고유한 특징들을 추출하고 칼만 필터를 적용한 예측기법을 통하여 얼굴영역 판단하게 된다.

  • PDF