• 제목/요약/키워드: Gaze estimation

검색결과 53건 처리시간 0.038초

원격 영상회의 시스템을 위한 깊이 영상 후처리 기술 (Depth Video Post-processing for Immersive Teleconference)

  • 이상범;양승준;호요성
    • 한국통신학회논문지
    • /
    • 제37권6A호
    • /
    • pp.497-502
    • /
    • 2012
  • 본 논문에서는 IPTV 환경의 원격 영상회의에서 화자 간의 자연스러운 시선 맞춤(eye contact)을 위한 깊이영상의 후처리 필터링 기술을 제안한다. 제안하는 방법은 깊이탐색 기술과 영상합성 기술을 사용해서 화자의 정면시점 영상을 합성한다. 하지만, 깊이영상을 탐색하는 과정에서 객체의 경계 불일치, 시간적 상관도 저하 등의 문제가 발생하기 때문에 이를 해결하기 위해 시간축으로 확장된 결합형 양방향 필터(joint bilateral filter)를 제안한다. 실험 결과를 통해, 제안하는 깊이영상의 후처리 필터링 기술이 정면시점 합성영상의 화질을 향상시켰고, 원격의 화자와 시선 맞춤이 기능한 것을 확인했다.

동공과 글린트의 특징점 관계를 이용한 시선 추적 시스템 (Gaze Tracking System Using Feature Points of Pupil and Glints Center)

  • 박진우;권용무;손광훈
    • 방송공학회논문지
    • /
    • 제11권1호
    • /
    • pp.80-90
    • /
    • 2006
  • 본 논문에서는 한 대의 카메라와 푸르킨예 영상을 이용한 간편한 2차원 시선 추적 시스템을 제안한다. 이 시스템은 사용자의 한쪽 눈 영상을 얻기 위해 적외선 필터가 장착된 카메라와, 사용자가 모니터 상에 바라보고 있는 응시 점을 알아내기 위해 각 막의 표면에 반사점을 만들기 위한 두 개의 적외선 광원이 사용되었다. 카메라나 적외선 광원, 사용자의 머리는 자유롭게 움직일 수 있다. 따라서 본 시스템은 여타 불편한 고정된 장치나 사용자의 머리 고정이 필요 없는 간단하고 유연성 있는 시스템이다. 본 시스템은 또한 간편하고 정확한 사용자 캘리브레이션 과정을 포함하고 있다. 시스템을 사용하기에 앞서, 각 사용자는 각 사용자는 시스템이 시선 추적 알고리즘 상의 개인 요소들을 초기화할 수 있도록 두 개의 점을 잠시 바라보기만 하면 된다. 제안된 시스템은 XGA $(1024{\sim}768)$ 해상도에서 10 fps 이상 실시간으로 동작된다. 3명의 피 실험자와 9개의 실험 물체로 진행된 실험 결과는 시스템이 평균 l도의 시선 추적 오차를 보여 주고 있다.

수정 Starburst 알고리즘과 Homography Normalization을 이용한 시선추적 (Gaze Tracking Using a Modified Starburst Algorithm and Homography Normalization)

  • 조태훈;강현민
    • 한국정보통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.1162-1170
    • /
    • 2014
  • 본 논문에서는 두 개의 카메라를 이용하여 보다 정확한 동공 인식을 통한 원격방식의 시선 추적을 제안한다. 헤드 장착형 시선추적용으로 개발된 Starburst 알고리즘은 원격방식의 시선추적에서는 카메라가 보다 넓은 영역을 보기 때문에 눈썹, 눈꼬리 등 외란이 많아 스타버스트 알고리즘을 바로 적용하면 동공 중심 추출에 실패하는 경우가 많았다. 이에 템플렛매칭을 이용하여 대략적인 동공영역을 찾고, 찾은 영역 내에서만 스타버스트 알고리즘으로 동공의 경계 후보점들을 찾은 후 보완된 RANSAC 알고리즘으로 타원근사하여 동공의 중심을 추출하였다. 추출된 동공중심을 머리의 움직임에 거의 영향을 받지 않도록 4개의 적외선 LED를 모니터 네 구석에 부착하고 Homography normalization을 적용하였다. 스크린 좌표계로 변환할 때 기존에는 호모그래피를 사용하였으나, 카메라 렌즈의 비선형왜곡을 보상하기 위해 여기서는 고차다항식을 이용한 캘리브레이션 기법을 이용하였다. 끝으로, 두 대의 카메라를 사용하여 정확도와 신회성이 향상됨을 보인다.

Kalman filter를 이용한 비접촉식 응시점 추정 시스템에서의 빠른 머리 이동의 보정 (Compensation for Fast Head Movements on Non-intrusive Eye Gaze Tracking System Using Kalman Filter)

  • 김수찬;유재하;김덕원
    • 전자공학회논문지SC
    • /
    • 제44권6호
    • /
    • pp.35-41
    • /
    • 2007
  • 자연스러운 머리 움직임 하에서 응시점을 추정할 수 있는 시스템을 제안하였다. 이 시스템은 하나의 카메라와 2개의 거울로 구성되어 있으며, 이 거울은 안구에서 눈동자의 영상을 언제나 카메라로 획득할 수 있도록 유지시키는 기능을 한다. 그러나 영상의 획득 속도가 초당 30 프레임이므로 거울의 제어가 빠른 머리 움직임을 보상할 수 없다. 이러한 문제점을 극복하고자 현재 안구 이미지에서 다음 안구 이미지의 위치를 추정하기 위하여 Kalman filter를 적용하였다. 그 결과 수평방향으로 평균 55cm/s, 수직 방향으로 평균 45cm/s정도의 속도의 머리 움직임에 대한 보상이 가능하였다. 그리고, 머리 움직임의 공간도 수평 60cm, 수직 30cm의 넓은 범위까지 가능하였다. 공간 해상도는 수평과 수직 각각 $4.5^{\circ}$$5^{\circ}$ 였고, 자연스러운 머리 움직임 아래에서의 응시점의 정확도는 92% 였다.

장애인을 위한 새로운 감성 인터페이스 연구 (A New Ergonomic Interface System for the Disabled Person)

  • 허환;이지우;이원오;이의철;박강령
    • 대한인간공학회지
    • /
    • 제30권1호
    • /
    • pp.229-235
    • /
    • 2011
  • Objective: Making a new ergonomic interface system based on camera vision system, which helps the handicapped in home environment. Background: Enabling the handicapped to manipulate the consumer electronics by the proposed interface system. Method: A wearable device for capturing the eye image using a near-infrared(NIR) camera and illuminators is proposed for tracking eye gaze position(Heo et al., 2011). A frontal viewing camera is attached to the wearable device, which can recognize the consumer electronics to be controlled(Heo et al., 2011). And the amount of user's eye fatigue can be measured based on eye blink rate, and in case that the user's fatigue exceeds in the predetermined level, the proposed system can automatically change the mode of gaze based interface into that of manual selection. Results: The experimental results showed that the gaze estimation error of the proposed method was 1.98 degrees with the successful recognition of the object by the frontal viewing camera(Heo et al., 2011). Conclusion: We made a new ergonomic interface system based on gaze tracking and object recognition Application: The proposed system can be used for helping the handicapped in home environment.

HCI를 위한 시선추적 시스템에서 분해능의 추정기법 (Resolution Estimation Technique in Gaze Tracking System for HCI)

  • 김기봉;최현호
    • 융합정보논문지
    • /
    • 제11권1호
    • /
    • pp.20-27
    • /
    • 2021
  • 시선추적은 NUI 기술 중의 하나로 사용자가 응시하는 곳을 추적을 통해 알아낸다. 이 기술은 텍스트를 입력하거나 GUI를 제어할 수 있도록 하고 더 나아가 사용자의 시선 분석도 가능하게 하여 상업 광고 등에 응용될 수 있도록 한다. 시선추적 시스템은 영상의 품질과 사용자 움직임의 자유도에 따라 허용범위가 달라진다. 따라서 시선추적의 정밀도를 미리 추정하는 방법이 필요하다. 시선추적의 정확도는 하드웨어적인 변수 외에도 시선추적 알고리즘을 어떻게 구현하느냐에 따라 많은 영향을 받는다. 이에 따라 본 논문에서는 영상에서 동공 중심의 가능한 최대 이동 거리의 추정으로 동공 중심이 한 픽셀 움직일 때 시선은 몇 도가 바뀌는지 즉, 이론적 최대 분해능이 얼마인지를 추정하는 방법을 제시한다.

데이터 증강을 통한 마스크 착용 얼굴 이미지에 강인한 얼굴 자세추정 (Robust Head Pose Estimation for Masked Face Image via Data Augmentation)

  • 한경탁;홍성은
    • 방송공학회논문지
    • /
    • 제27권6호
    • /
    • pp.944-947
    • /
    • 2022
  • 최근 코로나바이러스로 인한 마스크 착용이 급증함에 따라 마스크 착용에 대응할 수 있는 기술의 중요성이 증가하고 있다. 얼굴 자세 추정 분야는 운전자 주의, 얼굴 정면화, 시선 감지 등의 다양한 활용성에도 불구하고 마스크 착용에 따른 성능 저하 문제를 해결할 수 있는 연구가 거의 수행되지 않았다. 본 논문은 마스크 착용 유무에 따른 얼굴 자세 추정의 성능 저하에 대한 분석을 토대로, 마스크가 없는 얼굴 이미지의 크기 및 자세를 분석하여 마스크 이미지를 합성할 수 있는 데이터 증강 기법을 제안한다. 제안하는 얼굴에 특화된 증강 기법을 활용한 학습은 마스크 착용 여부와 관계없이 얼굴 자세 추정 벤치마크 데이터 세트인 BIWI에서 강인한 성능을 보이며, 특정 모델에 국한되지 않기 때문에 다양한 얼굴 자세 추정 모델에 적용될 수 있다.

확장 칼만 필터를 이용한 얼굴의 3차원 움직임량 추정 (3-D Facial Motion Estimation using Extended Kalman Filter)

  • 한승철;박강령김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1998년도 추계종합학술대회 논문집
    • /
    • pp.883-886
    • /
    • 1998
  • In order to detect the user's gaze position on a monitor by computer vision, the accurate estimations of 3D positions and 3D motion of facial features are required. In this paper, we apply a EKF(Extended Kalman Filter) to estimate 3D motion estimates and assumes that its motion is "smooth" in the sense of being represented as constant velocity translational and rotational model. Rotational motion is defined about the orgin of an face-centered coordinate system, while translational motion is defined about that of a camera centered coordinate system. For the experiments, we use the 3D facial motion data generated by computer simulation. Experiment results show that the simulation data andthe estimation results of EKF are similar.e similar.

  • PDF

Facial Feature Tracking and Head Orientation-based Gaze Tracking

  • Ko, Jong-Gook;Kim, Kyungnam;Park, Seung-Ho;Kim, Jin-Young;Kim, Ki-Jung;Kim, Jung-Nyo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -1
    • /
    • pp.11-14
    • /
    • 2000
  • In this paper, we propose a fast and practical head pose estimation scheme fur eye-head controlled human computer interface with non-constrained background. The method we propose uses complete graph matching from thresholded images and the two blocks showing the greatest similarity are selected as eyes, we also locate mouth and nostrils in turn using the eye location information and size information. The average computing time of the image(360*240) is within 0.2(sec) and we employ template matching method using angles between facial features for head pose estimation. It has been tested on several sequential facial images with different illuminating conditions and varied head poses, It returned quite a satisfactory performance in both speed and accuracy.

  • PDF

운전자 시선 및 선택적 주의 집중 모델 통합 해석을 통한 운전자 보조 시스템 (Driver Assistance System for Integration Interpretation of Driver's Gaze and Selective Attention Model)

  • 김지훈;조현래;장길진;이민호
    • 한국인터넷방송통신학회논문지
    • /
    • 제16권3호
    • /
    • pp.115-122
    • /
    • 2016
  • 본 논문은 차량의 내부 및 외부 정보를 통합하여 운전자의 인지 상태를 측정하고, 안전운전을 보조하여 주는시스템을 제안한다. 구현된 시스템은 운전자의 시선 정보와 외부 영상을 분석하여 얻은 주변정보를 mutual information기반으로 통합하여 구현되며, 차량의 앞부분과 내부 운전자를 검출하는 2개의 카메라를 이용한다. 외부 카메라에서 정보를 얻기 위해 선택적 집중모델을 기반으로 하는 게슈탈트법칙을 제안하고, 이를 기반으로 구현된 saliency map (SM) 모델은 신호등과 같은 중요한 외부 자극을 두드러지게 표현한다. 내부 카메라에서는 얼굴의 특징정보를 이용하여 운전자의 주의가 집중되는 외부 응시 정보를 파악하고 이를 통해 운전자가 응시하고 있는 영역을 검출한다. 이를 위해서 우리는 실시간으로 운전자의 얼굴특징을 검출하는 알고리즘을 사용한다. 운전자의 얼굴을 검출하기 위하여 modified census transform (MCT) 기반의 Adaboost 알고리즘을 사용하였으며, POSIT (POS with ITerations)알고리즘을 통해 3차원 공간에서 머리의 방향과 운전자 응시 정보를 측정하였다. 실험결과를 통하여 제안한 시스템이 실시간으로 운전자의 응시하고 있는 영역과, 신호등과 같은 운전에 도움이 되는 정보를 파악하는데 도움이 되었음을 확인할 수 있으며, 이러한 시스템이 운전보조 시스템에 효과적으로 적용될 것으로 판단된다.