• 제목/요약/키워드: Gaze

검색결과 539건 처리시간 0.028초

모델 기반의 시선 방향 추정을 이용한 사람 행동 인식 (Human Activity Recognition using Model-based Gaze Direction Estimation)

  • 정도준;윤정오
    • 한국산업정보학회논문지
    • /
    • 제16권4호
    • /
    • pp.9-18
    • /
    • 2011
  • 본 논문에서는 모델 기반으로 추정한 사람의 시선 방향을 이용하여 실내 환경에서 발생 할 수 있는 사람의 행동을 인식하는 방법을 제안한다. 제안하는 방법은 크게 두 단계로 구성된다. 첫째, 행동 인식을 위한 사전 정보를 얻는 단계로 사람의 머리 영역을 검출하고 시선 방향을 추정한다. 사람의 머리 영역은 색상 정보와 모양 정보를 이용하여 검출하고, 시선 방향은 머리와 얼굴의 관계를 표현한 베이지안 네트워크 모델을 이용하여 추정한다. 둘째, 이벤트와 사람의 행동을 나타내는 시나리오를 인식하는 단계이다. 이벤트는 사람의 상태 변화로 인식하고, 시나리오는 이벤트들의 조합과 제약 사항을 이용하여 규칙 기반으로 인식한다. 본 논문에서는 시선방향과 연관이 있는 4 가지의 시나리오를 정의하여 실험 한다. 실험을 통해 시선 방향 추정의 성능과 시선 방향이 고려된 상황에서의 행동 인식 성능을 보인다.

얼굴의 회전 및 이동 분석에 의한 응시 위치 파악 (Gaze Detection by Computing Facial Rotation and Translation)

  • 이정준;박강령;김재훈
    • 대한전자공학회논문지SP
    • /
    • 제39권5호
    • /
    • pp.535-543
    • /
    • 2002
  • 본 논문에서는 모니터 위에 설치된 카메라를 통해 입력된 사용자의 2차원 얼굴 영상을 이용하여, 사용자가 모니터 상에 쳐다보고 있는 응시 위치를 파악하는 방법을 제안한다. 본 논문에서는 사용자의 눈동자 움직임은 고려하지 않고 얼굴의 회전 및 이동만을 고려하였다. 제안하는 방법은 얼굴의 회전에 의한 응시위치와 얼굴의 좌우상하 이동량을 각각 계산하여 이 둘을 결합함으로써 모니터상의 응시위치를 추정하는 것이다. 얼굴 특징점의 기하학적 형태변화를 입력으로 하는 신경망(다층 퍼셉트론)을 이용하여 얼굴의 회전에 의한 응시위치를 구하였으며 영상처리 알고리즘을 이용하여 입력영상으로부터 실시간으로 얼굴의 이동량을 추정하였다. 실험결과 19인치 모니터를 사용하고 사용자가 모니터와의 거리를 50~70cm 정도 유지하며 얼굴의 이동 및 회전을 통하여 모니터를 바라볼 때 약 2.11인치의 응시 위치 추정 오차를 보이는 것으로 나타났다. 처리시간은 Pentium PC(233MHz)환경에서 320${\times}$240 화소 크기의 영상을 사용할 때 약 0.7초가 소요되었다.

적외선 조명 카메라를 이용한 시선 위치 추적 시스템 (Gaze Detection System by IR-LED based Camera)

  • 박강령
    • 한국통신학회논문지
    • /
    • 제29권4C호
    • /
    • pp.494-504
    • /
    • 2004
  • 사용자의 시선 위치를 파악하는 연구는 많은 응용분야를 가지고 지난 몇년간 눈부시게 발전되어 왔다. 기존의 대부분 연구에서는 영상 처리 방법만에 의존하여 시선 위치 추적 연구를 수행하였기 때문에 처리 속도도 늦고 많은 사용 제약을 가지는 문제점이 있었다. 이 논문에서는 적외선 조명이 부착된 단일 카메라를 이용한 컴퓨터 비전 시스템으로 시선 위치 추적 연구를 수행하였다. 사용자의 시선 위치를 파악하기 위해서는 얼굴 특징점의 위치를 추적해야하는데, 이를 위하여 이 논문에서는 적의선 기반 카메라와 SVM(Support Vector Machine) 알고리즘을 사용하였다. 사용자가 모니터상의 임의의 지점을 쳐다볼 때 얼굴 특징점의 3차원 위치는 3차원 움직임량 추정(3D motion estimation) 및 아핀 변환(affine transformation)에 의해 계산되어 질 수 있다. 얼굴 특징점의 변화된 3차원 위치가 계산되면. 이로부터 3개 이상의 얼굴 특징점으로부터 생성되는 얼굴 평면 및 얼굴 평면의 법선 벡터가 구해지게 되며, 이러한 법선 백터가 모니터 스크린과 만나는 위치가 사용자의 시선위치가 된다. 또한. 이 논문에서는 보다 정확한 시선 위치를 파악하기 위하여 사용자의 눈동자 움직임을 추적하였으며 이를 위하여 신경망(다층 퍼셉트론)을 사용하였다. 실험 결과, 얼굴 및 눈동자 움직임에 의한 모니터상의 시선 위치 정확도는 약 4.2cm의 최소 자승 에러성능을 나타냈다.

상업시설 공간구성의 실시간 시선추적에 나타난 소비자 시지각 정보획득 특성 연구 (A Study on the Characteristics of Consumer Visual-Perceptional Information Acquisition in Commercial Facilities in Regard to its Construction of Space from Real-Time Eye Gaze Tracking)

  • 박선명
    • 감성과학
    • /
    • 제21권2호
    • /
    • pp.3-14
    • /
    • 2018
  • 소비자들의 구매 욕구를 충족시키기 위하여 상업시설에서는 판매와 관련된 다양한 공간표현이 요구되고, 소비자의 시선을 끄는 상품의 배치나 공간구성은 곧 마케팅 전략으로 이어질 수 있다. 사람의 눈은 가장 많은 정보를 획득하는 감각기관으로 시각정보에 대한 분석은 <공간과 사용자>의 상호간의 시각적 관련성을 파악할 수 있는데, 그간 연구에서는 실험이미지를 통해 정지된 화상에 대한 분석이 대다수 이며, 상업공간의 이동영상을 바탕으로 공간에 대한 시선정보를 분석한 연구는 미비하다. 이에 본 연구에서는 상업시설의 이동경로를 촬영한 동영상을 실험에 사용함으로써 공간분석에 있어 사실감이 부여된 공간 사용자 시선정보를 통한 감성반응을 분석하였다. 이동동선의 직선구간을 분석구간으로 설정하고, 획득된 데이터를 바탕으로 5개의 주시강도 범위에 대한 구간특성을 살펴본 결과, 이동동선의 시작점인 A구간(직선구간-1)에서는 주시강도가 낮게 나타났으며, B구간(직선구간-2)에서 가장 높은 주시강도가 나타난 것을 알 수 있다. 이는 피험자들의 B구간부터 안정적인 공간 탐색을 한 것으로 볼 수 있으며, 실험영상에 대한 적응시간이 필요한 것을 알 수 있다. 주시집중구역에 대한 공간특성을 살펴보면, 6개 구간 중 4개 구간에서 우측매장의 진열방식에 대한 시선의 집중이 더 높게 나타난 것을 알 수 있다. 소비자의 시선이 높게 머무른 요소는 소품위주로 시선이 유도되었으며, 매장 내 쇼케이스 같은 진열형식에 시선정보가 높게 나타난 것을 알 수 있다. 이러한 분석방법을 통해 소비자의 시선이 선호하는 상품진열방법, 상품요소 배치 등 직접적인 디자인 자료로 활용 가치가 높게 제공될 수 있을 것으로 사료된다.

시선응시 방법과 시각도가 P300 문자입력기의 정확도에 미치는 영향 (The effects of the methods of eye gaze and visual angles on accuracy of P300 speller)

  • 엄진섭;손진훈
    • 감성과학
    • /
    • 제17권2호
    • /
    • pp.91-100
    • /
    • 2014
  • 본 연구에서는 P300 문자입력기의 물리적 특성에 해당하는 문자판의 시각도와 사용자의 개인적 특성에 해당하는 시선응시 방법이 P300 문자입력기의 정확도에 미치는 영향을 검증하였다. 문자판의 시각도는 사용자와 문자판 간의 거리로 조작하였으며, 60 cm 집단과 100 cm 집단, 150 cm 집단으로 구성하였다. 시선응시방법은 세 조건으로 반복측정하였다. 머리 조건은 머리를 움직여서 시선을 두는 조건이었으며, 눈동자 조건은 머리는 고정한 채 눈동자를 움직여서 시선을 두는 조건이었고, 시선고정 조건은 시선을 문자입력기의 중앙에 고정시킨 조건이었다. 이요인설계에 의한 실험결과, 문자입력의 정확도가 시선응시방법에 따라 유의한 차이가 있었다. 머리 조건의 정확도가 눈동자 조건의 정확도 보다 높았으며, 눈동자 조건의 정확도가 시선고정 조건의 정확도 보다 높았다. 그러나 문자판의 시각도와 상호작용효과는 모두 유의하지 않았다. 시선응시방법에 따라 목표문자의 P300 진폭을 측정한 결과, 머리조건의 P300이 눈동자 조건의 P300보다 더 컸다. 머리조건과 눈동자 조건 간에는 오류분포에서 큰 차이가 없었지만, 시선고정 조건은 나머지 두 조건과 큰 차이를 보였다. 머리조건과 눈동자 조건에서는 오류가 주로 목표문자와 인접한 문자에서 나타난 반면, 시선고정 조건은 오류가 상대적으로 넓게 분포하였으며, 문자판의 중심에서 멀리 떨어져 있는 문자들에서 오류가 많이 발생하였다.

얼굴 및 눈동자 움직임에 의한 시선 위치 추적 (Gaze Detection by Computing Facial and Eye Movement)

  • 박강령
    • 대한전자공학회논문지SP
    • /
    • 제41권2호
    • /
    • pp.79-88
    • /
    • 2004
  • 시선 위치 추적이란 현재 사용자가 응시하고 있는 위치를 컴퓨터 시각 인식 방법에 의해 파악하는 연구이다. 이러한 시선 위치 추적 기술은 많은 응용 분야를 가지고 있는데, 그 대표적인 예로는 양 손을 사용하지 못하는 심신 장애자를 위한 컴퓨터 인터페이스 및 3차원 시뮬레이터 프로그램에서 사용자의 시선 위치에 따른 화면 제어 등이 있다. 이 논문에서는 적외선 조명이 부착된 단일 카메라를 이용한 컴퓨터 비전 시스템으로 시선 위치 추적 연구를 수행하였다. 사용자의 시선 위치를 파악하기 위해서는 얼굴 특징점의 위치를 추적해야하는데, 이를 위하여 이 논문에서는 적외선 기반 카메라와 SVM(Support Vector Machine) 알고리즘을 사용하였다. 사용자가 모니터상의 임의의 지점을 쳐다볼 때 얼굴 특징점의 3차원 위치는 3차원 움식임량 추정(3D motion estimation) 및 아핀 변환(affine transformation)에 의해 계산되어 질 수 있다. 얼굴 특징점의 변화된 3차원 위치가 계산되면, 이로부터 3개 이상의 얼굴 특징점으로부터 생성되는 얼굴 평면 및 얼굴 평면의 법선 벡터가 구해지게 되며, 이러한 법선 벡터가 모니터 스크린과 만나는 위치가 사용자의 시선위치가 된다. 또한, 이 논문에서는 보다 정확한 시선 위치를 파악하기 위하여 사용자의 눈동자 움직임을 추적하였으면 이를 위하여 신경망(다층 퍼셉트론)을 사용하였다. 실험 결과, 얼굴 및 눈동자 움직임에 의한 모니터상의 시선 위치 정확도는 약 4.8㎝의 최소 자승 에러성능을 나타냈다.

차영상 엔트로피를 이용한 시선 인식 시스템의 구현 (An Implementation of Gaze Direction Recognition System using Difference Image Entropy)

  • 이규범;정동근;홍광석
    • 정보처리학회논문지B
    • /
    • 제16B권2호
    • /
    • pp.93-100
    • /
    • 2009
  • 본 논문에서는 차영상 엔트로피 기반의 시선 인식 시스템을 제안한다. 차영상 엔트로피는 현재 입력된 영상과 참조 영상 또는 시선의 위치별 평균 영상들로부터 차영상을 획득하고, -255부터 +255까지의 히스토그램 빈도수를 이용하여 계산한다. 차영상 엔트로피 기반의 시선 인식방법은 2가지 방법이다. 1) 첫 번째 방법은 현재 입력된 영상과 시선 위치별 45개의 평균 영상들과의 차영상 엔트로피를 계산하여 현재 응시하고 있는 방향을 인식하고, 2) 두 번째 방법은 현재 입력된 영상과 45개의 참조 영상들과의 차영상 엔트로피를 계산하여 현재의 응시 방향을 인식한다. 참조 영상은 네 방향의 영상을 입력받아 시선 위치별 45개의 평균 영상을 이용하여 생성한다. 제안한 시스템의 성능을 평가하기 위해 PCA 기반의 시선 인식 시스템과 비교 실험을 하였고, 인식 방향은 좌상, 우상, 좌하, 우하 네 방향으로 하였으며, 45개의 참조 영상 또는 평균영상에 대하여 인식 영역을 변경하여 실험하였다. 실험 결과 차영상 엔트로피는 97.00%, PCA는 95.50%의 인식률을 보여 차영상 엔트로피 기반의 시스템이 PCA 기반의 시스템보다 1.50% 더 높은 인식률을 나타내었다.

인터랙티브 VR 애니메이션의 시선 유도를 위한 연출 (Directing User's Eye Gaze Movement in an Interactive VR Animation)

  • 안찬제;이태구
    • 한국콘텐츠학회논문지
    • /
    • 제21권3호
    • /
    • pp.103-113
    • /
    • 2021
  • VR 애니메이션은 기존의 애니메이션에서의 연출 방법과는 다른 연출 방법이 필요하다. 기존의 애니메이션은 영화관에서 스크린을 응시하며 관람하였지만, VR 애니메이션은 360° 시점의 자유로 인해 기존의 연출 방법만으로는 향유자의 시선을 연출자의 의도대로 움직이기 힘들다. 루돌프 아른하임이 말한 시지각 요인과 브루스 블록의 주목도가 높은 시각적 요인들을 이론적 배경으로 하여 세 편의 VR 애니메이션을 분석하였다. 공간의 인지, 시선의 집중, 시선의 이동의 세 가지 과정에서 시각적 요인인 '움직임' 요소가 시선의 유도를 위해 제일 많이 사용된 것으로 나타났다. 인터랙티브 VR 애니메이션 <울브스 인더 월스>는 스토리에 중요한 지점마다 인터랙션을 통해 향유자가 참여하도록 하여 강제적으로 시선을 유도하였다. 위의 분석을 통해 멀미 유발 감소를 위한 인터랙션 연출 방법으로 캐릭터의 움직임을 통한 시선 유도를 제안하였고, 스토리텔링 이해를 위한 인터랙션 연출 방법으로 인터랙션 이벤트를 이용한 향유자의 참여유도와 GUI를 이용한 직관적인 시선 유도를 제안하였다. 두 가지의 연출제안을 토대로 VR 애니메이션에서 문제가 되는 사이버멀미 저감을 위한 스토리 텔링의 몰입을 유도하는 기초연구로 활용되길 기대한다.

사용자 캘리브레이션이 필요 없는 시선 추적 모델 연구 (User-Calibration Free Gaze Tracking System Model)

  • 고은지;김명준
    • 한국정보통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.1096-1102
    • /
    • 2014
  • 적외선 조명을 이용한 간접시선추적 시스템에서는 촬영된 이미지에서 동공에 반사된 조명의 위치에 대한 캘리브레이션이 필수적이다. 하지만 안구의 크기나 머리의 위치에 따라 달라질 수도 있는 변수가 캘리브레이션 과정에서 정의된 상수로 계산에 포함되어 있어 오차를 감소시키는데 한계가 있다. 본 논문은 적외선 조명을 사용하면서도, 사용자 캘리브레이션 과정을 생략할 수 있는 방법을 연구한다. 반사각에 의한 글린트(glint)위치 차이에 영향을 받지 않게 하면서, 시스템의 모델과 시선 계산은 단순하게 하여 실시간 연산이 가능하도록 하는 것이 목표이다.

시스템 파라미터의 변동 하에서도 강건한 능동적인 비전의 시선 고정 (Robust Gaze-Fixing of an Active Vision System under Variation of System Parameters)

  • 한영모
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제1권3호
    • /
    • pp.195-200
    • /
    • 2012
  • 카메라의 시선을 조정하기 위해서는 비전 시스템의 시스템 파라미터를 사용해야 한다. 하지만 이러한 시스템 파라미터는 측정 당시와 사용중이 달라 질 수 있다. 이 경우 원하는 카메라의 시선 조정이 이루어지기 어렵다. 이 문제를 보완하기 위한 방법으로서 본 연구에서는 LMI(Linear Matrix Inequality)에 기반한 비전 시스템의 시스템 파라미터의 변화에 강건한 시선 고정 방법을 제안한다. 시뮬레이션 검증 결과는 제안하는 방법이 기존의 선형 알고리즘에 비해 더 적은 시선 추적 에러를 보이고, 기존의 비선형 알고리즘에 비해 더 안정적인 시선 추적 에러를 보인다. 또한 제안하는 방법은 속도가 빨라서 실시간 사용이 가능하다.