• 제목/요약/키워드: 눈 추적

검색결과 202건 처리시간 0.022초

소비자 시선 분석을 통한 소셜로봇 태도 형성 메커니즘 연구: 로봇의 얼굴을 중심으로 (A Study on the Mechanism of Social Robot Attitude Formation through Consumer Gaze Analysis: Focusing on the Robot's Face)

  • 하상집;이은주;유인진;박도형
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.243-262
    • /
    • 2022
  • 본 연구는 소셜로봇 디자인 연구의 흐름 중 하나인 로봇의 외형에 관하여 시선 추적(Eye Tracking)을 활용하여 로봇에 대한 사용자의 태도를 형성하는 메커니즘을 발견하고, 로봇 디자인 시 참고할 수 있는 구체적인 인사이트를 발굴하고자 하였다. 소셜로봇의 몸 전체, 얼굴, 눈, 입술 등을 관심 영역(Area of Interest: AOI)으로 설정하여 측정된 사용자의 시선 추적 지표와 디자인평가 설문을 통하여 파악된 사용자의 태도를 연결하여 소셜로봇 디자인의 연구 모형을 구성하였다. 구체적으로 본 연구에서 사용된 시선 추적 지표는 고정된 시간(Fixation), 첫 응시 시간(First Visit), 전체 머문 시간(Total Viewed), 그리고 재방문 횟수(Revisits)이며, 관심 영역인 AOI(Areas of Interests)는 소셜로봇의 얼굴, 눈, 입술, 그리고 몸체로 설계하였다. 그리고 디자인평가 설문을 통하여 소셜로봇의 감정 표현(Expressive), 인간다움(Human-like), 얼굴 두각성(Face-highlighted) 등의 소비자 신념을 수집하였고, 종속변수로 로봇에 대한 태도를 설정하였다. 시선 반응에 따른 소셜로봇에 대한 태도를 형성하는 과정에서 두가지 경로를 통해 영향을 미치는 것을 확인되었다. 첫번째는 시선이 태도에 직접적으로 미치는 영향으로 소셜로봇의 얼굴과 눈의 응시에 따라 긍정적인 태도 인 것으로 나타났다. 구체적으로, 로봇의 첫 응시 시점이 이를수록 눈에서는 머문 시간이 길고 재방문 빈도가 낮을수록 로봇에 대한 태도를 긍정적으로 평가하였다. 즉 소셜로봇을 얼굴보다 눈에 집중해서 보게 될 때 피험자들이 로봇에 대한 판단에 있어 직접적으로 영향을 주는 것으로 나타났다. 두번째로는 로봇에 대한 인지적 지각된 측면을 고려하여 얼굴 두각성(Face-highlighted), 의인화(Human-like), 감정 표현(Expressive)이 태도에 미치는 영향의 결과로 모두 긍정적인 영향을 미치는 것으로 나타났다. 또한 소셜로봇에 대한 지각이 구체적으로 로봇의 어떤 외형적 요소가 연관성을 가지는지 살펴본 결과 소셜로봇의 얼굴과 입술에 머문 시간이 길수록 입술을 다시 주시하지 않을수록 Face-highlighted에 긍정적인 영향을 주는 것으로 나타났다. 그리고 전신은 첫 응시가 늦을수록, 입술은 첫 응시가 빠르고 시선이 고정된 시간이 짧을수록 Human-like에 긍정적인 영향이 미치는 것으로 나타났다. 마지막으로 소셜로봇의 얼굴에 머문 시간은 길수록 Expressive에 긍정적인 영향이 미치는 것으로 나타났다.

능동 카메라를 이용한 이동 물체 추적 (Moving object tracking using active camera)

  • 박현석;한종원;조진수;이일병
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (B)
    • /
    • pp.364-366
    • /
    • 2006
  • 본 논문에서는 인간의 눈 움직임이 반영된 물체 추적 기능을 모방하여 CCD 카메라를 통하여 실시간으로 입력되는 영상 데이터로부터 특징기반 정합방법을 응용하여 움직임 정보를 추출한 후, 팬-틸트(pan-tilt) 기능의 하드웨어를 제어하여 실시간으로 이동하는 물체를 효율적으로 추적하는 시스템을 제안하였다. 기존의 연구들에서는 주로 물체의 색상값을 이용하여 추적이 이루어지므로 조명이나 카메라의 변화에 따라 이동 물체를 놓치거나 유사한 색의 다른 물체를 잘못 추적하는 문제가 있었다. 이러한 문제점을 해결하기 위하여 측정기반의 정합을 응용하여 이동하는 카메라에서 이동물체를 추출하고 이 이동 물체의 좌표를 이동하여 팬-틸트 하드웨어를 제어하여 추적을 수행하였다. 실험 결과 본 시스템은 움직이는 물체를 감지해서 팬-틸트 하드웨어를 올바르게 제어하며 카메라의 움직임을 보정해가며 전체적으로 움직이는 영상 내에서 실제 움직이는 물체를 일관성 있게 추적하는 만족스러운 결과를 보인다.

  • PDF

로봇의 시각시스템을 위한 동영상에서 칼라정보를 이용한 얼굴 추적 (Robot vision system for face tracking using color information from video images)

  • 정행섭;이주신
    • 한국항행학회논문지
    • /
    • 제14권4호
    • /
    • pp.553-561
    • /
    • 2010
  • 본 논문에서는 로봇의 시각시스템에 효과적으로 적용할 수 있는 얼굴 추적 방법을 제안하였다. 제안한 알고리즘은 동영상의 움직임 영역을 검출한 후 얼굴 영역을 추적한다. 동영상의 움직임 검출은 연속되는 2개의 프레임을 사용하여 차영상을 구한 후, 잡음을 제거하기 위한 방법으로 메디안 필터와 침식 및 팽창연산을 사용하여 움직임 영역을 검출한다. 움직임 영역에서 피부색을 추출하기 위하여 표본영상의 칼라 정보를 이용하였다. 칼라정보의 MIN-MAX값을 퍼지화 데이터로 멤버십 함수를 생성한 후, 유사도를 평가하여 피부색 영역과 배경영역을 분리하였다. 얼굴 후보영역에 대하여 CMY 칼라 공간 C 채널에서 눈을 검출하고, YIQ 칼라 공간 Q 채널에서 입을 검출하였다. 지식기반으로 검출된 눈과 입의 특징을 찾아가며 얼굴영역을 추적하였다. 실험영상으로는 10명 각각에 대하여 150프레임의 동영상 총 1,500프레임을 입력받아 실험한 결과, 1,435프레임의 영상에 대하여 움직임 영역이 검출되어 95.7%의 프레임 검출율을 보였으며, 1,401개에 대한 얼굴을 추적 97.6%의 우수한 얼굴 추적결과를 나타내었다.

NUI/NUX 기반 복수의 사용자를 촬영하기 위한 UAV 비행방향 제어방법 (Determining UAV Flight Direction Control Method for Shooting the images of Multiple Users based on NUI/NUX)

  • 곽정훈;성연식
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 춘계학술발표대회
    • /
    • pp.445-446
    • /
    • 2018
  • 최근 무인항공기 (Unmanned Aerial Vehicle, UAV)에 장착한 카메라를 활용하여 사용자의 눈높이가 아닌 새로운 시각에서 사용자를 촬영한 영상을 제공한다. 사용자를 추적하며 촬영하기 위해 저전력 블루투스 (Bluetooth Low Energy, BLE) 신호, 영상, 그리고 Natural User Interface/Natual User Experience(NUI/NUX) 기술을 활용한다. BLE 신호로 사용자를 추적하는 경우 사용자의 후방에서 추적하며 사용자만을 추적하며 촬영 가능한 문제가 있다. 하지만 복수의 사용자를 전방에서 추적하며 촬영하는 방법이 필요하다. 본 논문에서는 복수의 사용자를 추적하며 전방에서 촬영하기 위해 UAV의 비행방향을 결정하는 방법을 설명한다. 복수의 사용자로부터 측정 가능한 BLE 신호들을 UAV에서 측정한다. 복수개의 BLE 신호의 변화를 활용하여 UAV의 비행방향을 결정한다.

얼굴 특징 실시간 자동 추적 (Real-Time Automatic Tracking of Facial Feature)

  • 박호식;배철수
    • 한국정보통신학회논문지
    • /
    • 제8권6호
    • /
    • pp.1182-1187
    • /
    • 2004
  • 본 논문에서는 실시간으로 눈과 눈썹주위의 특징을 추적하는 새로운 알고리즘을 제안하고자 한다. 제안된 알고리즘은 적외선 LED와 적외선카메라로 밝은 동공 효과를 만들어 동공을 추적 한 후, 템플릿은 얼굴 특징을 매개변수화 하기 위해, 동공 좌표는 각각의 프레임에서 눈과 눈썹 영상을 추출하기 위하여 사용한다. 또한, 템플릿 변수는 표본 영상을 가지고 학습하는 과정에서 구성한 PCA기저를 이용하여 추출된 영상을 PCA 분석하여 구한다. 제안된 시스템은 초당 30 프레임의 영상에서 초기 설정 및 교정 작업 없이 머리 움직임이 많거나 폐색이 있는 경우에도 견실하게 동작하였다.

컬러 정보를 이용한 실시간 표정 데이터 추적 시스템 (Realtime Facial Expression Data Tracking System using Color Information)

  • 이윤정;김영봉
    • 한국콘텐츠학회논문지
    • /
    • 제9권7호
    • /
    • pp.159-170
    • /
    • 2009
  • 온라인 기반의 3차원 얼굴 애니메이션을 위해서 실시간으로 얼굴을 캡처하고 표정 데이터를 추출하는 것은 매우 중요한 작업이다. 최근 동영상 입력을 통해 연기자의 표정을 캡처하고 그것을 그대로 3차원 얼굴 모델에 표현하는 비전 기반(vision-based) 방법들에 대한 연구가 활발히 이루어지고 있다. 본 논문 에서는 실시간으로 입력되는 동영상으로부터 얼굴과 얼굴 특징점들을 자동으로 검출하고 이를 추적하는 시스템을 제안한다. 제안 시스템은 얼굴 검출과 얼굴 특징점 추출 및 추적과정으로 구성된다. 얼굴 검출은 3차원 YCbCr 피부 색상 모델을 이용하여 피부 영역을 분리하고 Harr 기반 검출기를 이용해 얼굴 여부를 판단한다. 얼굴 표정에 영향을 주는 눈과 입 영역의 검출은 밝기 정보와 특정 영역의 고유한 색상 정보를 이용한다. 검출된 눈과 입 영역에서 MPEG-4에서 정의한 FAP를 기준으로 10개의 특징점을 추출하고, 컬러 확률 분포의 추적을 통해 연속 프레임에서 특징점들의 변위를 구한다 실험 결과 제안 시스템 은 약 초당 8 프레임으로 표정 데이터를 추적하였다.

눈 윤곽선과 눈동자 영역 추출 기반 시선 추정 알고리즘의 설계 및 구현 (Design and Implementation of Eye-Gaze Estimation Algorithm based on Extraction of Eye Contour and Pupil Region)

  • 염효섭;홍민;최유주
    • 컴퓨터교육학회논문지
    • /
    • 제17권2호
    • /
    • pp.107-113
    • /
    • 2014
  • 본 연구에서는 입력 얼굴 영상에서 눈의 윤곽선과 눈동자 영역을 추출하여 시선을 추정하는 시스템을 설계 및 구현한다. 눈 윤곽선과 눈동자 영역을 효율적으로 추출하기 위하여 먼저 입력 영상으로부터 얼굴 영역을 추출한다. 얼굴 영역 추출을 위하여 아시아인 얼굴 영상 셋을 확보하여 아시아인 피부색에 대한 YCbCr 범위를 사전에 정의하였고, 정의된 피부색 범위값에 따라 피부영역을 검출한다. 최대크기 피부 영역을 얼굴후보 영역으로 지정하고 검출된 얼굴 후보영역에 대한 상위 50%의 관심 영역 내에서 눈윤곽선과 색상 특성 분석을 이용한 눈 영역 검출 알고리즘을 수행하여 기존의 Haar-like feature 특성기반 눈 영역 검출방법에 비해 타이트한 눈 영역을 검출한다. 눈의 윤곽선을 포함하는 관심영역 전체를 기준으로 눈 영역을 3등분하고, 추출된 눈동자의 위치가 3등분된 영역에서 어느 영역에 중점적으로 위치하고 있는지를 분석하여 좌, 우, 정면 시선 방향을 추정한다. 본 연구에서는 20명의 실험자에 대한 5,616 장의 테스트 영상을 이용한 시선방향 추정 실험에서 약 91%의 정확도를 획득한다.

  • PDF

웹카메라를 이용한 시선 추적식 졸음 방지 디바이스 (Alarm Device Using Eye-Tracking Web-camera)

  • 김성주;김유현;신은정;이강희
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2013년도 제47차 동계학술대회논문집 21권1호
    • /
    • pp.321-322
    • /
    • 2013
  • 본 논문은 웹카메라를 이용하여 시선 추적식 졸음 방지 디바이스를 제안한다. 이는 하드웨어와 소프트웨어 두 부분으로 설계되었으며, 웹카메라를 이용하여 사용자의 눈을 인식하고, Arduino와 Max/msp를 기반으로 한다. Eye-Tracking 기술을 적용하여 사용자의 상태를 파악하고, 상태에 따라 적절한 졸음 방지 기능을 수행하도록 한다. 또한 졸음 방지 기능, 탁상 보조등과 같은 다양한 기능을 수행한다. 사용자는 웹카메라를 통한 시선 추적식 알람 디바이스를 이용함으로써, 새로운 경험을 제공 받는다. 세계 최초(World-First)로 시선추적 기술을 이용하여 남녀노소 누구나 업무 중 이용이 가능한 디바이스이다.

  • PDF

실시간 비전 시스템을 이용한 운전자 신체적 상태 추정 (Estimation of a Driver's Physical Condition Using Real-time Vision System)

  • 김종일;안현식;정구민;문찬우
    • 한국인터넷방송통신학회논문지
    • /
    • 제9권5호
    • /
    • pp.213-224
    • /
    • 2009
  • 현재 교통사고의 원인은 차량 결함보다 운전자의 과실에 의한 것이 더 높은 사고 원인으로 나타나고 있다. 이를 해결하기 위하여 운전자의 신체적 상태를 관찰, 분석하여 현재 상태를 추정 및 경고해 줄 수 있는 시스템이 필요하다. 이러한 운전자 상태 추정 시스템을 개발하기 위하여, 본 논문에서는 실시간 비전 시스템을 사용하여 운전자 두 눈동자의 중심점과 크기, 입의 양 끝 모서리 점을 추적하여 얻어진 정보들을 기본적으로 이용한다. 움직임의 추적을 위해 얼굴인식이 필요하며, 인식은 YUV 컬러 공간에서 눈과 입, 얼굴의 색상 정보를 통계학적 방법에 기초하여 설계하고, 얼굴의 기하학적 모델에 의해 이루어진다. 이 시스템을 이용함으로써 운전자의 움직임에 의한 모든 회전 방향을 구분하고, 눈과 입이 차단되는 현상을 차단 모델에 의해 검출할 수 있다. 또한 눈이 감기거나 떠진 상태를 검출하여, 눈의 3차원 시선을 복원한다. 부주의한 운전과 졸음운전을 각각 정의하고 눈동자의 크기 변화 등에 의해 구분하며, 내장형 PC를 기반으로 카메라 시스템, 영상 데이터 처리 장치 및 상태 추정 알고리즘을 구현한 실험 시스템을 구현하여 제안된 신체 상태 추정 방법의 타당성과 성능을 검토한다.

  • PDF