• Title/Summary/Keyword: 시선고정

Search Result 73, Processing Time 0.025 seconds

A Study on the Mechanism of Social Robot Attitude Formation through Consumer Gaze Analysis: Focusing on the Robot's Face (소비자 시선 분석을 통한 소셜로봇 태도 형성 메커니즘 연구: 로봇의 얼굴을 중심으로)

  • Ha, Sangjip;Yi, Eun-ju;Yoo, In-jin;Park, Do-Hyung
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.07a
    • /
    • pp.409-414
    • /
    • 2021
  • 본 연구는 소셜로봇 디자인 연구의 흐름 중 하나인 로봇의 외형에 관하여 시선 추적을 활용하고자 한다. 소셜로봇의 몸 전체, 얼굴, 눈, 입술 등의 관심 영역으로부터 측정된 사용자의 시선 추적 지표와 디자인평가 설문을 통하여 파악된 사용자의 태도를 연결하여 소셜로봇의 디자인에 연구 모형을 구성하였다. 구체적으로 로봇에 대한 사용자의 태도를 형성하는 메커니즘을 발견하여 로봇 디자인 시 참고할 수 있는 구체적인 인사이트를 발굴하고자 하였다. 구체적으로 본 연구에서 사용된 시선 추적 지표는 고정된 시간(Fixation), 첫 응시 시간(First Visit), 전체 머문 시간(Total Viewed), 그리고 재방문 횟수(Revisits)이며, 관심 영역인 AOI(Areas of Interests)는 소셜로봇의 얼굴, 눈, 입술, 그리고 몸체로 설계하였다. 그리고 디자인평가 설문을 통하여 소셜로봇의 감정 표현, 인간다움, 얼굴 두각성 등의 소비자 신념을 수집하였고, 종속변수로 로봇에 대한 태도로 설정하였다.

  • PDF

Determination of Slant Wet Delay using GPS (GPS를 이용한 시선방향 습윤지연 결정)

  • 하지현;박관동;박종욱
    • Proceedings of the Korean Association of Geographic Inforamtion Studies Conference
    • /
    • 2004.03a
    • /
    • pp.141-146
    • /
    • 2004
  • 본 연구에서는 Canada Southern Alberta Network의 6곳의 GPS(Global Positioning System) 상시관측소 데이터를 바탕으로 관측소와 각 GPS 위성간의 시선방향 습윤지연량을 결정하였다. 고정밀 GPS 데이터를 이용하여 천정방향 습윤지연량을 결정하고 이를 WVR(Water Vapor Radiometer)에서 측정한 천정방향 습윤지연량과 비교하였다. 그 결과 WVR의 천정방향 습윤지연량과 비교할 때 GPS로 관측한 천정방향 습윤지연량은 최대 1.39cm, 최소 0.99cm의 RMS 오차를 보였다. 또한 GPS로 관측한 시선방향 습윤지연량은 WVR과 비교할 때, PRN 25번 위성의 경우최대 17cm, 최소 0.05cm의 차이가 났다.

  • PDF

A Study on the Mechanism of Social Robot Attitude Formation through Consumer Gaze Analysis: Focusing on the Robot's Face (소비자 시선 분석을 통한 소셜로봇 태도 형성 메커니즘 연구: 로봇의 얼굴을 중심으로)

  • Ha, Sangjip;Yi, Eunju;Yoo, In-jin;Park, Do-Hyung
    • Journal of Intelligence and Information Systems
    • /
    • v.28 no.1
    • /
    • pp.243-262
    • /
    • 2022
  • In this study, eye tracking was used for the appearance of the robot during the social robot design study. During the research, each part of the social robot was designated as AOI (Areas of Interests), and the user's attitude was measured through a design evaluation questionnaire to construct a design research model of the social robot. The data used in this study are Fixation, First Visit, Total Viewed, and Revisits as eye tracking indicators, and AOI (Areas of Interests) was designed with the face, eyes, lips, and body of the social robot. And as design evaluation questionnaire questions, consumer beliefs such as Face-highlighted, Human-like, and Expressive of social robots were collected and as a dependent variable was attitude toward robots. Through this, we tried to discover the mechanism that specifically forms the user's attitude toward the robot, and to discover specific insights that can be referenced when designing the robot.

Real Time Gaze Discrimination for Human Computer Interaction (휴먼 컴퓨터 인터페이스를 위한 실시간 시선 식별)

  • Park Ho sik;Bae Cheol soo
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.30 no.3C
    • /
    • pp.125-132
    • /
    • 2005
  • This paper describes a computer vision system based on active IR illumination for real-time gaze discrimination system. Unlike most of the existing gaze discrimination techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze discrimination system can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using generalized regression neural networks (GRNNs). With GRNNs, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Futhermore, the mapping function can generalize to other individuals not used in the training. To further improve the gaze estimation accuracy, we employ a reclassification scheme that deals with the classes that tend to be misclassified. This leads to a 10% improvement in classification error. The angular gaze accuracy is about 5°horizontally and 8°vertically. The effectiveness of our gaze tracker is demonstrated by experiments that involve gaze-contingent interactive graphic display.

Real Time Gaze Discrimination for Computer Interface (컴퓨터 인터페이스를 위한 실시간 시선 식별)

  • Hwang, Suen-Ki;Kim, Moon-Hwan
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.3 no.1
    • /
    • pp.38-46
    • /
    • 2010
  • This paper describes a computer vision system based on active IR illumination for real-time gaze discrimination system. Unlike most of the existing gaze discrimination techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze discrimination system can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using generalized regression neural networks (GRNNs). With GRNNs, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Furthermore, the mapping function can generalize to other individuals not used in the training. To further improve the gaze estimation accuracy, we employ a reclassification scheme that deals with the classes that tend to be misclassified. This leads to a 10% improvement in classification error. The angular gaze accuracy is about $5^{\circ}$horizontally and $8^{\circ}$vertically. The effectiveness of our gaze tracker is demonstrated by experiments that involve gaze-contingent interactive graphic display.

  • PDF

A Study on Real Time Gaze Discrimination System using GRNN (GRNN을 이용한 실시간 시선 식별 시스템에 관한 연구)

  • Lee Young-Sik;Bae Cheol-Soo
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.9 no.2
    • /
    • pp.322-329
    • /
    • 2005
  • This paper describes a computer vision system based on active IR illumination for real-time gaze discrimination system. Unlike most of the existing gaze discrimination techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze discrimination system can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using generalized regression neural networks (GRNNS). With GRNNS, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. furthermore, the mapping function can generalize to other individuals not used in the training. To further improve the gaze estimation accuracy, we employ a reclassification scheme that deals with the classes that tend to be misclassified. This leads to a 10$\%$ improvement in classification error. The angular gaze accuracy is about $5^{circ}$horizontally and $8^{circ}$vertically. The effectiveness of our gaze tracker is demonstrated by experiments that involve gaze-contingent interactive graphic display.

파격의 즐거움으로 읽히는 요리책들

  • Bae, Eun-Hui
    • The Korean Publising Journal, Monthly
    • /
    • s.176
    • /
    • pp.9-9
    • /
    • 1995
  • 요리책 하면 으레 떠오르는 요리사진과 조리과정 설명, 재료 나열 등의 고정된 스타일을 벗어던진 색다른 요리책들이 나와 주부들은 물론 일반독자와 남성들의 시선까지 끌고 있다. 한국 전통요리를 자상하게 설명하거나 집안 고유의 비법을 전수한다든가, 맞벌이부부의 남편에게 들려주는 요리이야기 등 다양하다.

  • PDF

Real-time classification system of emotion image using physiological signal (생리신호에 의한 감성 이미지 실시간 분류 시스템 개발)

  • Lee, Jeong-Nyeon;Gwak, Dong-Min;Jeong, Bong-Cheon;Jeon, Gi-Hyeok;Hwang, Min-Cheol
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2009.11a
    • /
    • pp.232-235
    • /
    • 2009
  • 본 연구에서는 실시간으로 변화하는 사용자의 감성을 평가하여 각성 또는 이완으로 분류된 시선 정보 이미지를 저장하는 시스템을 구현하고자 한다. 사용자의 감성을 분류하기 위한 요소는 Larson과 Diner 가 정의한 2 차원 감성모델에서 각성, 이완 요소를 사용한다. 감성 상태를 분류하기 위하여 자율 신경계 중 착용과 휴대가 간편한 PPG 센서를 사용하며, PPG 를 분석하기 위한 변수로는 진폭의 양과 초당 Peak 의 빈도수를 사용한다. 머리에 고정할 수 있는 캠을 사용하여 사용자가 바라보는 시선 정보를 획득하고, 클라이언트 컴퓨터는 획득된 시선 정보를 UDP 통신을 사용해 서버 컴퓨터로 전송하는 시스템이다. 320(pixel)*240(pixel)*32(bit)인 영상 데이터를 1/30 로 압축하여 전송하며, 각성과 이완으로 분류되는 시점의 영상을 블록화하여 JPEG 이미지로 저장한다. 본 시스템은 실시간으로 변화되는 사용자의 감성 상태를 파악하여 이미지를 전송하고 서버 컴퓨터에 저장함으로써 당시 사용자가 느꼈던 감성들에 대해 피드백을 주고자 하는데 의의가 있다.

  • PDF

Word-balloon effects on Video (비디오에 대한 말풍선 효과 합성)

  • Lee, Sun-Young;Lee, In-Kwon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.332-334
    • /
    • 2012
  • 최근 영화나 드라마 같은 미디어 데어터가 폭발적으로 증가하면서, 다양한 언어로 번역된 자막 데이터도 증가하고 있다. 이러한 자막은 대부분 화면 하단이나 우측에 위치가 고정되어 나타내는 방식을 취하고 있다. 그러나 이 방식에는 몇 가지 한계점을 가지고 있다. 자막과 등장인물의 얼굴이 거리가 먼 경우, 시청자의 시선이 분산되어 영상에 집중하기 어렵다는 점과 청각장애를 가진 사람의 경우 자막만으로는 누가 말하고 있는 대사인지 혼동이 온다는 점이다. 본 논문에서는 만화에서 대사를 전달하기 위해 사용하던 말풍선을 동영상의 자막을 나타내는데 사용하는 새로운 자막 시스템을 제안한다. 말풍선을 사용하면 말꼬리로 화자의 위치를 가리키고, 시청자의 시선을 화자의 얼굴 근처에 집중시킴으로써 기존 자막이 갖는 한계점을 개선시킬 수 있다. 본 연구의 결과물을 검증하기 위해 사용자 평가를 실시했고, 기존의 자막 방식에 비해 시선의 안정성과 흥미성, 정확도에서 더 낫다는 결과를 얻을 수 있었다.

Development of Integrated Analysis Model for Eyegaze Analysis - With Emphasis on the Generation of Heuristic Guidelines for User Interface Design - (시선추적 분석을 위한 통합 해석 모델의 개발 - 사용자 인터페이스 디자인을 위한 휴리스틱 가이드라인의 도출을 중심으로 -)

  • 성기원;이건표
    • Archives of design research
    • /
    • v.17 no.2
    • /
    • pp.23-32
    • /
    • 2004
  • This paper's objective is the analysis of eye-movement recording with visual perception process, the inference of heuristic guidelines with human information processing, and the generation of design principles for practical works. For this objective, it was experimented on that the user's eye-movement recording of interactive media with the Eyegaze Interface System, and analyzed the visual perception process of top-down & bottom-up processing, and inferred the design principles from human information process. Our results provide the implications of design through the analysis of the user's eye-movement recording that were changed according to each menu depth of the interactive media. And, it is proposed that the new concept of heuristic guidelines based on each stage of action that is related to human factors.

  • PDF