• 제목/요약/키워드: Eye Tracking

검색결과 450건 처리시간 0.025초

효과적인 학습경험을 위한 실시간 원격강의 플랫폼 사용성 연구 -ZOOM UI디자인 레이아웃을 중심으로- (A Study on the Usability of Real-Time Remote Lecture Platform for Effective Learning Experience -Focused on ZOOM UI design layout-)

  • 정승재;이연준
    • 디지털융복합연구
    • /
    • 제19권10호
    • /
    • pp.395-401
    • /
    • 2021
  • 디지털 시대의 도래와 더불어 코로나19 감염병의 확산으로 인해 국내 교육기관은 실시간 원격강의 플랫폼을 학습의 도구로 활용하고 있다. 그러나 낮은 사용 경험 문제로 인해 혼란을 겪고 있어 사용성 연구가 필요하다. 본 연구는 ZOOM의 UI디자인 레이아웃에 따른 시선추적과 학습경험을 측정하여 실증적 데이터를 제공하고 레이아웃과 학습효과에 대한 규명을 입증하여 제언하는 것에 목적을 둔다. 총 30명의 피험자를 선정하여 학습 시 시선추적과 설문조사를 진행하였다. 연구결과, 그리드 레이아웃이 다른 레이아웃보다 감성적 실재감과 학습만족도가 높은 것으로 밝혀졌다. 또한, 참가자가 그리드 레이아웃에 가장 많은 주의를 집중한 것으로 밝혀졌다. 그러므로 높은 학습경험을 위해서는 그리드 레이아웃과 참가자를 시각적으로 부각시키고 소통을 유도하는 레이아웃을 지향할 필요가 있다.

Object Detection Based on Deep Learning Model for Two Stage Tracking with Pest Behavior Patterns in Soybean (Glycine max (L.) Merr.)

  • Yu-Hyeon Park;Junyong Song;Sang-Gyu Kim ;Tae-Hwan Jun
    • 한국작물학회:학술대회논문집
    • /
    • 한국작물학회 2022년도 추계학술대회
    • /
    • pp.89-89
    • /
    • 2022
  • Soybean (Glycine max (L.) Merr.) is a representative food resource. To preserve the integrity of soybean, it is necessary to protect soybean yield and seed quality from threats of various pests and diseases. Riptortus pedestris is a well-known insect pest that causes the greatest loss of soybean yield in South Korea. This pest not only directly reduces yields but also causes disorders and diseases in plant growth. Unfortunately, no resistant soybean resources have been reported. Therefore, it is necessary to identify the distribution and movement of Riptortus pedestris at an early stage to reduce the damage caused by insect pests. Conventionally, the human eye has performed the diagnosis of agronomic traits related to pest outbreaks. However, due to human vision's subjectivity and impermanence, it is time-consuming, requires the assistance of specialists, and is labor-intensive. Therefore, the responses and behavior patterns of Riptortus pedestris to the scent of mixture R were visualized with a 3D model through the perspective of artificial intelligence. The movement patterns of Riptortus pedestris was analyzed by using time-series image data. In addition, classification was performed through visual analysis based on a deep learning model. In the object tracking, implemented using the YOLO series model, the path of the movement of pests shows a negative reaction to a mixture Rina video scene. As a result of 3D modeling using the x, y, and z-axis of the tracked objects, 80% of the subjects showed behavioral patterns consistent with the treatment of mixture R. In addition, these studies are being conducted in the soybean field and it will be possible to preserve the yield of soybeans through the application of a pest control platform to the early stage of soybeans.

  • PDF

시각정보획득과정에 나타난 주사판정과 성별 주시특성 - 지하철 홀 공간을 대상으로 - (Scanning Determination & Observation Features by Sex shown in the Process of Acquiring Visual Information - With the Object of Subway Station Hall Space -)

  • 김종하;최계영
    • 한국실내디자인학회논문집
    • /
    • 제23권6호
    • /
    • pp.115-124
    • /
    • 2014
  • This study has carried out scanning tests in order to figure out the features of scanning search by sex of space users, with the result of which the validity of data has been estimated. In this research, the scanning patterns were set up for verifying the typology of scanning paths and then the reason for determining scanning paths and the validity of estimation method were reviewed. Since the observation features depends on sex, the analysis of visual activities for acquiring any information in a space will reveal the intention and purpose of space users. The findings by analyzing the features of scanning pattern by sex which were found at the determination of scanning patterns can be defined as the followings. First, for estimating the process of space-information search, the movement distance at each point of continuative-observation data from the angle of eye-movement has been extracted, on the ground of which the fixation and movement of eye have been defined for the establishment of scanning-cut characteristics. Second, the scanning times were estimated for the extraction of effective observation data that would be used for comparative analysis, which showed that men had more data (3,398.2/64.4%) than women (2,998.2/55.6%). This enables the acknowledgment that the scanning cut of men was relatively less, which indicates that men will acquire more information on space than women in the process of observing any space. Third, men's scanning times (58.0 times/2.02 seconds) were less than those of women (71.9 times/1.39 seconds) while the scanning time of the former was longer than that of the latter, which shows the feature that it takes longer for men than women in scanning while the scanning times of the former is less than those of the latter. Fourth, the observation features can be determined that the combination of this result with the predominance character by sex for a general viewpoint to be employed indicates that while men employ mixed-scanning for observation activities to acquire space-information spending for longer time, women, by concentrated-scanning, focus on a single point for shorter time or stay at one location for a considerably long time for space-information acquirement.

얼굴 매력도와 신뢰성 평가에서 시각적 주의의 차이 (Difference in visual attention during the assessment of facial attractiveness and trustworthiness)

  • 성영신;조경진;김도연;김학진
    • 감성과학
    • /
    • 제13권3호
    • /
    • pp.533-540
    • /
    • 2010
  • 본 연구는 사회적 상호작용에서 필수적인 얼굴 인상형성 과정 중 가장 대표적이라고 할 수 있는 매력도와 신뢰성을 평가할 때 시각적 주의에서의 차이가 나타나는지를 관찰하기 위해 고안되었다. 실험 1에서는 참가자들이 얼굴 신뢰성과 매력도를 평가하는 동안 안구추적기(eye-tracker)를 사용하여 사람들의 시선움직임을 측정하고, 이 후 히트맵(heatmap) 분석을 통해 평가과제 간 차이를 관찰하였다. 그 결과, 사람들은 매력도를 평가할 때와 비교하여 신뢰성을 평가할 때, 얼굴의 주요요소라 할 수 있는 눈과 코 부위에서 더 많은 시선응시가 일어나는 것을 관찰하였다. 또한, 실험 2에서는 참가자들이 실험 1과 동일한 얼굴 평가과제를 수행하는 동안 얼굴의 각 요소에 단어를 짧게 제시하였다. 실험종료 후 실시된 회상검사 결과, 신뢰성 평가과제 시 코부위에 제시되었던 단어의 회상률이 매력도 평가과제 시와 비교하여 유의미하게 높은 것을 확인하였다. 본 연구를 통해 얼굴 신뢰성 판단은 시각적인 주의적 자원(attentional resources)의 할당과 관련된 측면에서 얼굴 매력도와는 구분되는 정보처리과정을 거치는 것을 확인할 수 있었다.

  • PDF

페이스북 건강정보 게시물 형식이 시각적 주의와 인지결과에 미치는 영향 (How do Formats of Health Related Facebook Posts Effect on Eye Movements and Cognitive Outcomes?)

  • 윤정원;신수연
    • 한국문헌정보학회지
    • /
    • 제55권3호
    • /
    • pp.219-237
    • /
    • 2021
  • 소셜미디어 상에서 보다 효과적인 건강정보 전달을 위해 시각정보가 많이 사용되고 있다. 그러나 시각정보가 사용된 소셜미디어상의 건강정보를 이용자들이 어떻게 읽고, 시각정보가 어느 정도 효과적인 정보전달을 하는가에 대한 연구는 미흡한 상황이다. 이에 본 연구는 페이스북 상의 건강정보를 담은 게시물을 사용하여 이용자들의 게시물 시선주시 패턴과 회상 및 인지테스트 결과를 보고하였다. 21명의 대학생들을 대상으로 하여, 온라인 설문지, 시선추적실험, 회상과 인식 테스트를 수행하였다. 그 결과, 첫째, 이용자들은 정보를 포함하고 있는 영역에 주의를 집중하는 것으로 밝혀졌다. 정보를 포함하지 않고 있는 사진보다는 본문의 내용에 이용자들은 먼저 시선집중하는 것으로 나타났다. 둘째, 인포그래픽을 포함한 게시물의 경우 이용자들이 인포그래픽에 주의를 집중하지만, 회상과 인식 테스트 결과는 사진을 포함한 게시물보다 낮게 나타났다. 특히 콜라주 형식의 복잡한 인포그래픽을 포함한 게시물의 회상과 인식 테스트 결과가 낮은 것으로 나타났다. 셋째, 본문 길이를 살펴보면, 본문의 길이가 짧은 게시물의 회상과 인식테스트 결과가 높은 것으로 나타났다. 본 연구의 의의는 페이스북 건강정보 제공자 및 배포자에게 페이스북 게시물 디자인 시 고려사항에 대해 제안점을 제시한 점을 들 수 있다.

얼굴로봇 Buddy의 기능 및 구동 메커니즘 (Functions and Driving Mechanisms for Face Robot Buddy)

  • 오경균;장명수;김승종;박신석
    • 로봇학회논문지
    • /
    • 제3권4호
    • /
    • pp.270-277
    • /
    • 2008
  • The development of a face robot basically targets very natural human-robot interaction (HRI), especially emotional interaction. So does a face robot introduced in this paper, named Buddy. Since Buddy was developed for a mobile service robot, it doesn't have a living-being like face such as human's or animal's, but a typically robot-like face with hard skin, which maybe suitable for mass production. Besides, its structure and mechanism should be simple and its production cost also should be low enough. This paper introduces the mechanisms and functions of mobile face robot named Buddy which can take on natural and precise facial expressions and make dynamic gestures driven by one laptop PC. Buddy also can perform lip-sync, eye-contact, face-tracking for lifelike interaction. By adopting a customized emotional reaction decision model, Buddy can create own personality, emotion and motive using various sensor data input. Based on this model, Buddy can interact probably with users and perform real-time learning using personality factors. The interaction performance of Buddy is successfully demonstrated by experiments and simulations.

  • PDF

ROS-based control for a robot manipulator with a demonstration of the ball-on-plate task

  • Khan, Khasim A.;Konda, Revanth R.;Ryu, Ji-Chul
    • Advances in robotics research
    • /
    • 제2권2호
    • /
    • pp.113-127
    • /
    • 2018
  • Robotics and automation are rapidly growing in the industries replacing human labor. The idea of robots replacing humans is positively influencing the business thereby increasing its scope of research. This paper discusses the development of an experimental platform controlled by a robotic arm through Robot Operating System (ROS). ROS is an open source platform over an existing operating system providing various types of robots with advanced capabilities from an operating system to low-level control. We aim in this work to control a 7-DOF manipulator arm (Robai Cyton Gamma 300) equipped with an external vision camera system through ROS and demonstrate the task of balancing a ball on a plate-type end effector. In order to perform feedback control of the balancing task, the ball is designed to be tracked using a camera (Sony PlayStation Eye) through a tracking algorithm written in C++ using OpenCV libraries. The joint actuators of the robot are servo motors (Dynamixel) and these motors are directly controlled through a low-level control algorithm. To simplify the control, the system is modeled such that the plate has two-axis linearized motion. The developed system along with the proposed approaches could be used for more complicated tasks requiring more number of joint control as well as for a testbed for students to learn ROS with control theories in robotics.

의사 랜덤 신호에 의한 동안계의 동특성 추정 (Dynamic Characteristics Estimation of the Oculomotor control System using Band-Limited Pseudo Random Signals)

  • 김성환;박상예
    • 대한전자공학회논문지
    • /
    • 제18권4호
    • /
    • pp.12-20
    • /
    • 1981
  • 본 연구에서는 랜덤신호로서 Gaussian 랜덤 신호와 PRBS(pseudo random binary sequence) 신호를 시험신호로 선정하였다. 실제로 인간을 실험대상으로 하여 E.O.G.(electro-oculography)로서 안구운동을 측정하고 통계통신이론에 바탕을 둔 랜덤신호 해석법으로 신호처리를 하여 동안계의 동 특성을 추정하였다. 본 연구에서 얻어진 주요결과를 요약하면 다음과 같다. 1. 주파수 응답의 결과 이득 특성은 0.7∼0.9Hz및 1.8∼2Hz에서 잠정적인 2번의 상승이 나타났으며, 이는 추적도중 발생한 saccade에 원인이 있었다. 2. Gaussian 랜덤입력에 대한 파워스펙트럼 밀도와 상호스펙트럼 밀도의 데이터로부터 단위시 간당 동안계의 정보전달비를 구한 결과 1.24 bits/sec를 나타냈다.

  • PDF

FPGA와 OpenCV를 이용한 눈동자 모션인식을 통한 의사소통 시스템 (Implementation to human-computer interface system with motion tracking using OpenCV and FPGA)

  • 이희빈;허승원;이승준;유윤섭
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 춘계학술대회
    • /
    • pp.696-699
    • /
    • 2018
  • 본 논문은 FPGA를 이용해서 몸을 움직이지 못하는 루게릭병 환자들을 위해 동공을 추적하여 의사 소통을 할 수 있게 해주는 시스템을 소개한다. OpenCV를 이용한 얼굴 및 눈동자 추적과 DE1-SoC보드를 이용하여 눈의 움직임 검출과 문자를 출력한다. 본 논문에서는 웹캠을 사용하고 눈동자를 추적하고 눈동자의 좌표 값에 따라 눈동자의 움직임을 파악하고 사용자의 의도에 맞는 문자를 출력한다. 비교적 개발비용이 저렴하고 업데이트 가능한 FPGA를 사용하고, 블루투스를 이용하여 핸드폰으로 쉽게 문자를 출력할 수 있는 시스템을 제안한다.

  • PDF

Convolutional neural network를 이용한 눈동자 모션인식 시스템 구현 (Implementation to eye motion tracking system using convolutional neural network)

  • 이승준;허승원;이희빈;유윤섭
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 춘계학술대회
    • /
    • pp.703-704
    • /
    • 2018
  • 본 논문은 몸을 움직이지 못하는 루게릭병 환자들을 위해 눈동자를 추적하여 의사소통 시스템에 필요한 눈동자의 위치를 파악해주는 인공신경망 설계에 대해 소개한다. Tensorflow를 이용해 신경망 생성 및 학습하고 학습된 신경망을 통하여 눈동자의 위치를 파악한다. 본 논문에서는 컨볼루션계층 2단계와 완전연결계층 2단계로 구성된 Convolution Neural Network(CNN)을 사용해서 구현했다.

  • PDF