• 제목/요약/키워드: Eye template

검색결과 48건 처리시간 0.028초

환경변화에 강인한 눈 영역 분리 및 안구 추적에 관한 연구 (Robust Eye Region Discrimination and Eye Tracking to the Environmental Changes)

  • 김병균;이왕헌
    • 한국정보통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.1171-1176
    • /
    • 2014
  • 안구 추적은 눈동자의 움직임을 감지하여 안구의 운동 상태나 시선의 위치를 추적하는 인간과 컴퓨터의 상호작용(HCI)분야이다. 안구 추적은 사용자의 시선 추적을 이용한 마케팅 분석이나 의도 인식 등에 적용되고 있으며 다양한 적용을 위한 많은 연구가 진행되고 있다. 안구 추적을 수행하는 방법 중에 영상처리를 이용한 안구 추적 방법이 사용자에게는 편리하지만 조명의 변화와 스케일 변화 그리고 회전이나 가려짐에는 추적의 어려움이 있다. 본 논문에서는 이미지 기반의 안구 추적시 발생되는 조명, 회전, 스케일 변화 등 환경변화에도 강인하게 안구 추적을 수행하기 위하여 두 단계의 추적 방법을 제안한다. 우선 Haar분류기를 이용하여 얼굴과 안구 영역을 추출하고, 추출된 안구 영역으로부터 CAMShift과 템플릿 매칭을 이용하여 강인하게 안구를 추적하는 두 단계의 안구 추적 방법을 제안하였다. 제안한 알고리즘은 조명 변화, 회전, 스케일 등 변화하는 환경 조건하에서 실험을 통하여 강인성을 증명하였다.

웨이블릿 계수와 Dynamic Positional Warping을 통한 EOG기반의 사용자 독립적 시선인식 (EOG-based User-independent Gaze Recognition using Wavelet Coefficients and Dynamic Positional Warping)

  • 장원두;임창환
    • 한국멀티미디어학회논문지
    • /
    • 제21권9호
    • /
    • pp.1119-1130
    • /
    • 2018
  • Writing letters or patterns on a virtual space by moving a person's gaze is called "eye writing," which is a promising tool for various human-computer interface applications. This paper investigates the use of conventional eye writing recognition algorithms for the purpose of user-independent recognition of eye-written characters. Two algorithms are presented to build the user-independent system: eye-written region extraction using wavelet coefficients and template generation. The experimental results of the proposed system demonstrated that with dynamic positional warping, an F1 score of 79.61% was achieved for 12 eye-written patterns, thereby indicating the possibility of user-independent use of eye writing.

3D VISION SYSTEM FOR THE RECOGNITION OF FREE PARKING SITE LOCATION

  • Jung, H.G.;Kim, D.S.;Yoon, P.J.;Kim, J.H.
    • International Journal of Automotive Technology
    • /
    • 제7권3호
    • /
    • pp.361-367
    • /
    • 2006
  • This paper describes a novel stereo vision based localization of free parking site, which recognizes the target position of automatic parking system. Pixel structure classification and feature based stereo matching extract the 3D information of parking site in real time. The pixel structure represents intensity configuration around a pixel and the feature based stereo matching uses step-by-step investigation strategy to reduce computational load. This paper considers only parking site divided by marking, which is generally drawn according to relevant standards. Parking site marking is separated by plane surface constraint and is transformed into bird's eye view, on which template matching is performed to determine the location of parking site. Obstacle depth map, which is generated from the disparity of adjacent vehicles, can be used as the guideline of template matching by limiting search range and orientation. Proposed method using both the obstacle depth map and the bird's eye view of parking site marking increases operation speed and robustness to visual noise by effectively limiting search range.

Roller형 AAO template를 이용한 반사방지 나노구조 필름 제작

  • 한재형;강영훈;최춘기
    • 한국진공학회:학술대회논문집
    • /
    • 한국진공학회 2011년도 제40회 동계학술대회 초록집
    • /
    • pp.484-485
    • /
    • 2011
  • 반사방지(Anti-Reflection, AR) 특성은 태양전지, LED, 광검출기 등의 광전소자와 디스플레이의 효율과 투과도를 향상시키기 위해 적용되고 있다. 또한 최근에 네비게이션, 스마트폰의 보급 증가로 인해 소형 디스플레이에 지문방지와 동시에 반사방지 기능을 갖는 필름이 사용되고 있다. 현재 적용되고 있는 반사방지 필름은 다층박막 코팅으로 형성된 필름[1]으로 생산단가와 박막의 내구성 및 신뢰성에 문제점을 가지고 있다. 이런 문제점을 해결하기 위해 나노구조로 제작 되는 반사방지 필름에 관한 연구가 활발히 진행되고 있다[2]. 나노구조로 형성된 반사방지 구조는 moth-eye 구조라고 하며, 기본 원리는 원뿔 형태를 형성된 나노 구조를 통해 공기와 나노구조 사이의 유효 굴절률을 서서히 변화시켜 반사를 줄이는 것이다. 그러므로 moth-eye 나노구조는 파장 이하의 pitch와 파장 크기의 높이를 갖도록 구조가 제작되어야 한다[3]. Photo-lithography[4], e-beam lithography[5], interference lithography[6], dip-pen nanolithography[7], hybrid nano-patterning lithography[8] 등 여러 가지 방법으로 나노 구조를 제작하고 있으나, 네비게이션이나 스마트폰 등에 적용될 수 있는 대면적으로 제작하기 위해서는 roll-to-roll printing과 같은 대면적 공정을 이용하여 제작하는 것이 필요하다. 본 논문에서는 원통형 알루미늄 rod에 양극산화를 통해 다공성 AAO(anode aluminium oxide) template를 제작하고, roll-to-roll printing 기술을 사용하여 moth-eye 나노구조를 갖는 반사방지 필름을 제작하는 것에 대해 기술하였다.

  • PDF

Color-based Face Detection for Alife Robot

  • Feng, Xiongfeng;Kubik, K.Bogunia
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.49.2-49
    • /
    • 2001
  • In this paper, a skin-color model in the HSV space was developed. Based on it, face region can be separated from other parts in a image. Face can be detected by the methods of Template and eye-pair. This realized in our robot.

  • PDF

눈의 상태 인식을 이용한 디지털 카메라 영상 자동 보정 모듈의 구현 (The Implementation of Automatic Compensation Modules for Digital Camera Image by Recognition of the Eye State)

  • 전영준;신홍섭;김진일
    • 융합신호처리학회논문지
    • /
    • 제14권3호
    • /
    • pp.162-168
    • /
    • 2013
  • 본 논문에서는 디지털 카메라를 이용하여 사진을 촬영할 때 눈의 감긴 상태를 확인하여 이를 자동으로 보정하여 출력해주는 모듈의 구현에 관하여 연구하였다. 먼저 촬영된 영상에 대하여 얼굴 및 눈의 영역을 검출하고 눈의 상태를 인식한다. 만약 눈이 감긴 영상이 촬영되었을 때 버퍼에 임시로 저장된 이전 프레임 영상들에 대하여 눈의 상태를 인식한 후, 가장 눈의 상태가 만족스러운 영상을 이용하여 눈을 보정한 후에 사진을 출력한다. 얼굴 및 눈을 정확하게 인식하기 위해서 SURF 알고리즘과 호모그래피 방법을 적용하여 영상을 보정하는 전처리 과정을 수행한다. 얼굴 영역과 눈 영역을 검출하는 것은 Haar-like feature 알고리즘을 이용하였다. 눈을 뜨고 있는 상태인지 감은 상태인지를 눈의 영역에 대한 템플릿매칭을 이용한 유사도를 판단하여 확인한다. 본 연구에서 개발된 기능을 다양한 형태의 얼굴 환경에서 테스트한 결과 얼굴이 포함된 영상에 대하여 효과적으로 보정이 수행됨을 확인하였다.

히스토그램 분석을 이용한 눈썹 검출 알고리즘 (Eyebrow Detection Algorithm Using the Histogram Analysis)

  • 이강호
    • 한국컴퓨터정보학회논문지
    • /
    • 제7권4호
    • /
    • pp.46-51
    • /
    • 2002
  • 본 논문은 얼굴 요소 중 눈썹을 검출하기 위한 기법으로, 눈썹은 얼굴 인식이나 표정 인식, 얼굴 애니메이션에 중요한 역할을 하는 요소이다. 색상 영역 분할을 통해 얼굴 영역을 검출한 다음, 형판 정합(template matching)을 통해 눈을 검출한다. 눈썹은 눈 바로 위에 위치하므로 검출된 눈의 위치 값을 이용하여 눈썹 후보 영역을 설정한다. 이렇게 설정된 눈썹 후보 영역에서 휘도(luminance) 성분의 히스토그램을 구한 다음, 이 히스토그램을 이용하여 thresholding 기법으로 눈썹을 검출한다. 일반적으로 이런 히스토그램은 하나의 bin을 갖는 peak나 valley가 무수히 많아 threshold 간을 결정하는데 어려움이 있다. 이런 어려움을 극복하고 좀더 쉽게 threshold 값을 찾기 위해 이런 peak나 valley를 제거해 히스토그램을 변형한다. 제안된 알고리즘은 얼굴 영역 검출부, 얼굴 요소 검출부, 그리고 FCP 추출부 등의 세 부분으로 구성되어있다.

  • PDF

Robust pupil detection and gaze tracking under occlusion of eyes

  • Lee, Gyung-Ju;Kim, Jin-Suh;Kim, Gye-Young
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권10호
    • /
    • pp.11-19
    • /
    • 2016
  • The size of a display is large, The form becoming various of that do not apply to previous methods of gaze tracking and if setup gaze-track-camera above display, can solve the problem of size or height of display. However, This method can not use of infrared illumination information of reflected cornea using previous methods. In this paper, Robust pupil detecting method for eye's occlusion, corner point of inner eye and center of pupil, and using the face pose information proposes a method for calculating the simply position of the gaze. In the proposed method, capture the frame for gaze tracking that according to position of person transform camera mode of wide or narrow angle. If detect the face exist in field of view(FOV) in wide mode of camera, transform narrow mode of camera calculating position of face. The frame captured in narrow mode of camera include gaze direction information of person in long distance. The method for calculating the gaze direction consist of face pose estimation and gaze direction calculating step. Face pose estimation is estimated by mapping between feature point of detected face and 3D model. To calculate gaze direction the first, perform ellipse detect using splitting from iris edge information of pupil and if occlusion of pupil, estimate position of pupil with deformable template. Then using center of pupil and corner point of inner eye, face pose information calculate gaze position at display. In the experiment, proposed gaze tracking algorithm in this paper solve the constraints that form of a display, to calculate effectively gaze direction of person in the long distance using single camera, demonstrate in experiments by distance.

다중 얼굴 특징 추적을 이용한 복지형 인터페이스 (Welfare Interface using Multiple Facial Features Tracking)

  • 주진선;신윤희;김은이
    • 대한전자공학회논문지SP
    • /
    • 제45권1호
    • /
    • pp.75-83
    • /
    • 2008
  • 본 논문에서는 얼굴의 다중 특징을 이용하여 마우스의 다양한 동작을 효율적으로 구현할 수 있는 복지형 인터페이스를 제안한다. 제안된 시스템은 5개의 모듈로 구성 된다 : 얼굴의 검출(Face detection), 눈의 검출(eye detection), 입의 검출(mouth detection), 얼굴특징 추적(lariat feature tracking), 마우스의 제어(mouse control). 첫 단계에서는 피부색 모델과 연결 성분 분석을 이용하여 얼굴 영역을 검출한다. 그 후 얼굴영역으로부터 정확히 눈을 검출하기 위하여 신경망 기반의 텍스처 분류기를 사용하여 얼굴 영역에서 눈 영역과 비 눈 영역을 구분한다. 일단 눈 영역이 검출되면 눈의 위치에 기반 하여 에지 검출기(edge detector)를 이용하여 입 영역을 찾는다. 눈 영역과 입 영역을 찾으면 각각 mean shift 알고리즘과 template matching을 사용하여 정확하게 추적되고, 그 결과에 기반 하여 마우스의 움직임 또는 클릭의 기능이 수행된다. 제안된 시스템의 효율성을 검증하기 위하여 제안된 인터페이스 시스템을 다양한 응용분야에 적용 하였다. 장애인과 비장애인으로 나누어 제안된 시스템을 실험한 결과 모두에게 실시간으로 보다 편리하고 친숙한 인터페이스로 활용 될 수 있다는 것이 증명 되었다.

인간-로봇 상호작용을 위한 자세가 변하는 사용자 얼굴검출 및 얼굴요소 위치추정 (Face and Facial Feature Detection under Pose Variation of User Face for Human-Robot Interaction)

  • 박성기;박민용;이태근
    • 제어로봇시스템학회논문지
    • /
    • 제11권1호
    • /
    • pp.50-57
    • /
    • 2005
  • We present a simple and effective method of face and facial feature detection under pose variation of user face in complex background for the human-robot interaction. Our approach is a flexible method that can be performed in both color and gray facial image and is also feasible for detecting facial features in quasi real-time. Based on the characteristics of the intensity of neighborhood area of facial features, new directional template for facial feature is defined. From applying this template to input facial image, novel edge-like blob map (EBM) with multiple intensity strengths is constructed. Regardless of color information of input image, using this map and conditions for facial characteristics, we show that the locations of face and its features - i.e., two eyes and a mouth-can be successfully estimated. Without the information of facial area boundary, final candidate face region is determined by both obtained locations of facial features and weighted correlation values with standard facial templates. Experimental results from many color images and well-known gray level face database images authorize the usefulness of proposed algorithm.