• 제목/요약/키워드: Eye detection

검색결과 430건 처리시간 0.027초

Gold Nanoparticle-Based Detection of Hg(II) in an Aqueous Solution: Fluorescence Quenching and Surface-Enhanced Raman Scattering Study

  • Ganbold, Erdene-Ochir;Park, Jin-Ho;Ock, Kwang-Su;Joo, Sang-Woo
    • Bulletin of the Korean Chemical Society
    • /
    • 제32권2호
    • /
    • pp.519-523
    • /
    • 2011
  • We studied the detection of the Hg(II) concentration in an aqueous solution using rhodamine dyes on citrate-reduced Au nanoparticles (NPs). The quenching effect from Au NPs was found to decrease as the Hg(II) concentration increased under our experimental conditions. As the fluorescence signals intensified, the surface-enhanced Raman scattering (SERS) intensities reduced on the contrary due to less rhodamine dyes on Au NPs as the Hg(II) concentration increased. The rhodamine 6G (Rh6G) and rhodamine 123 (Rh123) dyes were examined via fluorescence and SERS measurements depending on Hg(II) concentrations. Fast and easy fluorescence detection of an Hg (II) concentration as low as a few ppm could be achieved by naked eye using citrate-reduced Au NPs.

비행로봇의 항공 영상 온라인 학습을 통한 지상로봇 검출 및 추적 (UGR Detection and Tracking in Aerial Images from UFR for Remote Control)

  • 김승훈;정일균
    • 로봇학회논문지
    • /
    • 제10권2호
    • /
    • pp.104-111
    • /
    • 2015
  • In this paper, we proposed visual information to provide a highly maneuverable system for a tele-operator. The visual information image is bird's eye view from UFR(Unmanned Flying Robot) shows around UGR(Unmanned Ground Robot). We need UGV detection and tracking method for UFR following UGR always. The proposed system uses TLD(Tracking Learning Detection) method to rapidly and robustly estimate the motion of the new detected UGR between consecutive frames. The TLD system trains an on-line UGR detector for the tracked UGR. The proposed system uses the extended Kalman filter in order to enhance the performance of the tracker. As a result, we provided the tele-operator with the visual information for convenient control.

실시간 3차원 얼굴 방향 식별 (Real Time Discrimination of 3 Dimensional Face Pose)

  • 김태우
    • 한국정보전자통신기술학회논문지
    • /
    • 제3권1호
    • /
    • pp.47-52
    • /
    • 2010
  • 본 논문에서는 능동적 적외선 조명을 이용한 3차원 얼굴 방향 식별을 위한 새로운 방법을 제안하고자 한다. 적외선 조명 하에서 밝게 나타나는 동공을 효과적으로 실시간 검출하여 추적할 수 있는 알고리즘을 제안한다. 다른 방향의 얼굴들에서 동공의 기하학적 왜곡을 탐지하여, 3차원 얼굴 방향과 동공의 기하학적 특성 사이의 관계를 나타낸 학습 데이터를 사용하여 고유한 눈 특징 공간을 구축하였고, 입력된 질의 영상에 대한 3차원 얼굴 방향을 고유한 눈 특징 공간을 사용하여 실시간으로 얼굴 방향을 측정할 수 있었다. 실험결과 카메라에 근접한 실험 대상자들에 대하여 최소 94.67%, 최고 100% 의 식별 결과를 나타내었다.

  • PDF

능동적 적외선 조명을 이용한 실시간 3차원 얼굴 방향 식별 (Real Time 3D Face Pose Discrimination Based On Active IR Illumination)

  • 박호식;배철수
    • 한국정보통신학회논문지
    • /
    • 제8권3호
    • /
    • pp.727-732
    • /
    • 2004
  • 본 논문에서는 능동적 적외선 조명을 이용한 3차원 얼굴 방향 식별을 위한 새로운 방법을 제안하고자 한다. 적외선 조명 하에서 밝게 나타나는 동공을 효과적으로 실시간 검출하여 추적할 수 있는 알고리즘을 제안한다. 다른 방향의 얼굴들에서 동공의 기하학적 왜곡을 탐지하여, 3차원 얼굴 방향과 동공의 기하학적 특성 사이의 관계를 나타낸 학습 데이터를 사용하여 고유한 눈 특징 공간을 구축하였고, 입력된 질의 영상에 대한 3차원 얼굴 방향을 고유한 눈 특징 공간을 사용하여 실시간으로 얼굴 방향을 측정할 수 있었다. 실험결과 카메라에 근접한 실험 대상자들에 대하여 최소 94.67%, 최고 100%의 식별 결과를 나타내었다.

안저 영상에서 헤이지안 알고리즘을 이용한 혈관 검출 (Detection of Retinal Vessels of Fundus Photograph Using Hessian Algorithm)

  • 강호철;김광기;오휘빈;황정민
    • 한국멀티미디어학회논문지
    • /
    • 제12권8호
    • /
    • pp.1082-1088
    • /
    • 2009
  • 망막 질환의 진단에서 안저영상은 환자의 망막 상태에 대한 객관적인 평가와 기록에 중요하다. 특히 혈관의 분석은 당뇨병, 고혈압 등의 진단과 경과 관찰에 매우 중요하다. 혈관 영역을 검출하기 위해 톱-햇(Top-hat) 필터를 사용하여 균일하지 않은 배경 영상을 보상하고, 대비 제한의 적응적 히스토그램 보정(contrast limited adaptive histogram equalization) 방법을 적용하여 대비를 향상시켰다. 영상에 전처리를 한 후 헤이지안 행렬(hessian matrix)을 적용하여 혈관 성분을 검출한 결과 제안된 방법이 기존의 정합 필터(matched filter) 방법보다 약 1.3% 더 정확하였다. 결론으로 제안한 알고리즘은 안저 영상에서 혈관 영역을 검출하는데 있어서 기존 방법에 비해서 향상되었다.

  • PDF

조감도 및 차량 움직임 벡터를 이용한 교통사고 검출 (Traffic Accident Detection Using Bird's-Eye View and Vehicle Motion Vector)

  • 손현철;시종욱;김다슬;이용환;김성영
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2020년도 제62차 하계학술대회논문집 28권2호
    • /
    • pp.71-72
    • /
    • 2020
  • 본 논문에서는 자동차 블랙박스를 사용하여 촬영된 비디오에서 자동차 사고 발생 여부를 판단하는 방법을 제안한다. 제안한 방법은 우선 객체 추적 과정에서 구한 조감도 좌표를 사용하여 각 차량 사이의 거리에 기반을 두고 교통사고 여부를 판단한다. 그런데 거리만을 사용하여 사고 여부를 판단하는 경우 자동차가 밀집된 주·정차 환경에서는 오검출의 확률이 높아질 수 있다. 이를 위해 각 차량에 대한 움직임 벡터를 계산하고 벡터 간의 정보(사잇각과 크기 등)를 사용하여 차량의 주·정차 여부를 판단한 후 사고 검출 대상에서 배제할 수 있도록 한다. 주·정차 판단 여부를 통해 사고 검출의 정확도를 향상할 수 있는 것을 실험적으로 확인하였다.

  • PDF

얼굴 인식 기반 위변장 감지 시스템 (Fake Face Detection and Falsification Detection System Based on Face Recognition)

  • 김준영;조성원
    • 스마트미디어저널
    • /
    • 제4권4호
    • /
    • pp.9-17
    • /
    • 2015
  • 최근 지능형 범죄가 늘면서 첨단 보안 기술에 대한 요구가 점차 늘어나고 있다. 현재까지 보고된 위, 변장 영상 검출방법은 실용화를 위하여 정확도 개선이 요구된다. 본 논문에서는 사람의 얼굴에 대하여 동공의 반사도를 이용하여 위조 영상을 판별하고 아다부스트를 이용하여 만든 얼굴 부분별 검출기를 사용한 얼굴 변장 영상을 판별한다. 제안된 시스템은 다중 스케일 가버 특징 벡터를 기반으로 눈의 위치를 찾은 후 템플릿 매칭을 통해서 정확히 찾아진 눈 위치의 동공을 조사하여 최대값과 최소값을 구하여 위조 여부를 판별하고 부분별 검출기를 사용하여 눈과 코의 검출 여부를 판단하여 각각 선글라스와 마스크의 착용 여부를 판단하고 선글라스&마스크 검출기를 사용하여 얼굴이 검출되지 않았을 경우를 대비하였다. 실험을 통하여 본 논문에서 제안한 방법이 더욱 신뢰성 높은 위, 변장판별시스템임을 확인하였다.

색상기반 주목연산자를 이용한 정규화된 얼굴요소영역 추출 (Normalized Region Extraction of Facial Features by Using Hue-Based Attention Operator)

  • 정의정;김종화;전준형;최흥문
    • 한국통신학회논문지
    • /
    • 제29권6C호
    • /
    • pp.815-823
    • /
    • 2004
  • 색상(hue) 기반 주목연산자와 조합누적투영함수(combinational integral projection function: CIPF)를 제안하여 조명변화에 강건하게 정규화된 얼굴요소영역을 추출하였다. 살색 필터를 도입하여 얼굴후보영역들을 추출하고, 거기에 색상과 대칭성에 기반한 주목연산자를 적용하여 조명변화에 강건하게 두 눈의 위치를 정확히 검출할 수 있도록 하였으며, 색상기반 눈 분산 필터로 눈을 검증하여 얼굴영역을 확인하였다. 또한, 색상과 밝기 성분을 조합한 조합누적투영함수를 사용하여 두 눈의 위치를 기준으로 조명변화나 수염의 존재유무에 둔감하게 눈썹 및 입의 수직위치를 구하고, 이를 바탕으로 정규화된 얼굴영역 및 그 요소영역을 추출하였다. AR 얼굴 데이터베이스[8]에 제안한 색상기반 주목연산자를 적용한 결과 기존 명도기반 주목연산자에 비해 약 39.3%의 눈 검출 성능향상을 보임으로써 조명방향 변화에 강건하게 정규화된 얼굴 및 그 요소영역을 일관성 있게 추출할 수 있음을 확인하였다.

연속 영상에서 강인한 얼굴 및 얼굴 특징 추적 (Robust Face and Facial Feature Tracking in Image Sequences)

  • 장경식;이찬희
    • 한국정보통신학회논문지
    • /
    • 제14권9호
    • /
    • pp.1972-1978
    • /
    • 2010
  • AAM(Active Appearance Model)은 변형 가능한 형태의 검출에 가장 효과 적인 방법의 하나이며, 수학적으로 최적화 문제이다. 비용함수는 최소자승 함수이어서 볼록 함수이나, 탐색 공간이 볼록공간이 아니므로 국소 최소값이 전역 최소값인 것으로 보장 되지 않는다. 즉 초기값이 전역 최소값 근방에서 출발하지 않으면, 지역 최소값에 수렴하여 정확한 얼굴 윤곽 검출이 어려워진다. 본 논문에서는 연속적인 입력영상에 SIFT(Scale Invariant Feature Transform)와 유전자 알고리즘을 사용하여 눈동자를 검출하고 AAM 모델의 초기화 정보로 사용함으로써 조명과 배경에 강인한 AAM 기반의 얼굴 정합 방법을 제안한다. 실험을 통하여 제안한 AAM 기반 얼굴 정합 방법이 자세, 얼굴 배경 등에 대해 기존의 AAM 기반 얼굴 정합 방법보다 더 강인한 것으로 확인 되었다.

Robust pupil detection and gaze tracking under occlusion of eyes

  • Lee, Gyung-Ju;Kim, Jin-Suh;Kim, Gye-Young
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권10호
    • /
    • pp.11-19
    • /
    • 2016
  • The size of a display is large, The form becoming various of that do not apply to previous methods of gaze tracking and if setup gaze-track-camera above display, can solve the problem of size or height of display. However, This method can not use of infrared illumination information of reflected cornea using previous methods. In this paper, Robust pupil detecting method for eye's occlusion, corner point of inner eye and center of pupil, and using the face pose information proposes a method for calculating the simply position of the gaze. In the proposed method, capture the frame for gaze tracking that according to position of person transform camera mode of wide or narrow angle. If detect the face exist in field of view(FOV) in wide mode of camera, transform narrow mode of camera calculating position of face. The frame captured in narrow mode of camera include gaze direction information of person in long distance. The method for calculating the gaze direction consist of face pose estimation and gaze direction calculating step. Face pose estimation is estimated by mapping between feature point of detected face and 3D model. To calculate gaze direction the first, perform ellipse detect using splitting from iris edge information of pupil and if occlusion of pupil, estimate position of pupil with deformable template. Then using center of pupil and corner point of inner eye, face pose information calculate gaze position at display. In the experiment, proposed gaze tracking algorithm in this paper solve the constraints that form of a display, to calculate effectively gaze direction of person in the long distance using single camera, demonstrate in experiments by distance.