• 제목/요약/키워드: 눈썹검출

검색결과 46건 처리시간 0.031초

서프 및 하프변환 기반 운전자 동공 검출기법 (Face and Iris Detection Algorithm based on SURF and circular Hough Transform)

  • 아텀 렌스키;이종수
    • 대한전자공학회논문지SP
    • /
    • 제47권5호
    • /
    • pp.175-182
    • /
    • 2010
  • 본 논문에서는 얼굴과 동공을 검색하는 새로운 기법을 제시하며, 안전운행을 위한 운전자의 동공 감시에 적용한 실험결과를 포함하고 있다. 제시된 기법은 세 단계 주요 과정을 거치는데, 먼저 스킨칼라 세그먼테이션 기법으로 얼굴을 찾는 과정으로 이는 지금까지 사용된 휴리스틱모델이 아닌 학습과정 모델에 기반을 두고 있다. 다음에 얼굴 특징 세그먼테이션으로 눈, 입, 눈썹 등의 부분을 검출 하는데, 이를 위해 얼굴 각 부분에서 추출한 고유 특징들에 대한 PDF 추정을 사용하고 있다. 마지막으로 서큘러 하프 변환기법으로 눈 안의 동공을 찾아낸다. 제시된 기법을 조명이 다른 웹 얼굴 영상과 운전자의 CCD 얼굴 영상에 적용하여 동공을 찾아내는 실험을 하여, 높은 동공 검출율을 확인하였다.

색상 움직임을 이용한 얼굴 특징점 자동 추출 (Automatic Extraction of the Facial Feature Points Using Moving Color)

  • 김남호;김형곤;고성제
    • 전자공학회논문지S
    • /
    • 제35S권8호
    • /
    • pp.55-67
    • /
    • 1998
  • 본 논문에서는 컬러 비디오 시퀀스 상에서 눈과 입에 해당하는 얼굴 특징점을 고속으로 추출하는 방법을 제안한다. 자유로운 움직임을 갖는 얼굴 영역을 안정적으로 추출하기 위해 얼굴 색상 분포를 이용한 색상 변환 영상에 움직임 검출 기법을 적용하여 움직이는 살색 부분만을 효율적으로 검출하는 색상 움직임 개념을 사용하였다. 움직임 정보는 살색의 가능성 정도에 따라 가중치가 주어지며 화소 단위의 움직임 여부를 결정하는 문턱값도 살색의 가능성 정도에 따라 적응적으로 결정된다. 눈의 색상분포와 형태소 연산자를 사용한 움직임 살색 영역에서 눈 후보 영역을 추출하고 눈과 눈썹의 상호 위치 관계를 이용하여 눈의 영역을 최종 결정한다. 입의 영역은 눈의 위치를 기준으로 입 후보 영역을 정하고 색상 히스토그램을 이용하여 입의 영역을 검출한다. 찾아진 눈과 입의 영역에서 정확한 특징점의 위치를 구하기 위해 PCA (Principal Component Analysis)를 사용하였다. 실험 결과 복잡한 배경, 개인적인 편차, 얼굴의 방향과 크기 등에 영향을 받지 않고 고속으로 정확한 얼굴의 특징점을 추출할 수 있었다.

  • PDF

간단한 얼굴 방향성 검출방법 (A Simple Way to Find Face Direction)

  • 박지숙;엄성용;조현희;정민교
    • 한국멀티미디어학회논문지
    • /
    • 제9권2호
    • /
    • pp.234-243
    • /
    • 2006
  • 최근 급속한 HCI(Human-Computer Interaction) 및 감시 기술의 발달로, 얼굴영상을 처리하는 다양한 시스템들에 대한 관심이 높아지고 있다. 그러나 이런 얼굴영상을 처리하는 시스템들에 대한 연구는 주로 얼굴인식이나 얼굴 표정분석과 같은 분야에 집중되었고, 얼굴의 방향성 검출과 같은 분야에는 많은 연구가 수행되지 못하였다. 본 논문은 두 눈썹과 아래 입술로 구성된 얼굴삼각형(Facial Triangle)이라는 특징을 이용하여 얼굴의 방향성을 쉽게 측정하는 방법을 제안한다. 특히, 하나의 이미지만을 사용하여 얼굴의 수평 회전각과 수직 회전각을 구하는 간단한 공식을 소개한다. 수평회전각은 좌 우 얼굴삼각형간의 면적비율을 이용하여 계산하고, 수직회전각은 얼굴삼각형의 밑변과 높이 비율을 이용하여 계산한다. 실험을 통해, 제안하는 방법은 오차범위 ${\pm}1.68^{\circ}$ 내에서 수평회전각을 구할 수 있었고, 수직회전각은 회전각이 증가할수록 오류가 줄어드는 경향을 보여주었다.

  • PDF

얼굴정렬과 AdaBoost를 이용한 얼굴 표정 인식 (Facial Expression Recognition using Face Alignment and AdaBoost)

  • 정경중;최재식;장길진
    • 전자공학회논문지
    • /
    • 제51권11호
    • /
    • pp.193-201
    • /
    • 2014
  • 본 논문에서는 얼굴영상에 나타난 사람의 표정을 인식하기 위해 얼굴검출, 얼굴정렬, 얼굴단위 추출, 그리고 AdaBoost를 이용한 학습 방법과 효과적인 인식방법을 제안한다. 입력영상에서 얼굴 영역을 찾기 위해서 얼굴검출을 수행하고, 검출된 얼굴영상에 대하여 학습된 얼굴모델과 정렬(Face Alignment)을 수행한 후, 얼굴의 표정을 나타내는 단위요소(Facial Units)들을 추출한다. 본 논문에서 제안하는 얼굴 단위요소들을 표정을 표현하기 위한 기본적인 액션유닛(AU, Action Units)의 하위집합으로 눈썹, 눈, 코, 입 부분으로 나눠지며, 이러한 액션유닛에 대하여 AdaBoost 학습을 수행하여 표정을 인식한다. 얼굴유닛은 얼굴표정을 더욱 효율적으로 표현할 수 있고 학습 및 테스트에서 동작하는 시간을 줄여주기 때문에 실시간 응용분야에 적용하기 적합하다. 실험결과, 제안하는 표정인식 시스템은 실시간 환경에서 90% 이상의 우수한 성능을 보여준다.

퍼지 모델을 기반으로 한 컬러 영상에서의 감성 인식 (Fuzzy Model-Based Emotion Recognition Using Color Image)

  • 주영훈;정근호
    • 한국지능시스템학회논문지
    • /
    • 제14권3호
    • /
    • pp.330-335
    • /
    • 2004
  • 본 논문에서는 컬러 영상을 이용하여 인간의 감성을 인식할 수 있는 방법을 제안한다. 먼저, 컬러 영상으로부터 색모델을 이용하여 피부색 영역을 추출한다. 그 다음, 추출된 피부색 영상으로부터 Eigenface를 이용하여 얼굴 영역을 검출한다. 마지막으로, 얼굴 영역으로부터 인간 얼굴의 특징 점(눈썹, 눈, 코, 입)들을 추출하고, 각 특징 점들 간의 구조적인 관계로부터 인간의 감성(기쁨, 놀람, 슬픔, 분노)을 인식하는 퍼지 모델을 구성한다. 이 모델로부터 퍼지 이론을 이용하여 최종적으로 인간의 감성을 추론한다. 마지막으로, 제안된 방법은 실험을 통해 그 응용 가능성을 확인한다.

형태와 가중치 벡터를 이용한 눈동자와 입술 검출 (Pupil and Lip Detection using Shape and Weighted Vector based on Shape)

  • 장경식
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권5호
    • /
    • pp.311-318
    • /
    • 2002
  • 이 논문은 눈동자와 입술을 효과적으로 인식하는 방법을 제안하였다. 얼굴에서 가장 어두운 부분 중의 하나인 눈동자와 밝은 부분인 흰자위로 구성되는 눈의 형태적인 특징과 눈동자와 눈썹 사이의 관계를 반영하는 평가함수를 이용하여 눈동자를 인식하였다. 입술 형태, 입술과 인접한 피부와의 밝기 차이를 반영하는 가중치 벡터들을 사용하여 두 입술 사이의 경계선과 입술의 4개 특징점(양 끝점 및 위와 아래의 끝점)을 찾았다. 여러 영상들에 대해 실험하여 좋은 결과를 얻었다.

ASM 기반의 얼굴 특징 영역 추출 및 변형된 알파 블렌딩을 이용한 가상 메이크업 프로그램 (A Virtual Makeup Program Using Facial Feature Area Extraction Based on Active Shape Model and Modified Alpha Blending)

  • 구자명;조태훈
    • 한국정보통신학회논문지
    • /
    • 제14권8호
    • /
    • pp.1827-1835
    • /
    • 2010
  • 본 논문은 사용자 사진에서 ASM(Active Shape Model)을 이용하여 얼굴의 각 특징 점을 추출하고, 추출 된 특징점을 이용하여 화장할 부분의 영역을 생성 한다. 기존의 가상 메이크업 프로그램에서는 사용자가 수동적으로 몇 개의 특징 점을 정확히 선택해야 하는데서 불편함을 초래했다. 본 논문에서 제안하는 가상 메이크업 프로그램에서는 ASM을 이용하여 사용자의 입력을 필요로 하지 않는다. 자연스러운 화장 효과를 표현하기 위해서 기본적인 알파 블렌딩을 각각 화장품의 특징에 맞게 변형하여 사용자 피부색과 화장품의 색을 혼합한다. 얼굴 윤곽, 눈, 눈썹, 입술, 볼의 영역을 생성하고, Foundation, Blush, Lip Stick, Lip Liner, Eye Pencil, Eye Liner, Eye Shadow 종류의 화장을 할 수 있게 구현하였다.

기울기 검출에 의한 얼굴영상의 인식의 개선에 관한 연구 (A Study on the Improvement of the Facial Image Recognition by Extraction of Tilted Angle)

  • 이지범;이호준;고형화
    • 한국통신학회논문지
    • /
    • 제18권7호
    • /
    • pp.935-943
    • /
    • 1993
  • 본 논문은 얼굴화상에서 국부적일 특징점을 추출하여 기울기에 robust하게 얼굴을 인식하는 새로운 알고리즘을 제안하였다. 바른 자세의 영상과 기운 자세의 영상을 받아 2치화를 한 후 라플라시안 윤곽선 검출기를 이용하여 윤곽선 영상을 얻는다. 윤곽선 영상에서 최외각 윤곽선을 제거하고 내부 윤곽선은 위에서 아래방향으로 주사하면서 나타나는 순서에 따라 네 영역을 각각 A, B, C, D영역으로 레이블링하고 기준선을 중심으로 좌우로 영역을 분할하고 좌우 영역을 상하로 분할하여 모두 네 영역으로 나눈다. 좌우 눈간 거리, 눈과 눈썹사이의 거리, 눈과 코와의 거리 등을 이용하여 최종적으로 두 눈을 찾고 두 눈의 중심좌표값을 이용하여 기울기를 구한다. 기울기 정보를 이용하여 기운 영상을 바로세우고 난 후 눈 아래 영역에서부터 탐색하여 코와 입을 찾는다. 각 특징점간 거리를 계산하고 이를 두 눈사이의 거리를 기준으로 정규화하여 영상의 크기에 무관하게 한다. 인식 실험 결과 25명에 대하여 기울기를 고려한 경우 88%의 인식율을 보였고 기울기를 고려하지 않은 경우 60%의 인 식 율을 보였다.

  • PDF

색상기반 주목연산자를 이용한 정규화된 얼굴요소영역 추출 (Normalized Region Extraction of Facial Features by Using Hue-Based Attention Operator)

  • 정의정;김종화;전준형;최흥문
    • 한국통신학회논문지
    • /
    • 제29권6C호
    • /
    • pp.815-823
    • /
    • 2004
  • 색상(hue) 기반 주목연산자와 조합누적투영함수(combinational integral projection function: CIPF)를 제안하여 조명변화에 강건하게 정규화된 얼굴요소영역을 추출하였다. 살색 필터를 도입하여 얼굴후보영역들을 추출하고, 거기에 색상과 대칭성에 기반한 주목연산자를 적용하여 조명변화에 강건하게 두 눈의 위치를 정확히 검출할 수 있도록 하였으며, 색상기반 눈 분산 필터로 눈을 검증하여 얼굴영역을 확인하였다. 또한, 색상과 밝기 성분을 조합한 조합누적투영함수를 사용하여 두 눈의 위치를 기준으로 조명변화나 수염의 존재유무에 둔감하게 눈썹 및 입의 수직위치를 구하고, 이를 바탕으로 정규화된 얼굴영역 및 그 요소영역을 추출하였다. AR 얼굴 데이터베이스[8]에 제안한 색상기반 주목연산자를 적용한 결과 기존 명도기반 주목연산자에 비해 약 39.3%의 눈 검출 성능향상을 보임으로써 조명방향 변화에 강건하게 정규화된 얼굴 및 그 요소영역을 일관성 있게 추출할 수 있음을 확인하였다.

ATM 보안 시스템을 위한 모델 인증 알고리즘 (Model Verification Algorithm for ATM Security System)

  • 정헌;임춘환;편석범
    • 대한전자공학회논문지TE
    • /
    • 제37권3호
    • /
    • pp.72-78
    • /
    • 2000
  • 본 연구에서는 ATM 보안 시스템을 위한 DCT와 신경망 기반 모델 인증 알고리즘을 제안한다. CCD 카메라를 이용하여 일정한 조도와 거리에서 30명의 얼굴영상을 획득한 후 데이터 베이스를 구성한다. 모델 인증 실험을 위해 동일인에 대해 학습영상 4장 그리고 실험 영상 4장을 각각 획득한다. 얼굴영상의 에지를 검출한 후 에지 분포에 의해 얼굴영상에서 사각형태로 특징영역을 검출한다. 특징영역에는 눈썹, 눈, 코, 입, 그리고 뺨이 포함된다. 특징영역에 대해 DCT를 수행한 후 대각방향의 계수 합을 구해 특징벡터를 추출한다. 특징벡터는 정규화되어 신경망의 입력 벡터가 된다. 패스워드를 고려하지 않는 경우, 데이터 베이스를 검색한 결과 학습된 얼굴영상에 대해서는 100%의 인증율을 나타내었고 학습되지 않는 얼굴영상의 경우에는92%의 인증률을 나타내었다. 그러나 패스워드를 고려한 경우 모두 100%의 인증율을 보였다.

  • PDF