• 제목/요약/키워드: robust face detection

검색결과 125건 처리시간 0.02초

얼굴 탐지를 적용한 CMT 객체 추적 기법의 스마트폰 활용 연구 (A Study on Utilizing Smartphone for CMT Object Tracking Method Adapting Face Detection)

  • 이상구
    • 문화기술의 융합
    • /
    • 제7권1호
    • /
    • pp.588-594
    • /
    • 2021
  • 최근 영상 콘텐츠의 확산에 따라 기존 콘텐츠들이 동영상으로 전환되고 있으며, 새로운 플랫폼들의 등장으로 인해 영상 콘텐츠 생태계의 성장은 가속화되고 있다. 이처럼 가속화된 성장은 전문가의 영역으로 분류되던 동영상 제작 및 편집 기술들을 일반인들 또한 쉽게 접하고 이용할 수 있도록 기술의 보편화 과정에 큰 영향을 미치고 있다. 이러한 기술들의 발전으로 인해 사람의 수작업을 통해서만 영상을 녹화하고 조절하던 과정들을 객체 추적 기술에 기반하여 자동으로 촬영하고자 하는 객체를 찾아 화면의 정중앙에 위치시켜 영상을 녹화하는 자동화 과정이 가능하게 되었다. 하지만 추적하고자 하는 객체를 지정하는 일은 아직까지 사람의 수작업을 요구하며 객체를 지정하는 수작업 과정에서 지연이나 객체 지정에 실수가 발생할 수도 있다. 이에 따라, 본 연구에서는 Haar Cascade Classifier를 활용한 얼굴 탐지기법과 CMT 객체 추적 알고리즘을 결합한 새로운 객체 추적 기법을 제안한다. 제안된 시스템은 스마트폰에서 실시간 연속적인 객체추적을 위한 효율적이고 강인한 영상추적 시스템에 잘 응용될 수 있다.

An Eye Location based Head Posture Recognition Method and Its Application in Mouse Operation

  • Chen, Zhe;Yang, Bingbing;Yin, Fuliang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권3호
    • /
    • pp.1087-1104
    • /
    • 2015
  • An eye location based head posture recognition method is proposed in this paper. First, face is detected using skin color method, and eyebrow and eye areas are located based on gray gradient in face. Next, pupil circles are determined using edge detection circle method. Finally, head postures are recognized based on eye location information. The proposed method has high recognition precision and is robust for facial expressions and different head postures, and can be used in mouse operation. The experimental results reveal the validity of proposed method.

PCA기반의 스테레오 얼굴영상에서 거리에 따른 인식률 비교 (Comparison of recognition rate with distance on stereo face images base PCA)

  • 박장한;남궁재찬
    • 대한전자공학회논문지SP
    • /
    • 제42권1호
    • /
    • pp.9-16
    • /
    • 2005
  • 본 논문에서는 스테레오 영상에서 좌ㆍ우측 영상을 입력받아 거리 변화에 따른 얼굴인식률을 PCA(Principal Component Analysis) 알고리듬으로 비교한다. 제안된 방법에서는 RGB컬러공간에서 YCbCr컬러공간으로 변환하여 얼굴영역을 검출한다. 또한 스테레오 영상을 이용하여 거리를 취득한 후 추출된 얼굴영상의 확대 및 축소하여 보다 강건한 얼굴영역을 추출하고, PCA 알고리듬으로 인식률을 실험하였다. 취득된 얼굴영상의 평균적인 인식결과로 98.61%(30cm), 98.91%(50cm), 99.05%(100cm), 99.90%(120cm), 97.31%(150cm), 96.71%(200cm)의 인식률을 얻을 수 있었다. 따라서 실험을 통하여 제안된 방법은 거리에 따라 확대 및 축소를 적용하면 높은 인식률을 얻을 수 있음을 보였다.

Improved Two-Phase Framework for Facial Emotion Recognition

  • Yoon, Hyunjin;Park, Sangwook;Lee, Yongkwi;Han, Mikyong;Jang, Jong-Hyun
    • ETRI Journal
    • /
    • 제37권6호
    • /
    • pp.1199-1210
    • /
    • 2015
  • Automatic emotion recognition based on facial cues, such as facial action units (AUs), has received huge attention in the last decade due to its wide variety of applications. Current computer-based automated two-phase facial emotion recognition procedures first detect AUs from input images and then infer target emotions from the detected AUs. However, more robust AU detection and AU-to-emotion mapping methods are required to deal with the error accumulation problem inherent in the multiphase scheme. Motivated by our key observation that a single AU detector does not perform equally well for all AUs, we propose a novel two-phase facial emotion recognition framework, where the presence of AUs is detected by group decisions of multiple AU detectors and a target emotion is inferred from the combined AU detection decisions. Our emotion recognition framework consists of three major components - multiple AU detection, AU detection fusion, and AU-to-emotion mapping. The experimental results on two real-world face databases demonstrate an improved performance over the previous two-phase method using a single AU detector in terms of both AU detection accuracy and correct emotion recognition rate.

방향성 2차원 타원형 필터를 이용한 스테레오 기반 포즈에 강인한 사람 검출 (Stereo-based Robust Human Detection on Pose Variation Using Multiple Oriented 2D Elliptical Filters)

  • 조상호;김태완;김대진
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권10호
    • /
    • pp.600-607
    • /
    • 2008
  • 이 논문은 방향성 2차원 타원형 필터(Multiple Oriented 2D Elliptical Filters;MO2DEFs)를 사용하여 스테레오 영상으로부터 포즈에 강인한 사람 검출을 제안한다. 기존의 물체 지향 크기 적응 필터(Object Oriented Scale Adaptive Filter;OOSAF)는 정면을 보고 있는 사람만을 검출하는 단점을 지니고 있는데 반해 제안한 방향성 2차원 타원형 필터는 사람의 크기나 포즈에 관계없이 사람을 검출하고 추적한다. 2D 공간-깊이 히스토그램에 특정 각도로 향하는 4개의 2차원 타원형 필터들을 적용하고, 필터링 된 히스토그램에서 임계값을 통해서 사람을 검출한 다음, MO2D2EFs 중 승적 결과가 가장 큰 2차원 타원형 필터의 방향을 사람의 방향으로 판단한다. 사람 후보들은 얼굴을 검출하거나 검출된 사람의 선택된 방향의 머리-어께 형태를 정합함으로서 검증한다. 실험 결과는 (1) 포즈 각도 예측의 정확도는 약 88%이고, (2) 제안한 MO2DEFs를 사용한 사람 검출의 성능이 OOSAF를 사용한 사람 검출의 성능보다 $15{\sim}20%$만큼 향상되었으며, 특히 정면이 아닌 사람의 경우에 더 향상이 있었다.

다양한 형식의 얼굴정보와 준원근 카메라 모델해석을 이용한 얼굴 특징점 및 움직임 복원 (Facial Features and Motion Recovery using multi-modal information and Paraperspective Camera Model)

  • 김상훈
    • 정보처리학회논문지B
    • /
    • 제9B권5호
    • /
    • pp.563-570
    • /
    • 2002
  • 본 논문은 MPEG4 SNHC의 얼굴 모델 인코딩을 구현하기 위하여 연속된 2차원 영상으로부터 얼굴영역을 검출하고, 얼굴의 특징데이터들을 추출한 후, 얼굴의 3차원 모양 및 움직임 정보를 복원하는 알고리즘과 결과를 제시한다. 얼굴 영역 검출을 위해서 영상의 거리, 피부색상, 움직임 색상정보등을 융합시킨 멀티모달합성의 방법이 사용되었다. 결정된 얼굴영역에서는 MPEG4의 FDP(Face Definition Parameter) 에서 제시된 특징점 위치중 23개의 주요 얼굴 특징점을 추출하며 추출성능을 향상시키기 위하여 GSCD(Generalized Skin Color Distribution), BWCD(Black and White Color Distribution)등의 움직임색상 변환기법과 형태연산 방법이 제시되었다. 추출된 2차원 얼팔 특징점들로부터 얼굴의 3차원 모양, 움직임 정보를 복원하기 위하여 준원근 카메라 모델을 적용하여 SVD(Singular Value Decomposition)에 의한 인수분해연산을 수행하였다. 본 논문에서 제시된 방법들의 성능을 객관적으로 평가하기 위하여 크기와 위치가 알려진 3차원 물체에 대해 실험을 행하였으며, 복원된 얼굴의 움직임 정보는 MPEG4 FAP(Face Animation Parameter)로 변환된 후, 인터넷상에서 확인이 가능한 가상얼굴모델에 인코딩되어 실제 얼굴파 일치하는 모습을 확인하였다.

얼굴 특징점 검출을 위한 적분 회귀 네트워크 (Integral Regression Network for Facial Landmark Detection)

  • 김도엽;장주용
    • 방송공학회논문지
    • /
    • 제24권4호
    • /
    • pp.564-572
    • /
    • 2019
  • 최근 딥러닝 기술의 발전과 함께 얼굴 특징점 검출 방법의 성능은 크게 향상되었다. 대표적인 얼굴 특징점 검출 방법인 히트맵 회귀 방법은 효율적이고 강력한 방법으로 널리 사용되고 있으나, 단일 네트워크를 통해 특징점 좌표를 즉시 얻을 수 없으며, 히트맵으로부터 특징점 좌표를 결정하는 과정에서 정확도가 손실된다는 단점이 존재한다. 이러한 문제점들을 해결하기 위해 본 논문에서는 기존의 히트맵 회귀 방법에 적분 회귀 방법을 결합할 것을 제안한다. 여러 가지 데이터셋을 사용한 실험을 통해 제안하는 적분 회귀 네트워크가 얼굴 특징점 검출 성능을 크게 향상시킨다는 것을 보인다.

A Robust Approach to Automatic Iris Localization

  • Xu, Chengzhe;Ali, Tauseef;Kim, In-Taek
    • Journal of the Optical Society of Korea
    • /
    • 제13권1호
    • /
    • pp.116-122
    • /
    • 2009
  • In this paper, a robust method is developed to locate the irises of both eyes. The method doesn't put any restrictions on the background. The method is based on the AdaBoost algorithm for face and eye candidate points detection. Candidate points are tuned such that two candidate points are exactly in the centers of the irises. Mean crossing function and convolution template are proposed to filter out candidate points and select the iris pair. The advantage of using this kind of hybrid method is that AdaBoost is robust to different illumination conditions and backgrounds. The tuning step improves the precision of iris localization while the convolution filter and mean crossing function reliably filter out candidate points and select the iris pair. The proposed structure is evaluated on three public databases, Bern, Yale and BioID. Extensive experimental results verified the robustness and accuracy of the proposed method. Using the Bern database, the performance of the proposed algorithm is also compared with some of the existing methods.

최적화된 비선형 합성필터를 이용한 얼굴인증 시스템 (Face Verification System Using Optimum Nonlinear Composite Filter)

  • 이주민;염석원;홍승현
    • 대한전자공학회논문지SP
    • /
    • 제46권3호
    • /
    • pp.44-51
    • /
    • 2009
  • 본 논문에서는 상관에 기반 한 비선형 합성필터를 이용한 왜곡과 잡음에 강인한 얼굴인식 방법을 연구한다. 상관도 기반 방법은 얼굴 영역의 검출과 인증을 동시에 수행하여 보다 신속한 처리를 할 수 있다는 장점이 있다. 최적화된 비선형 합성필터는 학습영상의 출력 값을 일정하게 유지하면서 입력 영상과 잡음의 필터 출력에너지를 최소화함으로써 얻어진다. 입력 영상의 출력에너지를 최소화하여 허위표적과의 식별력을 부여하고 잡음의 출력에너지를 최소화하여 가산성 잡음에 대한 강인성을 증대한다. 본 논문에서는 비선형 합성필터를 두 개의 학습 영상으로 구성하여 표적의 왜곡과 저해상도 그리고 잡음 환경 하에서 얼굴 인증을 실험하였다. 실험결과는 비선형 합성필터가 SDF(synthetic discriminant function) 필터와 비교하여 ROC(receiver operating characteristics) 커브에서 우수한 성능을 보인다.

Feature Detection and Simplification of 3D Face Data with Facial Expressions

  • Kim, Yong-Guk;Kim, Hyeon-Joong;Choi, In-Ho;Kim, Jin-Seo;Choi, Soo-Mi
    • ETRI Journal
    • /
    • 제34권5호
    • /
    • pp.791-794
    • /
    • 2012
  • We propose an efficient framework to realistically render 3D faces with a reduced set of points. First, a robust active appearance model is presented to detect facial features in the projected faces under different illumination conditions. Then, an adaptive simplification of 3D faces is proposed to reduce the number of points, yet preserve the detected facial features. Finally, the point model is rendered directly, without such additional processing as parameterization of skin texture. This fully automatic framework is very effective in rendering massive facial data on mobile devices.