• Title/Summary/Keyword: 얼굴 색상

Search Result 255, Processing Time 0.021 seconds

Real-time Face Tracking Method Robust to Occlusion (가려짐에 강인한 실시간 얼굴추적 방 법)

  • Lee, Jun-Hwan;Jung, Hyun-Jo;Yoo, Ji-Sang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.25-28
    • /
    • 2016
  • 본 논문에서는 실시간 얼굴 추적을 위하여 기존의 CamShift 알고리즘의 단점을 보완한 새로운 CamShift 알고리즘을 제안한다. 배경 내 추적 객체와 색상이 유사한 객체가 존재할 경우 기존 CamShift 알고리즘은 불안정한 추적을 보여준다. 이러한 문제점을 화소 단위로 거리정보를 획득할 수 있는 Kinect 의 깊이 정보와 HSV 색공간 기반의 피부색 후보영역을 추출하는 Skin Detection 알고리즘을 이용하여 색상분포만 이용하는 기존의 CamShift 의 단점을 보완한다. 또한 추적하던 객체가 사라지거나 가려짐이 발생할 경우에도 다시 추적할 수 있는 특징점 기반의 매칭 알고리즘을 통하여 차폐영역에 강인한 특성을 가지게 한다. 이러한 향상된 CamShift 알고리즘을 사람의 얼굴 추적에 적용함으로써 다양한 분야에 활용 가능한 강인한 얼굴추적 알고리즘을 제안하고자 한다. 실험결과 제안하는 알고리즘은 기존의 추적 알고리즘인 TLD 보다 월등히 빠른 처리속도와 더 우수한 추적성능을 보여주었고, CamShift 보다 조금 느리지만 기존의 CamShift 가 가지고 있는 문제점들을 해결하였다.

  • PDF

A Study on Real-Time Detection System of Facial Region using Color Channel (컬러채널 실시간 복합 얼굴영역 검출 시스템 연구)

  • 송선희;석경휴;정유선;박동석;배철수;나상동
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2004.05b
    • /
    • pp.463-467
    • /
    • 2004
  • 본 논문에서는 컬러정보를 이용하여 외부 조명의 영향에 대응하면서 얼굴 후보영역을 추출하고, 추출된 후보 영역으로부터 다채널 스킨컬러 모델로 특정 정보를 추출하는 검출 기법을 제시한다. 외부 조명에 민감한 스킨컬러 특성을 고려해 색상정보와 광도를 분리할 수 있는 Y $C_{r}$ , $C_{b}$ 색상모델을 이용하며, Green, Blue 채널의 정보를 Gaussian 확률밀도 모델로부터 $C_{b-}$ $C_{g}$ 의 좁은 범위에 분포되어 있는 스킨컬러 영역 밀도를 모델링한다. 또한 얼굴영역에 Region Restricting과 임계값 반복 알고리즘을 사용하여 눈 영역 검출 과정을 보이고, 실시간 복합 얼굴 검출 시스템 조명방식에 의해 결과를 나타낸다.다.

  • PDF

Robust hand segmentation on hand over face occlusion (손과 얼굴의 겹침 현상을 고려한 강인한 손 추출 알고리즘)

  • Kim, Ha-Young;Seo, Jon-Hoon;Han, Tack-Don
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.397-399
    • /
    • 2012
  • 본 연구에서는 픽셀 값이 근소한 차이를 보이는 얼굴과 손이 겹쳤을 때 손을 효과적으로 추출하는 방법을 제안한다. 제안된 알고리즘은 깊이 영상에서 연결요소를 찾음으로써 깊이 정보가 다른 손과 얼굴 영역을 분리하게 된다. 기존의 복잡한 방법을 생략하고, 이진화 영상에 적용하던 connected component labeling 기법을 gray 영상에 적용하여 깊이 영역이 비슷한 영역을 분리하였다. 이로 인하여, 손의 피부색상과 비슷한 색상을 가지는 얼굴과 손의 겹침 현상에서 강건한 손 추출 결과를 얻을 수 있었다. 그리고 보다 자연스러운 제스쳐 인식 시스템을 구축할 수 있다.

Detection of Facial Region using Multi-Channel Color Model (다채널 컬러 모델을 이용한 얼굴영역 검출)

  • Song, Sun-Hee;Suk, Kyung-Hyu;Kim, Chul-Young;Kim, Moon-Hwan;Jeoung, You-Sun;Bae, Chul-Soo;Ra, Sang-dong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2004.05a
    • /
    • pp.805-808
    • /
    • 2004
  • 본 논문에서는 컬러정보를 이용하여 외부 조명의 영향에 대응하면서 얼굴 후보영역을 추출하고, 추출된 후보 영역으로부터 다채널 스킨컬러 모델로 특정 정보를 추출하는 검출 기법을 제시한다. 외부 조명에 민감한 스킨컬러 특성을 고려해 색상정보와 광도를 분리할 수 있는 $YC_rC_b$ 색상모델을 이용하며, Green, Blue 채널의 정보를 Gaussian 확률밀도 모델로부터 $C_b-C_g$의 좁은 범위에 분포되어 있는 스킨컬러 영역 밀도를 모델링한다. 또한 얼굴영역에 Region Restricting과 임계값 반복 알고리즘을 사용하여 눈 영역 검출 과정을 보이고, 실시간 복합 얼굴 검출 시스템 조명방식에 의해 결과를 나타낸다.

  • PDF

Spicy Foods Impact Analysis of the Changes in Face Color According to Constitution (체질에 따른 매운 음식이 얼굴 색상 변화에 미치는 영향 분석)

  • Kim, Bong-Hyun;Cho, Dong-Uk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.05a
    • /
    • pp.796-798
    • /
    • 2013
  • 현대 사회는 다양한 사회적 생활과 활동을 통해서 에너지를 소비하는 형태이기에 이로 인한 스트레스 등을 해결하기 위해 매운 음식을 선호하는 사람들이 증가하고 있다. 따라서 본 논문에서는 매운 음식을 섭취했을 경우, 사람의 체질에 따라 얼굴의 주요 영역에 대한 색상 변화를 측정하고 이를 비교, 분석하는 실험을 수행하였다. 이를 위해 체질감별 설문 검사지를 통해 피실험자를 체질에 따라 5명씩 구성하였으며 매운 음식을 섭취하기 전과 후의 얼굴 영상을 수집하였다. 수집된 얼굴 영상을 입력 신호로 받아 Lab 색체계를 적용하여 붉은색의 정도를 수치 값으로 표현해주는 a*값의 변화를 비교 분석하는 연구를 수행하였다.

The Extraction of Face Regions based on Optimal Facial Color and Motion Information in Image Sequences (동영상에서 최적의 얼굴색 정보와 움직임 정보에 기반한 얼굴 영역 추출)

  • Park, Hyung-Chul;Jun, Byung-Hwan
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.2
    • /
    • pp.193-200
    • /
    • 2000
  • The extraction of face regions is required for Head Gesture Interface which is a natural user interface. Recently, many researchers are interested in using color information to detect face regions in image sequences. Two most widely used color models, HSI color model and YIQ color model, were selected for this study. Actually H-component of HSI and I-component of YIQ are used in this research. Given the difference in the color component, this study was aimed to compare the performance of face region detection between the two models. First, we search the optimum range of facial color for each color component, examining the detection accuracy of facial color regions for variant threshold range about facial color. And then, we compare the accuracy of the face box for both color models by using optimal facial color and motion information. As a result, a range of $0^{\circ}{\sim}14^{\circ}$ in the H-component and a range of $-22^{\circ}{\sim}-2^{\circ}$ in the I-component appeared to be the most optimum range for extracting face regions. When the optimal facial color range is used, I-component is better than H-component by about 10% in accuracy to extract face regions. While optimal facial color and motion information are both used, I-component is also better by about 3% in accuracy to extract face regions.

  • PDF

Automatic Speechreading Feature Detection Using Color Information (색상 정보를 이용한 자동 독화 특징 추출)

  • Lee, Kyong-Ho;Yang, Ryong;Rhee, Sang-Burm
    • Journal of the Korea Society of Computer and Information
    • /
    • v.13 no.6
    • /
    • pp.107-115
    • /
    • 2008
  • Face feature detection plays an important role in application such as automatic speechreading, human computer interface, face recognition, and face image database management. We proposed a automatic speechreading feature detection algorithm for color image using color information. Face feature pixels is represented for various value because of the luminance and chrominance in various color space. Face features are detected by amplifying, reducing the value and make a comparison between the represented image. The eye and nose position, inner boundary of lips and the outer line of the tooth is detected and show very encouraging result.

  • PDF

Realtime Facial Expression Data Tracking System using Color Information (컬러 정보를 이용한 실시간 표정 데이터 추적 시스템)

  • Lee, Yun-Jung;Kim, Young-Bong
    • The Journal of the Korea Contents Association
    • /
    • v.9 no.7
    • /
    • pp.159-170
    • /
    • 2009
  • It is very important to extract the expression data and capture a face image from a video for online-based 3D face animation. In recently, there are many researches on vision-based approach that captures the expression of an actor in a video and applies them to 3D face model. In this paper, we propose an automatic data extraction system, which extracts and traces a face and expression data from realtime video inputs. The procedures of our system consist of three steps: face detection, face feature extraction, and face tracing. In face detection, we detect skin pixels using YCbCr skin color model and verifies the face area using Haar-based classifier. We use the brightness and color information for extracting the eyes and lips data related facial expression. We extract 10 feature points from eyes and lips area considering FAP defined in MPEG-4. Then, we trace the displacement of the extracted features from continuous frames using color probabilistic distribution model. The experiments showed that our system could trace the expression data to about 8fps.

Face Anti-Spoofing Based on Combination of Luminance and Chrominance with Convolutional Neural Networks (합성곱 신경망 기반 밝기-색상 정보를 이용한 얼굴 위변조 검출 방법)

  • Kim, Eunseok;Kim, Wonjun
    • Journal of Broadcast Engineering
    • /
    • v.24 no.6
    • /
    • pp.1113-1121
    • /
    • 2019
  • In this paper, we propose the face anti-spoofing method based on combination of luminance and chrominance with convolutional neural networks. The proposed method extracts luminance and chrominance features independently from live and fake faces by using stacked convolutional neural networks and auxiliary networks. Unlike previous methods, an attention module has been adopted to adaptively combine extracted features instead of simply concatenating them. In addition, we propose a new loss function, called the contrast loss, to learn the classifier more efficiently. Specifically, the contrast loss improves the discriminative power of the features by maximizing the distance of the inter-class features while minimizing that of the intra-class features. Experimental results demonstrate that our method achieves the significant improvement for face anti-spoofing compared to existing methods.

A Study on Extraction of Skin Region and Lip Using Skin Color of Eye Zone (눈 주위의 피부색을 이용한 피부영역검출과 입술검출에 관한 연구)

  • Park, Young-Jae;Jang, Seok-Woo;Kim, Gye-Young
    • Journal of the Korea Society of Computer and Information
    • /
    • v.14 no.4
    • /
    • pp.19-30
    • /
    • 2009
  • In this paper, We propose a method with which we can detect facial components and face in input image. We use eye map and mouth map to detect facial components using eyes and mouth. First, We find out eye zone, and second, We find out color value distribution of skin region using the color around the eye zone. Skin region have characteristic distribution in YCbCr color space. By using it, we separate the skin region and background area. We find out the color value distribution of the extracted skin region and extract around the region. Then, detect mouth using mouthmap from extracted skin region. Proposed method is better than traditional method the reason for it comes good result with accurate mouth region.