• 제목/요약/키워드: facial features segmentation

검색결과 10건 처리시간 0.03초

서프 및 하프변환 기반 운전자 동공 검출기법 (Face and Iris Detection Algorithm based on SURF and circular Hough Transform)

  • 아텀 렌스키;이종수
    • 대한전자공학회논문지SP
    • /
    • 제47권5호
    • /
    • pp.175-182
    • /
    • 2010
  • 본 논문에서는 얼굴과 동공을 검색하는 새로운 기법을 제시하며, 안전운행을 위한 운전자의 동공 감시에 적용한 실험결과를 포함하고 있다. 제시된 기법은 세 단계 주요 과정을 거치는데, 먼저 스킨칼라 세그먼테이션 기법으로 얼굴을 찾는 과정으로 이는 지금까지 사용된 휴리스틱모델이 아닌 학습과정 모델에 기반을 두고 있다. 다음에 얼굴 특징 세그먼테이션으로 눈, 입, 눈썹 등의 부분을 검출 하는데, 이를 위해 얼굴 각 부분에서 추출한 고유 특징들에 대한 PDF 추정을 사용하고 있다. 마지막으로 서큘러 하프 변환기법으로 눈 안의 동공을 찾아낸다. 제시된 기법을 조명이 다른 웹 얼굴 영상과 운전자의 CCD 얼굴 영상에 적용하여 동공을 찾아내는 실험을 하여, 높은 동공 검출율을 확인하였다.

복잡한 배경의 칼라영상에서 Face and Facial Features 검출 (Detection of Face and Facial Features in Complex Background from Color Images)

  • 김영구;노진우;고한석
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(4)
    • /
    • pp.69-72
    • /
    • 2002
  • Human face detection has many applications such as face recognition, face or facial feature tracking, pose estimation, and expression recognition. We present a new method for automatically segmentation and face detection in color images. Skin color alone is usually not sufficient to detect face, so we combine the color segmentation and shape analysis. The algorithm consists of two stages. First, skin color regions are segmented based on the chrominance component of the input image. Then regions with elliptical shape are selected as face hypotheses. They are certificated to searching for the facial features in their interior, Experimental results demonstrate successful detection over a wide variety of facial variations in scale, rotation, pose, lighting conditions.

  • PDF

다양한 형식의 얼굴정보와 준원근 카메라 모델해석을 이용한 얼굴 특징점 및 움직임 복원 (Facial Features and Motion Recovery using multi-modal information and Paraperspective Camera Model)

  • 김상훈
    • 정보처리학회논문지B
    • /
    • 제9B권5호
    • /
    • pp.563-570
    • /
    • 2002
  • 본 논문은 MPEG4 SNHC의 얼굴 모델 인코딩을 구현하기 위하여 연속된 2차원 영상으로부터 얼굴영역을 검출하고, 얼굴의 특징데이터들을 추출한 후, 얼굴의 3차원 모양 및 움직임 정보를 복원하는 알고리즘과 결과를 제시한다. 얼굴 영역 검출을 위해서 영상의 거리, 피부색상, 움직임 색상정보등을 융합시킨 멀티모달합성의 방법이 사용되었다. 결정된 얼굴영역에서는 MPEG4의 FDP(Face Definition Parameter) 에서 제시된 특징점 위치중 23개의 주요 얼굴 특징점을 추출하며 추출성능을 향상시키기 위하여 GSCD(Generalized Skin Color Distribution), BWCD(Black and White Color Distribution)등의 움직임색상 변환기법과 형태연산 방법이 제시되었다. 추출된 2차원 얼팔 특징점들로부터 얼굴의 3차원 모양, 움직임 정보를 복원하기 위하여 준원근 카메라 모델을 적용하여 SVD(Singular Value Decomposition)에 의한 인수분해연산을 수행하였다. 본 논문에서 제시된 방법들의 성능을 객관적으로 평가하기 위하여 크기와 위치가 알려진 3차원 물체에 대해 실험을 행하였으며, 복원된 얼굴의 움직임 정보는 MPEG4 FAP(Face Animation Parameter)로 변환된 후, 인터넷상에서 확인이 가능한 가상얼굴모델에 인코딩되어 실제 얼굴파 일치하는 모습을 확인하였다.

Masked Face Recognition via a Combined SIFT and DLBP Features Trained in CNN Model

  • Aljarallah, Nahla Fahad;Uliyan, Diaa Mohammed
    • International Journal of Computer Science & Network Security
    • /
    • 제22권6호
    • /
    • pp.319-331
    • /
    • 2022
  • The latest global COVID-19 pandemic has made the use of facial masks an important aspect of our lives. People are advised to cover their faces in public spaces to discourage illness from spreading. Using these face masks posed a significant concern about the exactness of the face identification method used to search and unlock telephones at the school/office. Many companies have already built the requisite data in-house to incorporate such a scheme, using face recognition as an authentication. Unfortunately, veiled faces hinder the detection and acknowledgment of these facial identity schemes and seek to invalidate the internal data collection. Biometric systems that use the face as authentication cause problems with detection or recognition (face or persons). In this research, a novel model has been developed to detect and recognize faces and persons for authentication using scale invariant features (SIFT) for the whole segmented face with an efficient local binary texture features (DLBP) in region of eyes in the masked face. The Fuzzy C means is utilized to segment the image. These mixed features are trained significantly in a convolution neural network (CNN) model. The main advantage of this model is that can detect and recognizing faces by assigning weights to the selected features aimed to grant or provoke permissions with high accuracy.

빅데이터와 딥페이크 기반의 헤어스타일 추천 시스템 구현 (Implementation of Hair Style Recommendation System Based on Big data and Deepfakes)

  • 김태국
    • 사물인터넷융복합논문지
    • /
    • 제9권3호
    • /
    • pp.13-19
    • /
    • 2023
  • 본 논문에서는 빅데이터와 딥페이크 기반의 헤어스타일 추천 시스템 구현에 관해 연구하였다. 제안한 헤어스타일 추천 시스템은 사용자의 사진(이미지)을 바탕으로 얼굴형을 인식한다. 얼굴형은 타원형, 둥근형, 장방형으로 구분하며, 얼굴형에 잘 어울리는 헤어스타일을 딥페이크를 통해 합성하여 동영상으로 제공한다. 헤어스타일은 빅데이터를 바탕으로 최신 트랜드(trend)와 얼굴형에 어울리는 스타일을 적용하여 추천한다. 이미지의 분할 맵과 Motion supervised Co-Part Segmentation 알고리즘으로 같은 카테고리(머리, 얼굴 등)를 가지는 이미지들 간 요소를 합성할 수 있다. 다음으로 헤어스타일이 합성된 이미지와 미리 지정해둔 동영상을 Motion Representations for Articulated Animation 알고리즘에 적용하여 동영상 애니메이션을 생성한다. 제안한 시스템은 가상 피팅 등 전반적인 미용산업에 활용될 수 있을 것으로 기대한다. 향후 연구에서는 거울에 사물인터넷 기능 등을 적용하여 헤어스타일등을 추천해주는 스마트 거울을 연구할 예정이다.

A New Face Detection Method by Hierarchical Color Histogram Analysis

  • Kwon, Ji-Woong;Park, Myoung-Soo;Kim, Mun-Hyuk;Park, Jin-Young
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.138.3-138
    • /
    • 2001
  • Because face has non-rigid structure and is influenced by illumination, we need robust face detection algorithm with the variations of external environments (orientation of lighting and face, complex background, etc.). In this paper we develop a new face detection algorithm to achieve robustness. First we transform RGB color into other color space, in which we can reduce lighting effect much. Second, hierarchical image segmentation technique is used for dividing a image into homogeneous regions. This process uses not only color information, but also spatial information. One of them is used in segmentation by histogram analysis, the other is used in segmentation by grouping. And we can select face region among the homogeneous regions by using facial features.

  • PDF

A Robust Face Detection Method Based on Skin Color and Edges

  • Ghimire, Deepak;Lee, Joonwhoan
    • Journal of Information Processing Systems
    • /
    • 제9권1호
    • /
    • pp.141-156
    • /
    • 2013
  • In this paper we propose a method to detect human faces in color images. Many existing systems use a window-based classifier that scans the entire image for the presence of the human face and such systems suffers from scale variation, pose variation, illumination changes, etc. Here, we propose a lighting insensitive face detection method based upon the edge and skin tone information of the input color image. First, image enhancement is performed, especially if the image is acquired from an unconstrained illumination condition. Next, skin segmentation in YCbCr and RGB space is conducted. The result of skin segmentation is refined using the skin tone percentage index method. The edges of the input image are combined with the skin tone image to separate all non-face regions from candidate faces. Candidate verification using primitive shape features of the face is applied to decide which of the candidate regions corresponds to a face. The advantage of the proposed method is that it can detect faces that are of different sizes, in different poses, and that are making different expressions under unconstrained illumination conditions.

인터랙티브 미디어 플랫폼 콕스에 제공될 4가지 얼굴 변형 기술의 비교분석 (Comparison Analysis of Four Face Swapping Models for Interactive Media Platform COX)

  • 전호범;고현관;이선경;송복득;김채규;권기룡
    • 한국멀티미디어학회논문지
    • /
    • 제22권5호
    • /
    • pp.535-546
    • /
    • 2019
  • Recently, there have been a lot of researches on the whole face replacement system, but it is not easy to obtain stable results due to various attitudes, angles and facial diversity. To produce a natural synthesis result when replacing the face shown in the video image, technologies such as face area detection, feature extraction, face alignment, face area segmentation, 3D attitude adjustment and facial transposition should all operate at a precise level. And each technology must be able to be interdependently combined. The results of our analysis show that the difficulty of implementing the technology and contribution to the system in facial replacement technology has increased in facial feature point extraction and facial alignment technology. On the other hand, the difficulty of the facial transposition technique and the three-dimensional posture adjustment technique were low, but showed the need for development. In this paper, we propose four facial replacement models such as 2-D Faceswap, OpenPose, Deekfake, and Cycle GAN, which are suitable for the Cox platform. These models have the following features; i.e. these models include a suitable model for front face pose image conversion, face pose image with active body movement, and face movement with right and left side by 15 degrees, Generative Adversarial Network.

에지와 컬러 정보를 결합한 안면 분할 기반의 손실 함수를 적용한 메이크업 변환 (Makeup transfer by applying a loss function based on facial segmentation combining edge with color information)

  • 임소현;전준철
    • 인터넷정보학회논문지
    • /
    • 제23권4호
    • /
    • pp.35-43
    • /
    • 2022
  • 메이크업은 사람의 외모를 개선하는 가장 보편적인 방법이다. 하지만 메이크업의 스타일이 매우 다양하기 때문에 한 개인이 본인에게 직접 메이크업을 하는 것에는 많은 시간적, 비용적 문제점이 존재한다. 이에 따라 메이크업 자동화에 대한 필요성이 증가하고 있다. 메이크업의 자동화를 위해 메이크업 변환(Makeup Transfer)가 연구되고 있다. 메이크업 변환은 메이크업이 없는 얼굴 영상에 메이크업 스타일을 적용시키는 분야이다. 메이크업 변환은 전통적인 영상 처리 기반의 방법과 딥러닝 기반의 방법으로 나눌 수 있다. 특히 딥러닝 기반의 방법에서는 적대적 생성 신경망을 기반으로 한 연구가 많이 수행되었다. 하지만 두 가지 방법 모두 결과 영상이 부자연스럽거나 메이크업 변환의 결과가 뚜렷하지 않고 번지거나 메이크업 스타일 얼굴 영상의 영향을 많이 받는다는 단점이 있다. 메이크업의 뚜렷한 경계를 표현하고 메이크업 스타일 얼굴 영상에서 받는 영향을 완화시키기 위해 본 연구에서는 메이크업 영역을 분할하고 HoG(Histogram of Gradient)를 사용해 손실 함수를 계산한다. HoG는 영상 내에 존재하는 에지의 크기와 방향성을 통해 영상의 특징을 추출하는 방법이다. 이를 통해 에지에 대해 강건한 학습을 수행하는 메이크업 변환에 대해 제안한다. 제안한 모델을 통해 생성된 영상과 베이스 모델로 사용하는 BeautyGAN을 통해 생성된 영상을 비교해 본 연구에서 제안한 모델의 성능이 더 뛰어남을 확인하고 추가로 제시할 수 있는 얼굴 정보에 대한 사용 방법을 향후 연구로 제시한다.

A New 3D Active Camera System for Robust Face Recognition by Correcting Pose Variation

  • Kim, Young-Ouk;Jang, Sung-Ho;Park, Chang-Woo;Sung, Ha-Gyeong;Kwon, Oh-Yun;Paik, Joon-Ki
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1485-1490
    • /
    • 2004
  • Recently, we have remarkable developments in intelligent robot systems. The remarkable features of intelligent robot are that it can track user, does face recognition and vital for many surveillance based systems. Advantage of face recognition when compared with other biometrics recognition is that coerciveness and contact that usually exist when we acquire characteristics do not exist in face recognition. However, the accuracy of face recognition is lower than other biometric recognition due to decrease in dimension from of image acquisition step and various changes associated with face pose and background. Factors that deteriorate performance of face recognition are many such as distance from camera to face, lighting change, pose change, and change of facial expression. In this paper, we implement a new 3D active camera system to prevent various pose variation that influence face recognition performance and propose face recognition algorithm for intelligent surveillance system and mobile robot system.

  • PDF