• 제목/요약/키워드: Facial Information

검색결과 1,060건 처리시간 0.024초

임의의 얼굴 이미지를 이용한 3D 얼굴모델 생성에 관한 연구 (A Study on Creation of 3D Facial Model Using Facial Image)

  • 이혜정;정석태
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권2호
    • /
    • pp.21-28
    • /
    • 2007
  • 얼굴모델링과 애니메이션에 대한 기술은 컴퓨터 그래픽스 분야에서 오랫 동안 연구되어 오고 있는 분야 중 하나이다. 얼굴모델링 기술은 가상현실, MPEG-4 등의 연구목적과 영화, 광고, 게임 등의 산업 분야에서 많이 활용되고 있다. 따라서 좀 더 사실적인 인터페이스의 구현을 위하여 컴퓨터 의인화를 통해 인간과 상호작용 할 수 있는 3D 얼굴모델 개발은 필수적이다. 본 연구에서는 임의의 정면 얼굴 이미지를 이용하여 간편한 조작으로 3D 얼굴모델을 생성하는 시스템을 개발하였다. 이 시스템은 한국인 표준 얼굴모델을 이용하여 메쉬상의 조정점을 얼굴 부위와 윤곽에 맞게 정합한 다음 유동적이고 탄력적으로 조정하여 3D 얼굴모델을 생성하며, 그 결과인 3D 얼굴모델을 이동, 확대, 축소, 회전시켜 가며 실시간으로 확인 및 수정할 수 있다. 개발한 시스템의 유용성을 검증하기 위해 $630{\times}630$의 크기를 가지는 30개의 임의의 정면 얼굴이미지를 가지고 실험했다.

  • PDF

실시간 얼굴 방향성 추정을 위한 효율적인 얼굴 특성 검출과 추적의 결합방법 (A Hybrid Approach of Efficient Facial Feature Detection and Tracking for Real-time Face Direction Estimation)

  • 김웅기;전준철
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.117-124
    • /
    • 2013
  • 본 논문에서는 실시간으로 입력되는 비디오 영상으로부터 사용자의 얼굴 방향을 효율적으로 추정하는 새로운 방법을 제안하였다. 이를 위하여 입력 영상으로부터 외부조명의 변화에 덜 민감한 Haar-like 특성을 이용하여 얼굴영역의 검출을 수행하고 검출 된 얼굴영역 내에서 양쪽 눈, 코, 입 등의 주요 특성을 검출한다. 이 후 실시간으로 매 프레임마다 광류를 이용해 검출된 특징 점을 추적하게 되며, 추적된 특징 점을 이용해 얼굴의 방향성 추정한다. 일반적으로 광류를 이용한 특징 추적에서 발생할 수 있는 특징점의 좌표가 유실되어 잘못된 특징점을 추적하게 되는 상황을 방지하기 위하여 검출된 특징점의 템플릿 매칭(template matching)을 사용해 추적중인 특징점의 유효성을 실시간 판단하고, 그 결과에 따라 얼굴 특징 점들을 다시 검출하거나, 추적을 지속하여 얼굴의 방향성을 추정을 가능하게 한다. 탬플릿 매칭은 특징검출 단계에서 추출된 좌우 눈, 코끝 그리고 입의 위치 등 4가지 정보를 저장한 후 얼굴포즈 측정에 있어 광류에의해 추적중인 해당 특징점들 간의 유사도를 비교하여 유사도가 임계치를 벗어 날 경우 새로이 특징점을 찾아내는 작업을 수행하여 정보를 갱신한다. 제안된 방법을 통해 얼굴의 특성 추출을 위한 특성 검출과정과 검출된 특징을 지속적으로 보완하는 추적과정을 자동적으로 상호 결합하여 안정적으로 실시간에 얼굴 방향성 추정 할 수 있었다. 실험을 통하여 제안된 방법이 효과적으로 얼굴의 포즈를 측정할 수 있음을 입증하였다.

스킨 컬러와 변형 모델에 기반한 컬러영상으로부터의 얼굴 및 얼굴 특성영역 추출 (Detection of Facial Region and features from Color Images based on Skin Color and Deformable Model)

  • 민경필;전준철;박구락
    • 인터넷정보학회논문지
    • /
    • 제3권6호
    • /
    • pp.13-24
    • /
    • 2002
  • 본 논문에서는 색상 정보와 변형 모델을 이용한 얼굴 영역 및 얼굴의 특징 영역의 자동 검출 방법을 제시한다. 영상으로부터 획득할 수 있는 정보 중 가장 빠르고 쉽게 얻을 수 있는 정보가 색상 정보이며, 색상정보는 사물을 판단함에 있어서 가장 효율적이면서 컴퓨터의 계산량을 줄일 수 있다는 장점을 갖고 있기 때문에 얼굴 영역 검출 방법으로 많이 이용되고 있다. 본 연구에서는 얼굴영역 및 얼굴 특성 추출함에 있어 컬러모델 사용 시 외부 조명의 영향을 줄여주는 조명 보정 방법을 제시하고, 조명 보정에 의해 평활화 된 YCbCr 색상모델에 적용하여 각 성분 특성을 고려한 얼굴영역 및 얼굴의 특성 영역에 해당하는 후보 영역을 검출하는 방법을 제시한다. 검출된 얼굴후보 영역 및 특성 영역은 가변 모델인 동적 윤곽선 모델의 초기 값으로 자동 적용되어 윤곽선 모델 적용 시 문제점가운데 하나인 초기 값 설정문제를 해결함과 동시에 얼굴 및 얼굴 특징 정보의 정확한 윤곽선을 추출하는데 사용된다. 실험 결과 제시된 방법을 적용한 결과 빠르고 효과적으로 얼굴 및 특성 영역을 검출 할 수 있음을 입증 할 수 있었다. 이상에서 추출된 얼굴의 특성정보는 차후 얼굴 인식 및 얼굴 특성을 설명하는 얼굴 특성 서술자로 사용될 수 있다.

  • PDF

A Local Feature-Based Robust Approach for Facial Expression Recognition from Depth Video

  • Uddin, Md. Zia;Kim, Jaehyoun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권3호
    • /
    • pp.1390-1403
    • /
    • 2016
  • Facial expression recognition (FER) plays a very significant role in computer vision, pattern recognition, and image processing applications such as human computer interaction as it provides sufficient information about emotions of people. For video-based facial expression recognition, depth cameras can be better candidates over RGB cameras as a person's face cannot be easily recognized from distance-based depth videos hence depth cameras also resolve some privacy issues that can arise using RGB faces. A good FER system is very much reliant on the extraction of robust features as well as recognition engine. In this work, an efficient novel approach is proposed to recognize some facial expressions from time-sequential depth videos. First of all, efficient Local Binary Pattern (LBP) features are obtained from the time-sequential depth faces that are further classified by Generalized Discriminant Analysis (GDA) to make the features more robust and finally, the LBP-GDA features are fed into Hidden Markov Models (HMMs) to train and recognize different facial expressions successfully. The depth information-based proposed facial expression recognition approach is compared to the conventional approaches such as Principal Component Analysis (PCA), Independent Component Analysis (ICA), and Linear Discriminant Analysis (LDA) where the proposed one outperforms others by obtaining better recognition rates.

METHODS OF EYEBROW REGION EXTRACRION AND MOUTH DETECTION FOR FACIAL CARICATURING SYSTEM PICASSO-2 EXHIBITED AT EXPO2005

  • Tokuda, Naoya;Fujiwara, Takayuki;Funahashi, Takuma;Koshimizu, Hiroyasu
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.425-428
    • /
    • 2009
  • We have researched and developed the caricature generation system PICASSO. PICASSO outputs the deformed facial caricature by comparing input face with prepared mean face. We specialized it as PICASSO-2 for exhibiting a robot at Aichi EXPO2005. This robot enforced by PICASSO-2 drew a facial caricature on the shrimp rice cracker with the laser pen. We have been recently exhibiting another revised robot characterized by a brush drawing. This system takes a couple of facial images with CCD camera, extracts the facial features from the images, and generates the facial caricature in real time. We experimentally evaluated the performance of the caricatures using a lot of data taken in Aichi EXPO2005. As a result it was obvious that this system were not sufficient in accuracy of eyebrow region extraction and mouth detection. In this paper, we propose the improved methods for eyebrow region extraction and mouth detection.

  • PDF

A Vision-based Approach for Facial Expression Cloning by Facial Motion Tracking

  • Chun, Jun-Chul;Kwon, Oryun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제2권2호
    • /
    • pp.120-133
    • /
    • 2008
  • This paper presents a novel approach for facial motion tracking and facial expression cloning to create a realistic facial animation of a 3D avatar. The exact head pose estimation and facial expression tracking are critical issues that must be solved when developing vision-based computer animation. In this paper, we deal with these two problems. The proposed approach consists of two phases: dynamic head pose estimation and facial expression cloning. The dynamic head pose estimation can robustly estimate a 3D head pose from input video images. Given an initial reference template of a face image and the corresponding 3D head pose, the full head motion is recovered by projecting a cylindrical head model onto the face image. It is possible to recover the head pose regardless of light variations and self-occlusion by updating the template dynamically. In the phase of synthesizing the facial expression, the variations of the major facial feature points of the face images are tracked by using optical flow and the variations are retargeted to the 3D face model. At the same time, we exploit the RBF (Radial Basis Function) to deform the local area of the face model around the major feature points. Consequently, facial expression synthesis is done by directly tracking the variations of the major feature points and indirectly estimating the variations of the regional feature points. From the experiments, we can prove that the proposed vision-based facial expression cloning method automatically estimates the 3D head pose and produces realistic 3D facial expressions in real time.

Facial Feature Extraction Based on Private Energy Map in DCT Domain

  • Kim, Ki-Hyun;Chung, Yun-Su;Yoo, Jang-Hee;Ro, Yong-Man
    • ETRI Journal
    • /
    • 제29권2호
    • /
    • pp.243-245
    • /
    • 2007
  • This letter presents a new feature extraction method based on the private energy map (PEM) technique to utilize the energy characteristics of a facial image. Compared with a non-facial image, a facial image shows large energy congestion in special regions of discrete cosine transform (DCT) coefficients. The PEM is generated by energy probability of the DCT coefficients of facial images. In experiments, higher face recognition performance figures of 100% for the ORL database and 98.8% for the ETRI database have been achieved.

  • PDF

Constructing Impressions with Multimedia Ringtones and a Smartphone Usage Tracker

  • Lee, KangWoo;Choo, Hyunseung
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권5호
    • /
    • pp.1870-1880
    • /
    • 2015
  • In this paper, we studied facial impression construction with smartphones in a series of experiments with two smartphone applications: SmartRing and SystemSens+. In the first experiment, impressions of faces associated with different music genres (trot vs. classical) were compared to impressions formed from a facial image alone along the social warmth and intelligence dimensions. In the second experiment, the effect of similarity attraction was investigated by manipulating the extroversion of facial images. Results indicated that impressions of faces cannot only be constructed along the social warmth and intelligence dimensions, but can also be made more or less attractive based on their similarity to the viewer's personality. Our experiments provide interesting insights into facial impressions formed in a smartphone environment.

A Study on the Realization of Virtual Simulation Face Based on Artificial Intelligence

  • Zheng-Dong Hou;Ki-Hong Kim;Gao-He Zhang;Peng-Hui Li
    • Journal of information and communication convergence engineering
    • /
    • 제21권2호
    • /
    • pp.152-158
    • /
    • 2023
  • In recent years, as computer-generated imagery has been applied to more industries, realistic facial animation is one of the important research topics. The current solution for realistic facial animation is to create realistic rendered 3D characters, but the 3D characters created by traditional methods are always different from the actual characters and require high cost in terms of staff and time. Deepfake technology can achieve the effect of realistic faces and replicate facial animation. The facial details and animations are automatically done by the computer after the AI model is trained, and the AI model can be reused, thus reducing the human and time costs of realistic face animation. In addition, this study summarizes the way human face information is captured and proposes a new workflow for video to image conversion and demonstrates that the new work scheme can obtain higher quality images and exchange effects by evaluating the quality of No Reference Image Quality Assessment.

칼라 참조 맵과 움직임 정보를 이용한 얼굴영역 추출 (Facial region Extraction using Skin-color reference map and Motion Information)

  • 이병석;이동규;이두수
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 제14회 신호처리 합동 학술대회 논문집
    • /
    • pp.139-142
    • /
    • 2001
  • This paper presents a highly fast and accurate facial region extraction method by using the skin-color-reference map and motion information. First, we construct the robust skin-color-reference map and eliminate the background in image by this map. Additionally, we use the motion information for accurate and fast detection of facial region in image sequences. Then we further apply region growing in the remaining areas with the aid of proposed criteria. The simulation results show the improvement in execution time and accurate detection.

  • PDF