• 제목/요약/키워드: Facial Components

검색결과 134건 처리시간 0.025초

얼굴 표정 표현을 위한 얼굴 특징점 추출 (Facial Characteristic Point Extraction for Representation of Facial Expression)

  • 오정수;김진태
    • 한국정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.117-122
    • /
    • 2005
  • 본 논문은 얼굴 특징점 추출을 위한 알고리즘을 제안한다. 얼굴 특징점은 얼굴 애니메이션과 아바타 모방을 위한 표정 표현이나, 얼굴 표정 인식 등에서 중요한 자료이다. 얼굴 특징점 추출을 위한 기존 방법은 고가의 모션 캡쳐 장비나 표식을 사용하는 것으로 대상 인물에게 심리적 부담감이나 부자연스러움을 준다. 이에 반해 제안된 알고리즘은 카메라로 취득된 영상에서 영상 처리만으로 얼굴 특징점을 추출함으로써 기존 방법의 문제점을 해결한다. 또한 효율적인 특징점 추출을 위해 특징점 추출의 근원이 되는 기존 얼굴 구성요소 검출 알고리즘의 문제점을 분석하고 개선한다.

Hybrid Neural Classifier Combined with H-ART2 and F-LVQ for Face Recognition

  • Kim, Do-Hyeon;Cha, Eui-Young;Kim, Kwang-Baek
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1287-1292
    • /
    • 2005
  • This paper presents an effective pattern classification model by designing an artificial neural network based pattern classifiers for face recognition. First, a RGB image inputted from a frame grabber is converted into a HSV image which is similar to the human beings' vision system. Then, the coarse facial region is extracted using the hue(H) and saturation(S) components except intensity(V) component which is sensitive to the environmental illumination. Next, the fine facial region extraction process is performed by matching with the edge and gray based templates. To make a light-invariant and qualified facial image, histogram equalization and intensity compensation processing using illumination plane are performed. The finally extracted and enhanced facial images are used for training the pattern classification models. The proposed H-ART2 model which has the hierarchical ART2 layers and F-LVQ model which is optimized by fuzzy membership make it possible to classify facial patterns by optimizing relations of clusters and searching clustered reference patterns effectively. Experimental results show that the proposed face recognition system is as good as the SVM model which is famous for face recognition field in recognition rate and even better in classification speed. Moreover high recognition rate could be acquired by combining the proposed neural classification models.

  • PDF

간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 얼굴표정 생성 (The facial expression generation of vector graphic character using the simplified principle component vector)

  • 박태희
    • 한국정보통신학회논문지
    • /
    • 제12권9호
    • /
    • pp.1547-1553
    • /
    • 2008
  • 본 논문은 간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 다양한 얼굴 표정 생성 방법을 제안한다. 먼저 Russell의 내적 정서 상태에 기반하여 재정의된 벡터 그래픽 캐릭터들의 9가지 표정에 대해 주성분 분석을 수행한다. 이를 통해 캐릭터의 얼굴 특성과 표정에 주된 영향을 미치는 주성분 벡터를 찾아내고, 간소화된 주성분 벡터로부터 얼굴 표정을 생성한다. 또한 캐릭터의 특성과 표정의 가중치 값을 보간함으로써 자연스러운 중간 캐릭터 및 표정을 생성한다. 이는 얼굴 애니메이션에서 종래의 키프레임 저장 공간을 상당히 줄일 수 있으며, 적은 계산량으로 중간 표정을 생성할 수 있다. 이에 실시간 제어를 요구하는 웹/모바일 서비스, 게임 등에서 캐릭터 생성 시스템의 성능을 상당히 개선할 수 있다.

방향 회전에 불변한 얼굴 영역 분할과 LBP를 이용한 얼굴 검출 (Face Detection using Orientation(In-Plane Rotation) Invariant Facial Region Segmentation and Local Binary Patterns(LBP))

  • 이희재;김하영;이다빛;이상국
    • 정보과학회 논문지
    • /
    • 제44권7호
    • /
    • pp.692-702
    • /
    • 2017
  • LBP기반 특징점 기술자를 이용한 얼굴검출은 얼굴의 형태정보 및 눈, 코, 입과 같은 얼굴 요소들 간 공간정보를 표현할 수 없는 문제가 있다. 이러한 문제를 해결하기 위해 선행 연구들은 얼굴 영상을 다수개의 사각형 부분영역들로 분할하였다. 하지만, 연구마다 서로 다른 개수와 크기로 부분 영역을 분할하였기 때문에 실험에 사용하는 데이터베이스에 적합한 부분 영역의 분할 기준이 모호하며, 부분 영역의 수에 비례하여 LBP 히스토그램 차원이 증가되고, 부분 영역의 개수가 증가함에 따라 얼굴의 방향 회전에 대한 민감도가 크게 증가한다. 본 논문은 LBP기반 특징점 기술자의 방향 회전 문제와 특징점 차원의 수 문제를 해결할 수 있는 새로운 부분 영역 분할 방법을 제안한다. 실험 결과, 제안하는 방법은 방향 회전된 단일 얼굴 영상에서 99.0278%의 검출 정확도를 보였다.

안모비대칭의 진단용 기준선의 유용성에 관한 연구 (A STUDY ON USEFULNESS OF THE REFERENCE LINE IN DIAGNOSIS OF THE FACIAL ASYMMETRY)

  • 류성호;장현호
    • Journal of the Korean Association of Oral and Maxillofacial Surgeons
    • /
    • 제31권3호
    • /
    • pp.266-273
    • /
    • 2005
  • Purpose: To assess the relationship between soft tissue reference line and hard tissue reference line using the standardized photographs and the posteroanterior cephalometric radiographs(P-A)in facial asymmetric patients and to compare the differences of angular measurement between normal group and asymmetry group. Methods: Normal group consisted of 44 persons with normal occlusion and normal facial morphology. Asymmetry group consisted of 90 patients with facial asymmetry. Standardized facial photographs and P-A were taken in all subjects. The horizontal reference lines were bipupillary line in photographs and latero-orbitale line in P-A respectively. The vertical reference line were the line from the midpoint of horizontal reference line perpendicularly. Angular measurement of otobasion canting, lip canting, nose deviation, chin deviation, and maxillary deviation were compared and analyzed in photographs. And angular measurement of mastoid canting, mandibular canting, nose deviation, chin deviation, and maxillary deviation were compared and analyzed in P-A. Results: 1. The variables of photographs and P-A were significantly related in the asymmetry group. 2. Significant differences between all variables except for PT2 and PA2 were shown in the asymmetry group and between PT1 and PA1, PT3 and PA3 in the normal group respectively. 3. Comparison measurement scores of angular difference between control group and experimental group concerning each variable showed significant difference except for PA1. Conclusions: Soft tissue components may not compensate for underlying skeletal imbalance in nose deviation and chin deviation. The horizontal reference lines in photographs were significant related with the P-A, but angular variables between the two studies show significant differences. Therefore, we do not recommend use photography in the assessment the facial asymmetry as complemented in the P-A.

감성적 인터랙션 디자인 요소로서의 표정 요소에 관한 연구 (Study on Facial Expression Factors as Emotional Interaction Design Factors)

  • 허성철
    • 감성과학
    • /
    • 제17권4호
    • /
    • pp.61-70
    • /
    • 2014
  • 로봇과 인간의 상호작용에서 언어에 의한 정보 전달은 상호작용의 한계가 있으므로, 더욱 원활하고 효율적인 의사소통과 나아가 로봇의 감정 표현까지 구현하기 위해서는 비언어적 커뮤니케이션이 필요하다. 본 연구에서는 쇼핑을 지원하는 로봇을 전제로 하여 쇼핑 행태에 따른 7가지 비언어적 정보를 도출하였다. 도출된 비언어적 정보의 요소로서 표정을 선정하고, 2D 분석을 통하여 얼굴 구성요소를 코드화 하였다. 얼굴 구성요소의 코드를 조합한 3D 애니메이션을 이용하여 비언어적 정보의 표현에 대한 유의성을 분석하였다. 분석 결과, 제안된 비언어적 정보의 표현 방법은 높은 수준의 유의성을 보여 비언어적 정보 연구의 기초자료로서 활용 가능성이 확인되었다. 다만, '당황'의 경우 코드화된 얼굴 구성 요소의 모양 적용에 한계가 있으며 보다 체계적 연구가 요구된다.

효과적인 얼굴 가상성형 모델을 위한 얼굴 변형 기법 (Face Deformation Technique for Efficient Virtual Aesthetic Surgery Models)

  • 박현;문영식
    • 전자공학회논문지CI
    • /
    • 제42권3호
    • /
    • pp.63-72
    • /
    • 2005
  • 본 논문에서는 가상성형 시스템에 적합한 Radial Basis Function(RBF) 기반의 변형 기법과 변형된 얼굴 구성 요소를 얼굴 영상에 혼합하는 기법을 제시한다. 가상성형을 위한 변형 기법은 유동적인 얼굴 구성 요소들을 변형함에 있어 부드러움과 정확성을 가져야 하고 변형 부위 이외의 다른 얼굴 구성 요소에는 왜곡을 주지 않는 지역성도 가져야 한다. 이를 위해 제안된 가상성형 시스템은 자유형태 변형 모델을 기반으로 RBF에 의해 격자들의 변형 정도를 계산한다. 성형의 정확성을 위해 변형 오차는 기준곡선 정점들의 목표 위치와 실제 변형된 위치 사이의 오차제곱합을 이용하여 Singular Value Decomposition(SVD)에 의해 반복적으로 RBF 매핑 함수의 계수들을 계산하여 보정한다. 변형된 얼굴 구성 요소는 Euclidean Distance Transform(EDT)에 의해 계산된 혼합 비율을 사용하여 원본 얼굴 영상과 합성된다. 제안된 변형 기법과 합성 기법은 가상성형 결과의 정확도와 왜곡 측면에서 우수한 성능을 보인다는 것을 실험적으로 확인하였다.

눈 영역 추출에 의한 얼굴 기울기 교정 (Skew correction of face image using eye components extraction)

  • 윤호섭;왕민;민병우
    • 전자공학회논문지B
    • /
    • 제33B권12호
    • /
    • pp.71-83
    • /
    • 1996
  • This paper describes facial component detection and skew correction algorithm for face recognition. We use a priori knowledge and models about isolated regions to detect eye location from the face image captured in natural office environments. The relations between human face components are represented by several rules. We adopt an edge detection algorithm using sobel mask and 8-connected labelling algorith using array pointers. A labeled image has many isolated components. initially, the eye size rules are used. Eye size rules are not affected much by irregular input image conditions. Eye size rules size, and limited in the ratio between gorizontal and vertical sizes. By the eye size rule, 2 ~ 16 candidate eye components can be detected. Next, candidate eye parirs are verified by the information of location and shape, and one eye pair location is decided using face models about eye and eyebrow. Once we extract eye regions, we connect the center points of the two eyes and calculate the angle between them. Then we rotate the face to compensate for the angle so that the two eyes on a horizontal line. We tested 120 input images form 40 people, and achieved 91.7% success rate using eye size rules and face model. The main reasons of the 8.3% failure are due to components adjacent to eyes such as eyebrows. To detect facial components from the failed images, we are developing a mouth region processing module.

  • PDF

얼굴 표정 시각자극에 따른 사상 체질별 유발뇌파 예비연구 (A Pilot Study on Evoked Potentials by Visual Stimulation of Facial Emotion in Different Sasang Constitution Types)

  • 황동욱;김근호;이유정;이재철;김명근;김종열
    • 사상체질의학회지
    • /
    • 제22권1호
    • /
    • pp.41-48
    • /
    • 2010
  • 1. Objective There has been a few trials to diagnose Sasang Constitution by using EEG, but has not been studied intensively. For the purpose of practical diagnosis, the characteristics of EEG for each constitution should be studied first. Recently it has been shown that Sasang Constitution might be related to harm avoidance and novelty seeking in temperament and character profiles. Based on this finding, we propose a visual stimulation method to evoke a EEG response which may discriminate difference between constitutional groups. Through the experiment with this method, we tried to reveal the characteristics of EEG of each constitutional groups by the method of event-related potentials. 2. Methods: We used facial visual stimulation to verify the characteristics of EEG for each constitutional groups. To reveal characteristic in sensitivity and latency of response, we added several levels of noise to facial images. 6 male subjects(2 Taeeumin, 2 Soyangin, 2 Soeumin) participated in this study. All subjects are healthy 20's. To remove artifacts and slow modulation, we removed EOG contaminated data and renormalization is applied. To extract stimulation related components, normalized event-related potential method was used. 3. Results: From Oz channels, it is verified that facial image processing components are extracted. For lower level noise, components related to the visual stimulation were clearly shown in Oz, Pz, and Cz channels. Pz and Cz channels show differences among 3 constitutional groups in maximum around 200 msec. Especially moderate level of noise looks appropriate for diagnosis. 4. Conclusion: We verified that the visual stimulation with facial emotion might be a good candidate to evoke the differences between constitutional groups in EEG response. The differences shown in the experiment may imply that the process of emotion has distinct tendencies in latencies and sensitivity for each consitutional group. And this distinction might be related to the temperament profile of consitutional groups.

Global Feature Extraction and Recognition from Matrices of Gabor Feature Faces

  • Odoyo, Wilfred O.;Cho, Beom-Joon
    • Journal of information and communication convergence engineering
    • /
    • 제9권2호
    • /
    • pp.207-211
    • /
    • 2011
  • This paper presents a method for facial feature representation and recognition from the Covariance Matrices of the Gabor-filtered images. Gabor filters are a very powerful tool for processing images that respond to different local orientations and wave numbers around points of interest, especially on the local features on the face. This is a very unique attribute needed to extract special features around the facial components like eyebrows, eyes, mouth and nose. The Covariance matrices computed on Gabor filtered faces are adopted as the feature representation for face recognition. Geodesic distance measure is used as a matching measure and is preferred for its global consistency over other methods. Geodesic measure takes into consideration the position of the data points in addition to the geometric structure of given face images. The proposed method is invariant and robust under rotation, pose, or boundary distortion. Tests run on random images and also on publicly available JAFFE and FRAV3D face recognition databases provide impressively high percentage of recognition.