• Title/Summary/Keyword: 표정점

Search Result 303, Processing Time 0.027 seconds

Feature-Point Extraction by Dynamic Linking Model bas Wavelets and Fuzzy C-Means Clustering Algorithm (Gabor 웨이브렛과 FCM 군집화 알고리즘에 기반한 동적 연결모형에 의한 얼굴표정에서 특징점 추출)

  • Sin, Yeong Suk
    • Korean Journal of Cognitive Science
    • /
    • v.14 no.1
    • /
    • pp.10-10
    • /
    • 2003
  • This paper extracts the edge of main components of face with Gabor wavelets transformation in facial expression images. FCM(Fuzzy C-Means) clustering algorithm then extracts the representative feature points of low dimensionality from the edge extracted in neutral face. The feature-points of the neutral face is used as a template to extract the feature-points of facial expression images. To match point to Point feature points on an expression face against each feature point on a neutral face, it consists of two steps using a dynamic linking model, which are called the coarse mapping and the fine mapping. This paper presents an automatic extraction of feature-points by dynamic linking model based on Gabor wavelets and fuzzy C-means(FCM) algorithm. The result of this study was applied to extract features automatically in facial expression recognition based on dimension[1].

Analysis of the Internal Reliability in Relative Orientation and Independent Model Method (상호표정 및 독립모델법에서의 내적신뢰성 분석)

  • 양인태
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.5 no.1
    • /
    • pp.59-65
    • /
    • 1987
  • This paper presented the procedures for detecting gross errors, and described the influence of the number and distribution of points on the internal reliability in photogrammetric adjustment, such as relative orientation and independent model method. The use of the standard six points for relative orientation and the regular four points for independent model method result in low internal reliability. With such a distribution, gross erors in measured points might not be detected But using cluster of double or triple points instead of individual point, internal reliability improves remarkably.

  • PDF

Detection of Face-element for Facial Analysis (표정분석을 위한 얼굴 구성 요소 검출)

  • 이철희;문성룡
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.41 no.2
    • /
    • pp.131-136
    • /
    • 2004
  • According to development of media, various information is recorded in media, expression is one during interesting information. Because expression includes of relationship of human inside. Intention of inside is expressed by gesture, but expression has more information. And, expression can manufacture voluntarily, include plan of inside on the man. Also, expression has unique character in a person, have alliance that do division possibility. In this paper, to analyze expression of USB camera animation, wish to detect facial building block. Because characteristic point by person's expression change exists on face component. For component detection, in animation one frame with Capture, grasp facial position, and separate face area, and detect characteristic points of face component.

Warping using for Efficiency Face Recognition (워핑 기법을 적용한 효율적인 얼굴 인식)

  • Jung, Won-Gu;Rhee, Pil-Kyu
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.832-834
    • /
    • 2005
  • 본 논문에서는 여러 가지 표정으로 입력되어지는 얼굴 이미지를 효율적으로 인식시키는 작업을 수행하는 방법에 대한 내용을 소개하고 있다. 각 얼굴 이미지들은 상황에 따라 많은 표정에 영향 성분을 포함하고 있다. 이런 각기 특성이 다른 얼굴 이미지들의 효율적인 인식을 위하여, 특징 점을 선정을 한 후 실험 진행을 하면 표정에 영향을 많이 받는 이미지를 구분할 수 있다. 여기서 제안하는 방법은 표정이 많이 포함된 이미지에 대하여 표정에 영향을 많이 미치는 특징 점과 그 특징 점영역에 와핑 기법을 처리함으로써 표정이 있는 이미지를 인식하는 방법을 제안한다.

  • PDF

SVM Based Facial Expression Recognition for Expression Control of an Avatar in Real Time (실시간 아바타 표정 제어를 위한 SVM 기반 실시간 얼굴표정 인식)

  • Shin, Ki-Han;Chun, Jun-Chul;Min, Kyong-Pil
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.1057-1062
    • /
    • 2007
  • 얼굴표정 인식은 심리학 연구, 얼굴 애니메이션 합성, 로봇공학, HCI(Human Computer Interaction) 등 다양한 분야에서 중요성이 증가하고 있다. 얼굴표정은 사람의 감정 표현, 관심의 정도와 같은 사회적 상호작용에 있어서 중요한 정보를 제공한다. 얼굴표정 인식은 크게 정지영상을 이용한 방법과 동영상을 이용한 방법으로 나눌 수 있다. 정지영상을 이용할 경우에는 처리량이 적어 속도가 빠르다는 장점이 있지만 얼굴의 변화가 클 경우 매칭, 정합에 의한 인식이 어렵다는 단점이 있다. 동영상을 이용한 얼굴표정 인식 방법은 신경망, Optical Flow, HMM(Hidden Markov Models) 등의 방법을 이용하여 사용자의 표정 변화를 연속적으로 처리할 수 있어 실시간으로 컴퓨터와의 상호작용에 유용하다. 그러나 정지영상에 비해 처리량이 많고 학습이나 데이터베이스 구축을 위한 많은 데이터가 필요하다는 단점이 있다. 본 논문에서 제안하는 실시간 얼굴표정 인식 시스템은 얼굴영역 검출, 얼굴 특징 검출, 얼굴표정 분류, 아바타 제어의 네 가지 과정으로 구성된다. 웹캠을 통하여 입력된 얼굴영상에 대하여 정확한 얼굴영역을 검출하기 위하여 히스토그램 평활화와 참조 화이트(Reference White) 기법을 적용, HT 컬러모델과 PCA(Principle Component Analysis) 변환을 이용하여 얼굴영역을 검출한다. 검출된 얼굴영역에서 얼굴의 기하학적 정보를 이용하여 얼굴의 특징요소의 후보영역을 결정하고 각 특징점들에 대한 템플릿 매칭과 에지를 검출하여 얼굴표정 인식에 필요한 특징을 추출한다. 각각의 검출된 특징점들에 대하여 Optical Flow알고리즘을 적용한 움직임 정보로부터 특징 벡터를 획득한다. 이렇게 획득한 특징 벡터를 SVM(Support Vector Machine)을 이용하여 얼굴표정을 분류하였으며 추출된 얼굴의 특징에 의하여 인식된 얼굴표정을 아바타로 표현하였다.

  • PDF

A Study on Direct Georeferencing by Combined Multi-sensor (다중센서 결합에 의한 외부표정요소 직접결정기법에 관한 연구)

  • Song, Youn-Kyung
    • Journal of the Korean Association of Geographic Information Studies
    • /
    • v.8 no.1
    • /
    • pp.88-95
    • /
    • 2005
  • Direct Georeferencing by combined multi-sensor based on the direct measurement of the projection centers and rotation angle of sensor through loading the GPS and INS in aircraft. The method of combined multi-sensor can offer us to acquire the exterior orientation parameters with only minimum GCPs, even the ground control process could be completely skipped. Consequently, It is possible extreme to reduce the time and expense for the mapping process. In this study, a CCD camera is simultaneously used in combined multi-sensor surveying, and acquired CCD image through Direct Georeferencing produce digital orthoimage. In this process, methods of combining sensor and digital orthoimage are examined and estimated. For the comparison of the positioning accuracy digital orthoimage through Direct Georeferencing, GCPs determined by GPS surveying are used. Two digital orthoimage are produced; one with a few GCP and the other without them. The accuracy of orthoimages produced through combined multi-sensor with GCPs meets that of 1:1,000 maps. Without GCPs, it meets that of 1:5,000 maps.

  • PDF

The Analysis of the fault location measurement error by Digital Relay (디지털 보호계전기의 고장점 표정에 대한 오차 분석)

  • Kim, Ho-Pyo;Park, Eung-Ju
    • Proceedings of the KIEE Conference
    • /
    • 2002.11b
    • /
    • pp.312-314
    • /
    • 2002
  • 송전선로에 고장발생시 해당선로에 취부된 디지털 보호계전기의 보조기능인 거리표정의 신뢰도를 확인하기 위하여 보호계전기 제작사, 고장종류, 계전기 TYPE별로 거리 표정결과와 실제 고장점과의 오차 등에 대하여 세부적으로 통계 분석을 실시 하였다.

  • PDF

A neural network model for recognizing facial expressions based on perceptual hierarchy of facial feature points (얼굴 특징점의 지각적 위계구조에 기초한 표정인식 신경망 모형)

  • 반세범;정찬섭
    • Korean Journal of Cognitive Science
    • /
    • v.12 no.1_2
    • /
    • pp.77-89
    • /
    • 2001
  • Applying perceptual hierarchy of facial feature points, a neural network model for recognizing facial expressions was designed. Input data were convolution values of 150 facial expression pictures by Gabor-filters of 5 different sizes and 8 different orientations for each of 39 mesh points defined by MPEG-4 SNHC (Synthetic/Natural Hybrid Coding). A set of multiple regression analyses was performed with the rating value of the affective states for each facial expression and the Gabor-filtered values of 39 feature points. The results show that the pleasure-displeasure dimension of affective states is mainly related to the feature points around the mouth and the eyebrows, while a arousal-sleep dimension is closely related to the feature points around eyes. For the filter sizes. the affective states were found to be mostly related to the low spatial frequency. and for the filter orientations. the oblique orientations. An optimized neural network model was designed on the basis of these results by reducing original 1560(39x5x8) input elements to 400(25x2x8) The optimized model could predict human affective rating values. up to the correlation value of 0.886 for the pleasure-displeasure, and 0.631 for the arousal-sleep. Mapping the results of the optimized model to the six basic emotional categories (happy, sad, fear, angry, surprised, disgusted) fit 74% of human responses. Results of this study imply that, using human principles of recognizing facial expressions, a system for recognizing facial expressions can be optimized even with a a relatively little amount of information.

  • PDF

Accuracy Analysis of Image Orientation Technique and Direct Georeferencing Technique

  • Bae Sang-Keun;Kim Byung-Guk
    • Spatial Information Research
    • /
    • v.13 no.4 s.35
    • /
    • pp.373-380
    • /
    • 2005
  • Mobile Mapping Systems are effective systems to acquire the position and image data using vehicle equipped with the GPS (Global Positioning System), IMU (Inertial Measurement Unit), and CCD camera. They are used in various fields of road facility management, map update, and etc. In the general photogrammetry such as aerial photogrammetry, GCP (Ground Control Point)s are needed to compute the image exterior orientation elements (the position and attitude of camera). These points are measured by field survey at the time of data acquisition. But it costs much time and money. Moreover, it is not possible to make sufficient GCP as much as we want. However Mobile Mapping Systems are more efficient both in time and money because they can obtain the position and attitude of camera at the time of photographing. That is, Image Orientation Technique must use GCP to compute the image exterior orientation elements, but on the other hand Direct Georeferencing can directly compute the image exterior orientation elements by GPS/INS. In this paper, we analyze about the positional accuracy comparison of ground point using the Image Orientation Technique and Direct Georeferencing Technique.

  • PDF

Structural Analysis of Facial Expressions Measured by a Standard Mesh Frame (표준형상모형 정합을 통한 얼굴표정 구조 분석)

  • 한재현;심연숙;변혜란;오경자;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.271-276
    • /
    • 1999
  • 자동 표정인식 및 합성 기술과 내적상태별 얼굴표정 프로토타입 작성의 기초 작업으로서 특정 내적상태를 표현하는 얼굴표정의 특징적 구조를 분석하였다. 내적상태의 평정 절차를 거쳐 열 다섯 가지의 내적상태로 명명된 배우 여섯 명에 대한 영상자료 90장을 사용하여 각 표정의 특징적 구조를 발견하고자 하였다. 서로 다른 얼굴들의 표준화 작업과 서로 다른 표정들의 직접 비교 작업에 정확성을 기하기 위하여 각 표정 표본들을 한국인 표준형상모형에 정합하였다. 정합 결과로 얻어진 각 얼굴표정의 특징점에 대해 모형이 규정하고 있는 좌표값들만으로는 표정해석이 불가능하며 중립얼굴로부터의 변화값이 표정해석에 유효하다는 결론을 얻었다. 표정의 특징적 구조는 그 표정이 표현하는 내적상태가 무엇인가에 따라 발견되지 않는 경우도 있었으며 내적상태가 기본정서에 가까울수록 비교적 일관된 형태를 갖는 것으로 나타났다. 내적상태별 특징적 표정을 결정할 수 있는 경우에 표정의 구조는 얼굴표정 요소들 중 일부에 의해서 특징지어짐을 확인하였다.

  • PDF