• 제목/요약/키워드: facial expression analysis

검색결과 164건 처리시간 0.028초

Harris Corner Detection for Eyes Detection in Facial Images

  • Navastara, Dini Adni;Koo, Kyung-Mo;Park, Hyun-Jun;Cha, Eui-Young
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2013년도 춘계학술대회
    • /
    • pp.373-376
    • /
    • 2013
  • Nowadays, eyes detection is required and considered as the most important step in several applications, such as eye tracking, face identification and recognition, facial expression analysis and iris detection. This paper presents the eyes detection in facial images using Harris corner detection. Firstly, Haar-like features for face detection is used to detect a face region in an image. To separate the region of the eyes from a whole face region, the projection function is applied in this paper. At the last step, Harris corner detection is used to detect the eyes location. In experimental results, the eyes location on both grayscale and color facial images were detected accurately and effectively.

  • PDF

Skin Color Based Facial Features Extraction

  • Alom, Md. Zahangir;Lee, Hyo Jong
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2011년도 추계학술발표대회
    • /
    • pp.351-354
    • /
    • 2011
  • This paper discusses on facial features extraction based on proposed skin color model. Different parts of face from input image are segmented based on skin color model. Moreover, this paper also discusses on concept to detect the eye and mouth position on face. A height and width ratio (${\delta}=1.1618$) based technique is also proposed to accurate detection of face region from the segmented image. Finally, we have cropped the desired part of the face. This exactly exacted face part is useful for face recognition and detection, facial feature analysis and expression analysis. Experimental results of propose method shows that the proposed method is robust and accurate.

An Action Unit co-occurrence constraint 3DCNN based Action Unit recognition approach

  • Jia, Xibin;Li, Weiting;Wang, Yuechen;Hong, SungChan;Su, Xing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권3호
    • /
    • pp.924-942
    • /
    • 2020
  • The facial expression is diverse and various among persons due to the impact of the psychology factor. Whilst the facial action is comparatively steady because of the fixedness of the anatomic structure. Therefore, to improve performance of the action unit recognition will facilitate the facial expression recognition and provide profound basis for the mental state analysis, etc. However, it still a challenge job and recognition accuracy rate is limited, because the muscle movements around the face are tiny and the facial actions are not obvious accordingly. Taking account of the moving of muscles impact each other when person express their emotion, we propose to make full use of co-occurrence relationship among action units (AUs) in this paper. Considering the dynamic characteristic of AUs as well, we adopt the 3D Convolutional Neural Network(3DCNN) as base framework and proposed to recognize multiple action units around brows, nose and mouth specially contributing in the emotion expression with putting their co-occurrence relationships as constrain. The experiments have been conducted on a typical public dataset CASME and its variant CASME2 dataset. The experiment results show that our proposed AU co-occurrence constraint 3DCNN based AU recognition approach outperforms current approaches and demonstrate the effectiveness of taking use of AUs relationship in AU recognition.

얼굴 특징 정보를 이용한 얼굴 방향성 검출 (Detection of Facial Direction using Facial Features)

  • 박지숙;동지연
    • 인터넷정보학회논문지
    • /
    • 제4권6호
    • /
    • pp.57-67
    • /
    • 2003
  • 최근 멀티미디어 처리 기술과 광학 기술의 발달과 더불어 얼굴 영상 정보를 이용한 응용 시스템에 대한 관심이 증대되고 있다. 기존의 얼굴 정보와 관련한 연구들은 대부분 정면 영상을 해석하여 사람을 식별하거나 영상의 표정을 분석하는데 초점을 두어왔으며 임의의 얼굴 영상의 방향성에 대한 연구는 부족한 실정이다. 특히, 한대의 카메라로 연속 촬영된 이미지들을 이용하는 기존의 방향성 검출 기법에서는 초기 영상이 정면 영상이어야 하는 제약점을 가진다. 본 논문에서는 얼굴의 특징 정보를 이용하여 임의의 얼굴 영상의 방항성을 검출하는 기법을 제안한다. 제안된 기법에서는 두 눈과 입술의 특징점을 기반으로 얼굴 사다리꼴을 정의하고, 얼굴 사다리꼴의 좌$.$우 면적을 비교한 통계 데이터를 이용하여 얼굴 영상의 좌.우 방향성을 계산하는 방향성 함수를 정의한다. 제안된 얼굴 영상의 검출 기법은 얼굴 영상의 방향성에 따라 얼굴 영상의 좌$.$우 여백을 안정적으로 설정하는 영상의 자동 배치 응용에 효과적으로 활용될 수 있다.

  • PDF

3D 캐릭터의 얼굴 표정 애니메이션 마커리스 표정 인식 기술 비교 분석 -페이스웨어와 페이스쉬프트 방식 중심으로- (Comparative Analysis of Markerless Facial Recognition Technology for 3D Character's Facial Expression Animation -Focusing on the method of Faceware and Faceshift-)

  • 김해윤;박동주;이태구
    • 만화애니메이션 연구
    • /
    • 통권37호
    • /
    • pp.221-245
    • /
    • 2014
  • 1995년 세계 최초의 극장용 3D 컴퓨터 애니메이션 영화 "토이 스토리"의 흥행성공은 3D 컴퓨터 애니메이션의 산업적 발전에 큰 도약을 할 수 있는 계기를 만들었다. 이에 영향을 받아 TV용 3D 애니메이션 작품들이 다양하게 제작되었으며 게임 분야에서도 고화질의 3D 컴퓨터 애니메이션 게임들이 보편화되었다. 이와 같이 산업적 수요가 확대됨에 따라 막대한 제작 시간 및 비용 절감을 위한 기술적 발달이 활발하게 진행되어왔다. 이에 따라 전통적인 그림 애니메이션 제작 방식에 비하여 3D 컴퓨터 애니메이션의 제작 효율성은 비교를 할 수 없을 정도로 발전되어왔다. 본 논문에서는 3D 컴퓨터 애니메이션 제작의 효율성 제고를 위하여 얼굴 표정 애니메이션 마커리스(Markless 이하: 마커리스) 모션캡처 시스템들을 실험 및 비교분석하였다. 이미지 메트릭스(Image Metrics)사 제품인 페이스웨어(Faceware) 시스템은 모션캡처 인식 및 적용 과정의 복잡성은 있지만 정교함 측면에서 장점이 있으며, 페이스쉬프트(Faceshift)사 제품인 페이스쉬프트(Faceshift) 시스템은 실시간 모션 인식 및 적용의 신속성이 장점인 반면 정교함이 상대적으로 떨어진다는 결과를 도출하였다. 본 논문의 비교 분석 결과가 애니메이션 제작을 제작 할 때, 제작 시간 및 비용, 결과물의 정교함 정도 및 활용 매체에 따라 가장 효율적인 얼굴 표정 애니메이션 제작을 위한 모션캡처 및 키 프레임 애니메이션 제작 방식의 선택에 기초 자료가 되기를 기대한다.

Expression and Functional Analysis of cofilin1-like in Craniofacial Development in Zebrafish

  • Jin, Sil;Jeon, Haewon;Choe, Chong Pyo
    • 한국발생생물학회지:발생과생식
    • /
    • 제26권1호
    • /
    • pp.23-36
    • /
    • 2022
  • Pharyngeal pouches, a series of outgrowths of the pharyngeal endoderm, are a key epithelial structure governing facial skeleton development in vertebrates. Pouch formation is achieved through collective cell migration and rearrangement of pouch-forming cells controlled by actin cytoskeleton dynamics. While essential transcription factors and signaling molecules have been identified in pouch formation, regulators of actin cytoskeleton dynamics have not been reported yet in any vertebrates. Cofilin1-like (Cfl1l) is a fish-specific member of the Actin-depolymerizing factor (ADF)/Cofilin family, a critical regulator of actin cytoskeleton dynamics in eukaryotic cells. Here, we report the expression and function of cfl1l in pouch development in zebrafish. We first showed that fish cfl1l might be an ortholog of vertebrate adf, based on phylogenetic analysis of vertebrate adf and cfl genes. During pouch formation, cfl1l was expressed sequentially in the developing pouches but not in the posterior cell mass in which future pouch-forming cells are present. However, pouches, as well as facial cartilages whose development is dependent upon pouch formation, were unaffected by loss-of-function mutations in cfl1l. Although it could not be completely ruled out a possibility of a genetic redundancy of Cfl1l with other Cfls, our results suggest that the cfl1l expression in the developing pouches might be dispensable for regulating actin cytoskeleton dynamics in pouch-forming cells.

아다부스트 학습과 비정방형 Differential LBP를 이용한 얼굴영상 특징분석 (Face Image Analysis using Adaboost Learning and Non-Square Differential LBP)

  • 임길택;원철호
    • 한국멀티미디어학회논문지
    • /
    • 제19권6호
    • /
    • pp.1014-1023
    • /
    • 2016
  • In this study, we presented a method for non-square Differential LBP operation that can well describe the micro pattern in the horizontal and vertical component. We proposed a way to represent a LBP operation with various direction components as well as the diagonal component. In order to verify the validity of the proposed operation, Differential LBP was investigated with respect to accuracy, sensitivity, and specificity for the classification of facial expression. In accuracy comparison proposed LBP operation obtains better results than Square LBP and LBP-CS operations. Also, Proposed Differential LBP gets better results than previous two methods in the sensitivity and specificity indicators 'Neutral', 'Happiness', 'Surprise', and 'Anger' and excellence Differential LBP was confirmed.

Face-to-face Communication in Cyberspace using Analysis and Synthesis of Facial Expression

  • Shigeo Morishima
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 KOBA 방송기술 워크샵 KOBA Broadcasting Technology Workshop
    • /
    • pp.111-118
    • /
    • 1999
  • Recently computer can make cyberspace to walk through by an interactive virtual reality technique. An a avatar in cyberspace can bring us a virtual face-to-face communication environment. In this paper, an avatar is realized which has a real face in cyberspace and a multiuser communication system is constructed by voice transmitted through network. Voice from microphone is transmitted and analyzed, then mouth shape and facial expression of avatar are synchronously estimated and synthesized on real time. And also an entertainment application of a real-time voice driven synthetic face is introduced and this is an example of interactive movie. Finally, face motion capture system using physics based face model is introduced.

독립 요소 분석을 이용한 얼굴 표정의 매개변수화 (On Parameterizing of Human Expression Using ICA)

  • 송지혜;신현준
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제15권1호
    • /
    • pp.7-15
    • /
    • 2009
  • 본 논문에서는 표정을 매개변수 공간에서 표현하고 응용하기 위한 새로운 방법을 제안한다. 컴퓨터 애니메이션 분야에서 복잡한 얼굴 표정을 보다 간단하게 표현하기 위해 표정을 매개변수화 하기 위한 다양한 연구들이 이루어졌다. 본 논문에서는 사람의 얼굴 표정을 포착한 데이터를 이용하여 표정을 구성하는 간단한 몇 개의 주요 움직임을 분석한다. 이를 위해 먼저 표정 매개 변수화를 애니메이션에 효과적으로 적용하기 위해 필요한 요구사항을 정리하고, 기존 연구들의 제한점을 파악한다. 본 논문에서는 많은 양의 표정 데이터에 독립 요소 분석(independent component analysis)기법을 적응함으로써 사람의 표정을 나타내는 독립적인 움직임을 추출하고 표정의 매개변수 공간을 구성한다. 또한 얼굴의 비선형적 움직임을 보다 정확하게 근사하기 위한 변형 모델과 데이터를 기반으로 변형 모델을 학습하기 위한 방법을 제안한다. 이러한 과정을 통하여 직관적으로 일반 사용자도 쉽게 표정을 제어할수 있는 매개변수 집합과 변형 모델을 얻을 수 있다.

  • PDF

지체장애인의 운동참여와 심박변이도(HRV), 표정정서인식력과의 관계 (The Relationship between Physically Disability Persons Participation in Exercise, Heart Rate Variance, and Facial Expression Recognition)

  • 김동환;백재근
    • 재활복지
    • /
    • 제20권3호
    • /
    • pp.105-124
    • /
    • 2016
  • 본 연구는 지체장애인들의 운동참여와 심박변이도(HRV), 표정정서인식력의 인과관계를 검증하는데 목적이 있다. 이를 위해 목적표집법(purposive sampling)을 이용하여, 장애인 볼링 및 론볼대회에 참여한 참가자와 충남지역의 생활체육 운동 프로그램에 참여하는 지체장애인 139명을 대상으로 하였다. 경기장과 클럽활동 시설에 직접 방문하여 연구목적을 구체적으로 설명을 한 후, 연구 참여에 동의한 대상자에 한해 운동량, 심박변이도(HRV), 표정정서인식력을 측정하였다. 측정된 결과는 SPSS 18.0, Amos 18.0 프로그램을 이용하여 평균 및 표준편차, 상관분석, 구조방정식모형을 분석되었고, 그 결과, 지체장애인들의 운동량은 자율신경계의 교감활성도와 부교감 활성도에 긍정적인 영향을 미치는 것으로 나타났다. 지체장애인들의 운동경력은 LF/HF에 긍정적인 영향을 미치는 것으로 나타났고, 부교감 활성도에는 부정적인 영향을 미치는 것으로 나타났다. 지체장애인의 교감활성도는 기쁨 정서인식력에 긍정적인 영향을 미치는 것으로 나타났으며, 운동량은 슬픔 정서인식력에 부정적인 영향을 미치는 것으로 나타났다. 이러한 연구결과가 지체장애인의 자율신경계와 표정정서인식력에 어떻게 관련성이 있는지 그 메카니즘에 대해 논의되었다.