• 제목/요약/키워드: facial expressions

검색결과 325건 처리시간 0.024초

얼굴에서 거리 측정에 의한 노래 플레이어 (Song Player by Distance Measurement from Face)

  • 신성윤;이민혜;신광성;이현창
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.667-669
    • /
    • 2022
  • 본 논문에서는 개인의 표정을 인식하여 그에 맞는 음악을 연주하는 시스템인 Face Song Player를 제시한다. 얼굴 윤곽선에 대한 정보를 연구하고 평균을 추출하여 얼굴형 정보를 획득한다. 학습용 DB는 MUCT DB를 사용하였다. 표정 인식을 위해 무표정 영상을 기반으로 각 표정의 특성 차이를 이용하여 알고리즘을 설계하였다.

  • PDF

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.1-5
    • /
    • 2009
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링 기반의 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 5가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.

적응형 결정 트리를 이용한 국소 특징 기반 표정 인식 (Local Feature Based Facial Expression Recognition Using Adaptive Decision Tree)

  • 오지훈;반유석;이인재;안충현;이상윤
    • 한국통신학회논문지
    • /
    • 제39A권2호
    • /
    • pp.92-99
    • /
    • 2014
  • 본 논문은 결정 트리(Decision tree) 구조를 기반으로 한 표정 인식 방법을 제안한다. ASM(Active Shape Model)과 LBP(Local Binary Pattern)를 통해, 표정 영상들의 국소 특징들을 추출한다. 국소 특징들로부터 표정들을 잘 분류할 수 있는 판별 특징(Discriminant feature)들을 추출하고, 그 판별 특징들은 모든 조합의 각 두 가지 표정들을 분류시킨다. 분류를 통해 얻어진 정인식의 합을 통해, 정인식 최대화 기반 국소 영역과 표정 조합을 결정한다. 이 가지 분류들을 종합하여, 결정 트리를 생성한다. 이 결정 트리 기반 표정 인식률은 약 84.7%로, 결정 트리를 고려하지 않은 방법보다, 더 좋은 인식 성능을 보였다.

뉴미디어 아트에 나타난 비언어적 표현 -표정과 소리의 사례연구를 중심으로 (Nonverbal Expressions in New Media Art -Case Studies about Facial Expressions and Sound)

  • 유미;안경희
    • 한국콘텐츠학회논문지
    • /
    • 제19권10호
    • /
    • pp.146-156
    • /
    • 2019
  • 뉴미디어 아트는 장소와 시간적 제약에서 벗어나 테크놀로지의 혜택을 예술로 승화하고 관람자와 새로운 소통 방식을 제시한다. 본 논문은 초기의 뉴미디어 아트에서 나타난 비언어적 의사소통 방식의 경향을 분석하고자 표정과 소리에 관한 사례들을 연구했다. 결과적으로 뉴미디어 아트에 나타난 디지털 패러다임은 비선형성 사고를 갖게 하여 몰입과 지각적 분절감을 느끼게 하였음을 발견하였다. 뉴미디어 아트에서 표정은 '시각적 왜곡화, 확장화, 가상화'를 통해 얼굴 표현의 공간성과 시간성을 극복했고 디지털 환경 속에서 얼굴 구성 요소의 결합과 분리는 새로운 방식의 소통을 가능하게 하였다. 뉴미디어 아트에서 소리는 청각 감각에 머물지 않고 다른 감각과 협응하여 다감각화와 공감각화를 추구하며 공간의 확장성과 감각과 수용자의 상호작용성의 특성을 드러내며 발전하고 있었다.

표정 강도에 강건한 얼굴 표정 인식 (Robust Facial Expression-Recognition Against Various Expression Intensity)

  • 김진옥
    • 정보처리학회논문지B
    • /
    • 제16B권5호
    • /
    • pp.395-402
    • /
    • 2009
  • 본 연구는 표정 인식률을 개선하기 위한, 강도가 다른 표정을 인식하는 새로운 표정 인식 방법을 제안한다. 사람마다 다르게 나타나는 표정과 표정마다 다른 강도는 표정 인식률 저하에 지대한 영향을 미친다. 하지만 얼굴 표정의 다양한 강도를 처리하는 방법은 많이 제시되지 않고 있다. 본 연구에서는 표정 템플릿과 표정 강도 분포모델을 이용하여 다양한 얼굴 표정 강도를 인식하는 방법을 제시한다. 표정 템플릿과 표정강도 분포모델은 얼굴의 특징 부위에 표시한 관심 점과 얼굴 특징 부위간의 움직임이 다른 표정과 강도에 따라 어떻게 달라지는지 설명하여 표정 인식률 개선에 기여한다. 제안 방법은 정지 이미지뿐만 아니라 비디오시퀀스에서도 빠른 측정 과정을 통해 다양한 강도의 표정을 인식할 수 있는 장점이 있다. 실험 결과, 제안 연구가 특히 약한 강도의 표정에 대해 타 방법보다 높은 인식 결과를 보여 제안 방법이 다양한 강도의 표정 인식에 강건함을 알 수 있다.

CREATING JOYFUL DIGESTS BY EXPLOITING SMILE/LAUGHTER FACIAL EXPRESSIONS PRESENT IN VIDEO

  • Kowalik, Uwe;Hidaka, Kota;Irie, Go;Kojima, Akira
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.267-272
    • /
    • 2009
  • Video digests provide an effective way of confirming a video content rapidly due to their very compact form. By watching a digest, users can easily check whether a specific content is worth seeing in full. The impression created by the digest greatly influences the user's choice in selecting video contents. We propose a novel method of automatic digest creation that evokes a joyful impression through the created digest by exploiting smile/laughter facial expressions as emotional cues of joy from video. We assume that a digest presenting smiling/laughing faces appeals to the user since he/she is assured that the smile/laughter expression is caused by joyful events inside the video. For detecting smile/laughter faces we have developed a neural network based method for classifying facial expressions. Video segmentation is performed by automatic shot detection. For creating joyful digests, appropriate shots are automatically selected by shot ranking based on the smile/laughter detection result. We report the results of user trials conducted for assessing the visual impression with automatically created 'joyful' digests produced by our system. The results show that users tend to prefer emotional digests containing laughter faces. This result suggests that the attractiveness of automatically created video digests can be improved by extracting emotional cues of the contents through automatic facial expression analysis as proposed in this paper.

  • PDF

감정에 따른 얼굴 표정변화와 12경락(經絡) 흐름의 상관성 연구 (Study on the Relationship Between 12Meridians Flow and Facial Expressions by Emotion)

  • 박유진;문주호;최수진;신선미;김기태;고흥
    • 동의생리병리학회지
    • /
    • 제26권2호
    • /
    • pp.253-258
    • /
    • 2012
  • Facial expression was an important communication methods. In oriental medicine, according to the emotion the face has changed shape and difference occurs in physiology and pathology. To verify such a theory, we studied the correlation between emotional facial expressions and meridian and collateral flow. The facial region divided by meridian, outer brow was Gallbladder meridian, inner brow was Bladder meridian, medial canthus was Bladder meridian, lateral canthus was Gallbladder meridian, upper eyelid was Bladder meridian, lower eyelid was Stomach meridian, central cheeks was Stomach meridian, lateral cheeks was Small intestine meridian, upper and lower lips, lip corner, chin were Small and Large intestine meridian. Meridian and collateral associated with happiness was six. This proves happiness is a high importance on facial expression. Meridian and collateral associated with anger was five. Meridian and Collateral associated with fear and sadness was four. This shows fear and sadness are a low importance on facial expression than different emotion. Based on yang meridian which originally descending flow in the body, the ratio of anterograde and retrograde were happiness 3:4, angry 2:5, sadness 5:3, fear 4:1. Based on face of the meridian flow, the ratio of anterograde and retrograde were happiness 5:2, angry 3:4, sadness 3:5, fear 4:1. We found out that practical meridian and collateral flow change by emotion does not correspond to the expected meridian and collateral flow change by emotion.

아바타 통신에서의 얼굴 표정의 생성 방법 (A Generation Methodology of Facial Expressions for Avatar Communications)

  • 김진용;유재휘
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권3호
    • /
    • pp.55-64
    • /
    • 2005
  • 사이버 공간 내에서 텍스트나 영상 이외에 보조적인 통신 수단으로써, 아바타 통신을 이용할 수 있다. 실시간 아바타 영상 통신을 위하여, 전체 영상이나 압축 영상을 전송하는 대신에 아바타의 애니메이션 파라미터(팔의 동작 및 제스처를 위한 각도 또는 얼굴 표정을 위한 파라미터 등)만을 전송하는 지적 통신방식을 이용하기도 한다. 본 논문에서는 팔, 다리 등의 파라메타 등의 몸의 동적 움직임을 보조할 수 있는 수단으로써, 송신자의 감정을 표현할 수 있는 아바타의 얼굴 표정 생성에 대하여 제안한다. 얼굴 표정은 AU(Action Unit)에 의하여 표현할 수 있으며, 여기에서는 모양과 구조가 다른 아바타 모델에서 표정을 생성하기 위한 AU를 찾아내는 방법을 제안한다. 그리고, 감정 표현의 극대화를 위하여 얼굴 표현의 효율을 위하여, 눈썹, 눈, 코, 입에 대한 코믹 스타일을 가지는 아바타 모델을 제안한다. 또한, 얼굴 표정 합성을 위한 파라메타들도 제시하도록 한다.

  • PDF

Skeleton System으로 운용되는 얼굴표정 애니메이션에 관한 연구 (The Study of Skeleton System for Facial Expression Animation)

  • 오성석
    • 한국게임학회 논문지
    • /
    • 제8권2호
    • /
    • pp.47-55
    • /
    • 2008
  • 본 논문에서는 스켈레톤(skeleton)의 리깅(rigging)방식을 사용하여 해부학을 기초로 한 14개의 표정근과 동일한 기능을 수행하게 얼굴의 표정을 표현하는 SSFE(Skeleton System for Facial Expression)를 제안한다. SSFE는 3차원애니메이션저작도구(MAYA 8.5)에서 제공하는 스켈레톤을 Deformer로 이용하여 메시모델(mesh model)의 눈, 코, 입 주변의 얼굴표정을 단위 동작별로 구분하여 조합하여 얼굴표정을 만들어 내는 방식이다. 이 결과, SSFE식 스켈레톤은 다른 모델에 무한대로 변형하여 재활용 할 수 있게 해준다. 이러한 재활용성은 애니메이션의 제작방식의 OSMU(One Source Multi Use)로 이해 될 수 있으며 애니메이션의 제작비용을 줄일 수 있는 대체방식이다. 또한 3차원 애니메이션 관련업체 즉 가상현실이나 게임, 제작에 활용될 수 있다.

  • PDF

인공근육을 이용한 얼굴로봇 (A Face Robot Actuated with Artiflcial Muscle)

  • 곽종원;지호준;정광목;남재도;전재욱;최혁렬
    • 제어로봇시스템학회논문지
    • /
    • 제10권11호
    • /
    • pp.991-999
    • /
    • 2004
  • Face robots capable of expressing their emotional status, can be adopted as an efficient tool for friendly communication between the human and the machine. In this paper, we present a face robot actuated with artificial muscle based on dielectric elastomer. By exploiting the properties of polymers, it is possible to actuate the covering skin, eyes as well as provide human-like expressivity without employing complicated mechanisms. The robot is driven by seven types of actuator modules such as eye, eyebrow, eyelid, brow, cheek, jaw and neck module corresponding to movements of facial muscles. Although they are only part of the whole set of facial motions, our approach is sufficient to generate six fundamental facial expressions such as surprise, fear, anger, disgust, sadness, and happiness. Each module communicates with the others via CAN communication protocol fur the desired emotional expressions, the facial motions are generated by combining the motions of each actuator module. A prototype of the robot has been developed and several experiments have been conducted to validate its feasibility.