• 제목/요약/키워드: Face expression

검색결과 454건 처리시간 0.024초

인터랙티브 캐릭터의 감정표현 기술 사례분석 (A Case Study on Emotional Expression Technology of Interactive Character)

  • 안성혜;송수미;성민영;백선욱
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2009년도 춘계 종합학술대회 논문집
    • /
    • pp.197-203
    • /
    • 2009
  • 디지털 기반의 커뮤니케이션 환경에서 점차 사용자가 상호작용이 가능한 커뮤니케이션을 원하게 되고, 사용자 중심의 감정표현 도구가 필요하게 되면서 다양하게 개인화된 감정표현이 가능한 인터랙티브 캐릭터를 개발할 필요성이 대두되고 있다. 본 연구는 개인화된 감정표현이 가능한 인터랙티브 캐릭터를 개발하고, 이를 활용하여 감성콘텐츠를 제작하기 위한 감정표현 기술개발의 방향성을 제시하고자 하는 목적을 가진다. 이를 위해 얼굴표정을 중심으로 감정을 표현하는 기술이 어떻게 구현되고 있으며, 감정표현 도구로서 인터랙티브 캐릭터의 개발 방향은 무엇인지를 사례분석을 통해 살펴보고자 한다.

  • PDF

LDP 기반의 얼굴 표정 인식 평가 시스템의 설계 및 구현 (A Study of Evaluation System for Facial Expression Recognition based on LDP)

  • 이태환;조영탁;안용학;채옥삼
    • 융합보안논문지
    • /
    • 제14권7호
    • /
    • pp.23-28
    • /
    • 2014
  • 본 논문에서는 기존에 제안된 LDP(Local Directional Pattern)를 기반으로 얼굴 표정 인식 시스템에 대한 설계 및 구현 방법을 제안한다. LDP는 얼굴 영상을 구성하고 있는 각 화소를 주변 화소들과의 관계를 고려하여 지역적인 미세 패턴(Local Micro Pattern)으로 표현해준다. 새롭게 제시된 LDP에서 생성되는 코드들이 다양한 조건하에서 정확한 정보를 포함할 수 있는지의 여부를 검증할 필요가 있다. 따라서, 새롭게 제안된 지역 미세 패턴인 LDP를 다양한 환경에서 신속하게 검증하기 위한 평가 시스템을 구축한다. 제안된 얼굴 표정인식 평가 시스템에서는 6개의 컴포넌트를 거쳐 얼굴 표정인식률을 계산할 수 있도록 구성하였으며, Gabor, LBP와 비교하여 LDP의 인식률을 검증한다.

A Local Feature-Based Robust Approach for Facial Expression Recognition from Depth Video

  • Uddin, Md. Zia;Kim, Jaehyoun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권3호
    • /
    • pp.1390-1403
    • /
    • 2016
  • Facial expression recognition (FER) plays a very significant role in computer vision, pattern recognition, and image processing applications such as human computer interaction as it provides sufficient information about emotions of people. For video-based facial expression recognition, depth cameras can be better candidates over RGB cameras as a person's face cannot be easily recognized from distance-based depth videos hence depth cameras also resolve some privacy issues that can arise using RGB faces. A good FER system is very much reliant on the extraction of robust features as well as recognition engine. In this work, an efficient novel approach is proposed to recognize some facial expressions from time-sequential depth videos. First of all, efficient Local Binary Pattern (LBP) features are obtained from the time-sequential depth faces that are further classified by Generalized Discriminant Analysis (GDA) to make the features more robust and finally, the LBP-GDA features are fed into Hidden Markov Models (HMMs) to train and recognize different facial expressions successfully. The depth information-based proposed facial expression recognition approach is compared to the conventional approaches such as Principal Component Analysis (PCA), Independent Component Analysis (ICA), and Linear Discriminant Analysis (LDA) where the proposed one outperforms others by obtaining better recognition rates.

Small Molecules Targeting for ESX-Sur2 Proteins' Interaction

  • Kwon, Young-Joo
    • 한국응용약물학회:학술대회논문집
    • /
    • 한국응용약물학회 2008년도 Proceedings of the Convention
    • /
    • pp.77-86
    • /
    • 2008
  • It's been known that overexpression of the oncoprotein Her2 (eu/ErbB2), transmembrane receptor protein, occurs in human breast cancer. Her2-positive breast cancer patients who have Her2 overexpression show less therapeutic efficacy with enhanced metathesis and increased resistance to chemotherapy. So far, a humanized monoclonal antibody against Her2 protein called Herceptin is the only drug approved by Food and Drug Administration for treatment of Her2-overexpressing breast tumors. However, antibody therapy of Herceptin may not be ideal method for therapeutic intervention of Her2 protein expression. The therapeutic intervention of Her2 protein expression may be more efficiently achieved by inhibiting the expression of Her2 gene rather than by down-regulating the Her2 protein already overexpressed. Here, we found that the interaction of two proteins of ESX (an epithelial-restricted transcription factor) and DRIP130/CRSP130/Sur2 (a Ras-linked subunit of human mediator complexes) mediates the expression of Her2 gene. The association of ESX with Sur2 is mediated by a small hydrophobic face of 8-amino acid helix in ESX, suggesting that the ESX-Sur2 interaction can be a new novel target for Her2-positive cancer. The process to develop potent ESX-Sur2 interaction inhibitors targeting for Her2-positive cancer therapeutics will be discussed.

  • PDF

컨볼루션 신경망 기반 표정인식 스마트 미러 (Smart Mirror for Facial Expression Recognition Based on Convolution Neural Network)

  • 최성환;유윤섭
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.200-203
    • /
    • 2021
  • 본 논문은 여러 인공지능 기술 중 이미지 분류를 통한 사람의 얼굴 표정을 인식하는 프로그램을 통해 사람의 표정을 인식하여 거울에 나타내는 스마트미러 기술을 소개한다. 여러 사람의 5가지 표정이미지를 통하여 인공지능으로 학습하였고, 사람이 거울을 볼 때 거울이 그 표정을 인식하여 인식한 결과를 거울에 나타내는 방식이다. 여러 사람의 얼굴을 표정별로 구분되어있는 dataset을 kaggle에서 제공하는 fer2013을 이용하여 사용하였고, 이미지 데이터 분류를 위해 네트워크 구조는 컨볼루션 신경망 구조를 이용하여 학습하였다. 최종적으로 학습된 모델을 임베디드 보드인 라즈베리파이4를 통해서 얼굴을 인식하여 거울을 통해 디스플레이에 나타내는 구조이다.

  • PDF

특징벡터를 사용한 얼굴 영상 인식 연구 (A Study on Face Image Recognition Using Feature Vectors)

  • 김진숙;강진숙;차의영
    • 한국정보통신학회논문지
    • /
    • 제9권4호
    • /
    • pp.897-904
    • /
    • 2005
  • 영상 인식은 영상획득이 용이하다는 것과 실생활에서 광범위하게 사용될 수 있다는 것으로 인해 활발하게 연구되고 있는 분야이다. 그러나 얼굴영상은 높은 차원의 영상공간으로 인해 이미지 처리가 쉽지 않다. 본 논문은 얼굴 영상 데이터의 차원을 특징적인 벡터로 표현하고 이러한 특징벡터를 통해 얼굴 영상을 인식하는 방법은 제안한다. 제안되는 알고리즘은 두 부분으로 나뉜다. 첫째로는 칼라 영상을 그레이 영상으로 변환할 때 RGB 세 개의 플레인의 평균이 아닌 세 플레인의 주성분을 사용하는 PCA(Principal Component Analysis)를 적용한다. PCA는 칼라 영상을 그레이 영상으로 변환하는 과정과 인식률을 높이기 위한 영상 대비 개선 과정이 동시에 수행한다. 두 번째로는 PCA와 LDA(Linear Discriminant Analysis) 방식을 하나의 과정으로 통합하는 개선된 통합 LDA 방법이다. 두 과정을 통합함으로서 간결한 알고리즘 표현이 가능하며 분리된 단계에서 있을 수 있는 정보 손실을 방지할 수 있다. 제안된 알고리즘은 잘 제어된 대용량 얼굴 데이터베이스에서 개인을 확인하는 분야에 적용되어 성능을 향상시키고 있음을 보여주었고, 추후에는 실시간 상황에서 특정 개인을 확인하는 분야의 기초 알고리즘으로 적용될 수 있다.

얼굴 메이크업을 도와주는 지능형 스마트 거울 앱의설계 (Design of an Intellectual Smart Mirror Appication helping Face Makeup)

  • 오선진;이윤석
    • 문화기술의 융합
    • /
    • 제8권5호
    • /
    • pp.497-502
    • /
    • 2022
  • 최근 젊은 세대를 중심으로 정보의 유통이나 공유 수단으로 텍스트보다는 비주얼 기반의 정보 전달을 선호하는 경향이 뚜렷하며, 인터넷상의 유투브나 1인 방송 등을 통한 정보의 유통이 일상화되고 있다. 즉, 젊은 세대들은 대부분의 원하는 정보를 이러한 유통 과정을 거쳐 습득하게 되며 활용하는 상황이다. 또한, 많은 젊은 세대들은 자신을 개성있게 꾸미고 장식하는 데에 매우 과감하고 적극적이다. 얼굴 화장이나 헤어 스타일링 및 패션 연출에 있어 남녀구분 없이 적극적인 표현과 시도를 통해 개인의 개성을 거리낌이 없이 연출하는 경향이 있다. 특히, 얼굴 메이크업은 여자들은 물론이고 최근 남자들 사이에서도 관심의 대상이 되고 있으며, 자신의 개성을 표출할 수 있는 중요한 수단으로 인식되는 상황이다. 본 연구에서는 이러한 시대적 흐름에 발맞추어 자신의 독특한 개성을 나타내기 위한 얼굴메이크업을 연출하기 위해 자신의 얼굴 모양, 헤어 컬러 및 스타일, 피부 톤, 패션 스타일과 의상 컬러 등과 잘 어울리는 얼굴 메이크업을 구현하도록 인터넷상의 유명한 전문 메이크업 아티스트 들의 유투브나 1인 방송 영상 중 관련영상을 효율적으로 검색하여 추천하고, 사용자의 평소 검색 패턴과 외모 특징들을 학습시켜 축적된 정보를 바탕으로 최적의 솔루션을 제공할 수 있도록 인공지능 기법을 도입하며, 추천된 영상을 통해 자세한 메이크업 과정을 실제 단계별로 수행하면서 메이크업 스킬을 습득하도록 하는 지능형 스마트 거울 앱을 설계하고 구현하고자 한다.

컴패니언 로봇의 멀티 모달 대화 인터랙션에서의 감정 표현 디자인 연구 (Design of the emotion expression in multimodal conversation interaction of companion robot)

  • 이슬비;유승헌
    • 디자인융복합연구
    • /
    • 제16권6호
    • /
    • pp.137-152
    • /
    • 2017
  • 본 연구는 실버세대를 위한 컴패니언 로봇의 인터랙션 경험 디자인을 위해 사용자 태스크- 로봇 기능 적합도 매핑에 기반한 로봇 유형 분석과 멀티모달 대화 인터랙션에서의 로봇 감정표현 연구를 수행하였다. 노인의 니즈 분석을 위해 노인과 자원 봉사자를 대상으로 FGI, 에스노그래피를 진행하였으며 로봇 지원 기능과 엑추에이터 매칭을 통해 로봇 기능 조합 유형에 대한 분석을 하였다. 도출된 4가지 유형의 로봇 중 표정 기반 대화형 로봇 유형으로 프로토타이핑을 하였으며 에크만의 얼굴 움직임 부호화 시스템(Facial Action Coding System: FACS)을 기반으로 6가지 기본 감정에 대한 표정을 시각화하였다. 사용자 실험에서는 로봇이 전달하는 정보의 정서코드에 맞게 로봇의 표정이 변화할 때와 로봇이 인터랙션 사이클을 자발적으로 시작할 때 사용자의 인지와 정서에 미치는 영향을 이야기 회상 검사(Story Recall Test: STR)와 표정 감정 분석 소프트웨어 Emotion API로 검증하였다. 실험 결과, 정보의 정서코드에 맞는 로봇의 표정 변화 그룹이 회상 검사에서 상대적으로 높은 기억 회상률을 보였다. 한편 피험자의 표정 분석에서는 로봇의 감정 표현과 자발적인 인터랙션 시작이 피험자들에게 정서적으로 긍정적 영향을 주고 선호되는 것을 확인하였다.

감성인식에 따른 가상 캐릭터의 미소 표정변화에 관한 연구 (Study of expression in virtual character of facial smile by emotion recognition)

  • 이동엽
    • 만화애니메이션 연구
    • /
    • 통권33호
    • /
    • pp.383-402
    • /
    • 2013
  • 본 연구에서는 감성 변화에 따라 나타나는 얼굴 표정에 대한 해부학적 접근방식으로 근육 체계에 의해서 부호화하는 얼굴 움직임 부호화 시스템(FACS, Facial Action Coding System)을 얼굴표정에 적용하고 이를 바탕으로 듀센스마일(Duchenne smile)을 가상 캐릭터에 적용하여 검증해 보고자 한다. 인간의 표정을 인식하는 방식이 동일하게 가상의 캐릭터에도 적용된다는 선행연구를 바탕으로 애니메이션, 게임 등의 캐릭터에 보다 사실적인 표정을 담을 수 있는 연구 방식을 제안하고자 한다. 실험을 위해 훈련된 연극전공 학생들에게 정서 유발 실험을 통해 듀센 스마일과 일반 스마일을 추출하였다. 추출된 표정을 바탕으로 얼굴 근육 데이터를 표집하여 입과 입술주변의 근육과 다른 부위의 얼굴 표정 빈도를 산출하여 얻어진 데이터를 가상 캐릭터에 적용해 보았다. 그 결과 미소 표정에서 근육의 움직임은 협골 대근육의 수축으로 인한 입술 끝이 상향운동을 하며 안륜근이 수축하며 뺨이 올라가고 눈의 아래쪽 외측 눈꺼풀이 올라가는 표정이 나타났다. 개방성과 관련된 입주변 근육(AU25, AU26, AU27)과 코주위 근육(AU9)이 함께 협골근과 광대근 주변 근육의 움직임이 표현되었다. 그중 듀센 미소는 협골 대근육과 안륜근이 동시에 움직이는 형태로 발생되었다. 이를 바탕으로 본인의 의지에 의해 수행 가능한 광대근육과 감성적 정서에 공감하여 웃음의 형태로 나타나는 안륜근을 구분하고 이를 가상의 캐릭터의 근육에 적용하여 인간의 표정과 가상의 캐릭터 표정이 서로 구분 가능한지를 설문을 통해 알아보고자 하였다.

FACS와 AAM을 이용한 Bayesian Network 기반 얼굴 표정 인식 시스템 개발 (Development of Facial Expression Recognition System based on Bayesian Network using FACS and AAM)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권4호
    • /
    • pp.562-567
    • /
    • 2009
  • 얼굴 표정은 사람의 감정을 전달하는 핵심 메커니즘으로 이를 적절하게 활용할 경우 Robotics의 HRI(Human Robot Interface)와 같은 Human Computer Interaction에서 큰 역할을 수행할 수 있다. 이는 HCI(Human Computing Interface)에서 사용자의 감정 상태에 대응되는 다양한 반응을 유도할 수 있으며, 이를 통해 사람의 감정을 통해 로봇과 같은 서비스 에이전트가 사용자에게 제공할 적절한 서비스를 추론할 수 있도록 하는 핵심요소가 된다. 본 논문에서는 얼굴표정에서의 감정표현을 인식하기 위한 방법으로 FACS(Facial Action Coding System)와 AAM(Active Appearance Model)을 이용한 특징 추출과 Bayesian Network 기반 표정 추론 기법이 융합된 얼굴표정 인식 시스템의 개발에 대한 내용을 제시한다.