• 제목/요약/키워드: 얼굴근육

검색결과 65건 처리시간 0.022초

얼굴 표정 인식을 위한 Densely Backward Attention 기반 컨볼루션 네트워크 (Convolutional Network with Densely Backward Attention for Facial Expression Recognition)

  • 서현석;;이승룡
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.958-961
    • /
    • 2019
  • Convolutional neural network(CNN)의 등장으로 얼굴 표현 인식 연구는 많은 발전을 이루었다. 그러나, 기존의 CNN 접근법은 미리 학습된 훈련모델에서 Multiple-level 의 의미적 맥락을 포함하지 않는 Attention-embedded 문제가 발생한다. 사람의 얼굴 감정은 다양한 근육의 움직임과 결합에 기초하여 관찰되며, CNN 에서 딥 레이어의 산출물로 나온 특징들의 결합은 많은 서브샘플링 단계를 통해서 class 구별와 같은 의미 정보의 손실이 일어나기 때문에 전이 학습을 통한 올바른 훈련 모델 생성이 어렵다는 단점이 있다. 따라서, 본 논문은 Backbone 네트워크의 Multi-level 특성에서 Channel-wise Attention 통합 및 의미 정보를 포함하여 높은 인식 성능을 달성하는 Densely Backwarnd Attention(DBA) CNN 방법을 제안한다. 제안하는 기법은 High-level 기능에서 채널 간 시멘틱 정보를 활용하여 세분화된 시멘틱 정보를 Low-level 버전에서 다시 재조정한다. 그런 다음, 중요한 얼굴 표정의 묘사를 분명하게 포함시키기 위해서 multi-level 데이터를 통합하는 단계를 추가로 실행한다. 실험을 통해, 제안된 접근방법이 정확도 79.37%를 달성 하여 제안 기술이 효율성이 있음을 증명하였다.

감정변화에 따른 3D캐릭터의 표정연출에 관한 연구 (해부학적 구조 중심으로) (A Study on Effective Facial Expression of 3D Character through Variation of Emotions (Model using Facial Anatomy))

  • 김지애
    • 한국멀티미디어학회논문지
    • /
    • 제9권7호
    • /
    • pp.894-903
    • /
    • 2006
  • 하드웨어의 급속한 기술발전은 3차원 영상정보를 포함한 다양한 디지털 영상정보의 급속한 발전과 확대를 가져왔다. 애니메이션, 가상현실, 영화, 광고, 게임 분야에서도 3차원 디지털 영상처리는 매우 다양하고 광범위하게 사용되고 있다. 이러한 3차원 디지털 영상 속에 등장하는 3D캐릭터는 의인화된 동작이나 음성, 표정등을 통해 관객에게 감동과 정보를 전달하는 중요한 역할을 담당한다. 3D캐릭터의 활용도와 사용범위가 확대되어감에 따라 효과적인 3D캐릭터의 동작연구나 표정연출에 대한 관심도 또한 높아지고 있다. 본 연구에서는 내적감정상태의 효과적 수단으로 사용되는 표정에 대해 연구해본다. 해부학적 구조에 기반한 얼굴근육의 운동방향과 변화에 따른 3D 캐릭터의 표정구현에 대해 살펴보고 효과적인 표현방법을 모색해보고자 한다. 또한 선행연구로 진행된 2D캐릭터 표정연구와의 비교를 통하여 그 차이점과 특징에 대해 살펴보고자 한다.

  • PDF

벡터 기반 캐리커처에 모션 데이터를 적용한 얼굴 표정 애니메이션 (Facial Expression Animation which Applies a Motion Data in the Vector based Caricature)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제10권5호
    • /
    • pp.90-98
    • /
    • 2010
  • 본 논문은 얼굴 모션 데이터를 벡터 기반 캐리커처의 얼굴에 적용하여 캐리커처 얼굴 표정 애니메이션을 생성할 수 있도록 하는 방법론을 기술한다. 본 방법은 일러스트레이터의 플러그인 형식으로 구현하였으며, 별도의 사용자 인터페이스를 갖추고 있다. 실험에 사용된 얼굴 모션 데이터는 28개의 소형 마커를 배우 얼굴의 주 근육 부분에 부착하고 다양한 다수 개의 표정을 Facial Tracker로 캡처한 것이다. 캐리커처는 모션데이터와의 연결을 위해 모션 캡처를 할 때 배우의 얼굴에 부착된 주요 마커의 위치와 동일한 부위에 각각의 제어점을 가진 베지어 곡선 형태로 제작되었다. 그러나 얼굴 모션 데이터는 캐리커처에 비하여 공간적인 규모가 너무 크기 때문에 모션 캘리브레이션 과정을 거쳤으며, 사용자로 하여금 수시로 조절이 가능하게 하였다. 또한 캐리커처와 마커들을 연결시키기 위해서는 사용자가 얼굴 부위의 각 명칭을 메뉴에서 선택한 다음, 캐리커처의 해당 부위를 클릭함으로써 가능하게 하였다. 결국 본 논문은 일러스트레이터의 사용자 인터페이스를 통하여 벡터 기반 캐리커처에 얼굴 모션 데이터를 적용한 캐리커처 얼굴 표정 애니메이션 생성이 가능하도록 하였다.

Multi-patch Surface를 이용한 3D Facial Model 제작 효율 향상에 관한 연구 (A Study on Multi-patch Surface in Improving Efficiency of 3D Facial Modeling)

  • 진영애;김종기;김치용
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 춘계학술발표대회논문집
    • /
    • pp.492-498
    • /
    • 2003
  • 본 논문에서는 실사와 같은 사실적인 3차원 Facial Model 제작을 위해 해부학 접근을 통한 근육기반의 자연스러운 Facial Modeling 제작을 연구하였다 한국인 기본형 얼굴을 연구 대상으로 선정하여 안면근육 비례를 분석한 후 Multi-patch Surface Modeling 방법을 적용하며 제작하였다. 이 방법에는 통계적 분석기법 중 L/sub 27/(3/sup 13/) 3수준계 직교배열표를 이용하여 검증하였다. 본 연구를 통하여 Facial Model 제작 시 최소의 UV spans 수로 최대 시각화 즉, 원본의 형상을 최대한 유지하면서 작업시간과 Rendering 시간 단축 및 Data 용량을 줄일 수 있는 Modeling 방법을 제안하였고, 향후 자연스런 Facial Animation 제작 및 연구에도 많은 도움이 될 것으로 기대된다.

  • PDF

신경회로망을 이용한 2D 얼굴근육 파라메터의 자동인식 (Automatic Estimation of 2D Facial Muscle Parameter Using Neural Network)

  • 김동수;남기환;한준희;배철수;권오흥;나상동
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 하계종합학술대회 논문집
    • /
    • pp.1029-1032
    • /
    • 1999
  • Muscle based face image synthesis is one of the most realistic approach to realize life-like agent in computer. Facial muscle model is composed of facial tissue elements and muscles. In this model, forces are calculated effecting facial tissue element by contraction of each muscle strength, so the combination of each muscle parameter decide a specific facial expression. Now each muscle parameter is decided on trial and error procedure comparing the sample photograph and generated image using our Muscle-Editor to generate a specific face image. In this paper, we propose the strategy of automatic estimation of facial muscle parameters from 2D marker movement using neural network. This also 3D motion estimation from 2D point or flow information in captered image under restriction of physics based face model.

  • PDF

소프라노 가수의 발음 특성 비교 연구 (A Study on Comparison of Pronunciation Characteristics of Soprano Singers)

  • 송욱진;서덕원;배명진
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2017년도 제55차 동계학술대회논문집 25권1호
    • /
    • pp.199-200
    • /
    • 2017
  • 소프라노는 여성 소프라노 중 가장 높은 음역 대의 목소리를 구사한다. 소프라노들은 고음을 유지하기 위해 턱 관절 과 얼굴근육이 경직되어 있어 입을 크게 벌리지 못한다. 발음 특성은 발성 시의 입의 크기에 가장 큰 영향을 받으며 좋은 발음 특성일수록 뚜렷한 포만트를 나타낸다. 본 논문에서는 소프라노 가수들의 발음 특성을 확인하기 위해 한국의 소프라노 성악가 A, B, C, D 4명을 선정하여 비교한 결과 소프라노 A의 스펙트럼에서 2kHz 이상에서 까지 뚜렷하고 균일한 포만트가 나타났다. 따라서 소프라노 A의 발음 특성이 가장 우수한 것을 확인할 수 있다.

  • PDF

한국인 20대 안면의 3차원 형태소에 의한 아바타 모델링 (A study on the avatar modelling of Korean 3D facial features in twenties)

  • 이미승;김창헌
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제10권1호
    • /
    • pp.29-39
    • /
    • 2004
  • 사이버상의 의사소통의 도구로 사용되는 아바타나 캐릭터의 3차원 얼굴 모델링에 대한 연구로서 한국인의 안면형태소를 지닌 모델생성으로 인터넷을 즐겨 사용하는 현대인과 청소년들에게 민족적 구체성과 국민적 정체성을 지닌 아바타의 활용에 도움이 되고자 한다. 임의의 20대 남, 녀 각각 40인으로부터 스켄을 하고 머리뼈와 근육 구조를 바탕으로 눈, 코, 눈썹, 뺨, 입, 턱, 아래턱, 이마, 귀 등 각 형태소로 나누고 참조모델을 생성한다. 임의로 생성된 안면형태소 3차원 모델이 한국인의 형상을 갖는지에 관한 평가를 정량적인 치수측정에 의해서 검증 분석하여 입증한다. 이들 안부, 비부, 구순부, 얼굴형의 각 형태소로부터 각 형태소틀 간에 보간 되어 변형된 형태의 형태소 생성이 가능하고, 이 변형 형태소들 간의 임의의 조합된 모델의 안면 생성이 가능하게 한다.

  • PDF

지체장애인 이동권 보장을 위해 생체신호로 조작하는 지능형 전동휠체어 (Intelligent electric wheelchair operated by bio-signals to guarantee the right of movement for the physically handicapped)

  • 강민철;서동균;정욱현;정진원;황희상;김인수
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.980-981
    • /
    • 2023
  • 본 논문은 생체신호 분석과 인공지능으로 전동휠체어 제어 시스템을 개발한다. 얼굴 근육 움직임에서 나오는 생체신호를 분석하고, 인공지능 모델로 생체신호 패턴을 학습하여 눈동자 및 얼굴 움직임을 해석하고 이를 토대로 전진, 후진, 좌회전, 우회전, 정지, 제어와 같은 6가지 기능을 전동휠체어에 적용하고 신체 제한자의 이용 용이성 및 삶의 질 향상을 목표로 한다.

얼굴마비에서 얼굴근육의 전기생리학적 양상 (Electrophysiologic Pattern of Facial Muscles in Bell's Palsy)

  • 이상수;신동익
    • Annals of Clinical Neurophysiology
    • /
    • 제6권2호
    • /
    • pp.75-79
    • /
    • 2004
  • Backgrounds: Electrodiagnostic tests have been developed to estimate the degree of facial nerve injury during the acute phase. Side-to-side amplitude comparison with the affected side expressed as a percentage of the nonaffected side has been one of the most valuable electrophysiologic methods of assessing facial nerve functioning. This study was designed to know whether there is any difference in the side-to-side comparison of amplitudes and terminal latencies of the compound muscle action potentials (CMAP) of the facial muscles in the patients with Bell's palsy. Methods: Electroneurographic recordings with surface electrodes on the frontalis, orbicularis oculi, nasalis, and orbicularis oris muscles were made within 2 weeks post-onset (mean, day 7) in 39 patients. Results: Of the 39 Bell's palsy patients, 38 patients (97.4%) recovered satisfactorily within 6 months. The amplitude of CMAP in all patients was not reduced to 10% or less of that of the contralateral healthy muscle. The correlation of amplitude change between four facial muscles was relatively strong, but the correlation of latency change was weak. When the electroneurographic values were compared in the four muscle groups, the general linear models procedure did not show any significant difference for CMAP amplitude and latency changes (p=0.62-0.63). Conclusions: This study did not show any significant clinical advantage of electroneurographic recordings in more than one facial muscle at the early stage of Bell's palsy.

  • PDF

MPEG-4 FAP 기반 세분화된 얼굴 근육 모델 구현 (Subdivided Facial Muscle Modeling based on MPEG-4 EAP)

  • 이인서;박운기;전병우
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.631-634
    • /
    • 2000
  • In this paper, we propose a method for implementing a system for decoding the parameter data based on Facial Animation Parameter (FAP) developed by MPEG-4 Synthetic/Natural Hybrid Coding (SNHC) subcommittee. The data is displayed according to FAP with human mucle model animation engine. Proposed model has the basic properties of the human skin specified by be energy funtional for realistic facial animation.

  • PDF