• Title/Summary/Keyword: 표정 변화

Search Result 251, Processing Time 0.024 seconds

Study of facial movement around eyes in 3D modeling (3D모델링에서 살펴본 눈 주변의 표정에 대한 연구)

  • 문희정
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2003.11b
    • /
    • pp.597-600
    • /
    • 2003
  • 이 연구에서는, 움직임이 커서 확실하게 움직임의 변화를 확인할 수 있는 입 주변의 움직임보다 움직임이 세밀하고 다양해 표현하기가 까다로울 수 있는 눈 주변의 움직임에 있어서 눈 주변의 세밀한 움직임의 근육을 잡는 것과 움직임의 기준정, 또 타겟들의 적절한 조합이 중요한 요소가 된다고 보고 절기에 근거를 두어 블렌드쉐이프를 적용하여 표정 타겟을 만들어 눈 주변의 표정에 대한 연구를 하여 3D얼굴 애니메이션에 적용시키는 방법으로 페이셜 애니메이션 중에서도 눈 주변의 움직임을 중심으로 제안한다.

  • PDF

Convergence Study on the Three-dimensional Educational Model of the Functional Anatomy of Facial Muscles Based on Cadaveric Data (카데바 자료를 이용한 얼굴근육의 해부학적 기능 학습을 위한 삼차원 교육 콘텐츠 제작과 관련된 융합 연구)

  • Lee, Jae-Gi
    • Journal of the Korea Convergence Society
    • /
    • v.12 no.9
    • /
    • pp.57-63
    • /
    • 2021
  • This study dissected and three-dimensionally (3D) scanned the facial muscles of Korean adult cadavers, created a three-dimensional model with realistic facial muscle shapes, and reproduced facial expressions to provide educational materials to allow the 3D observation of the complex movements of cadaver facial muscles. Using the cadavers' anatomical photo data, 3D modeling of facial muscles was performed. We produced models describing four different expressions, namely sad, happy, surprised, and angry. We confirmed the complex action of the 3D cadaver facial muscles when making various facial expressions. Although the results of this study cannot confirm the individual functions of facial muscles quantitatively, we were able to observe the realistic shape of the cadavers' facial muscles, and produce models that would show different expressions depending on the actions performed. The data from this study may be used as educational materials when studying the anatomy of facial muscles.

AE Source Location in Anisotropic Plates by Using Nonlinear Analysis (비선형방정식을 이용한 이방성판의 음향방출 위치표정)

  • Lee, Kyung-Joo;Kwon, Oh-Yang
    • Journal of the Korean Society for Nondestructive Testing
    • /
    • v.21 no.3
    • /
    • pp.281-287
    • /
    • 2001
  • For the conventional two-dimensional source location of acoustic emission (AE) based on the threshold crossing, wave velocity has to be measured in the actual structure to calculate the arrival-time difference and thus to form the two hyperbolae. Velocity is dependent on the fiber orientation, however, due to the dependence of elastic modulus on fiber orientation in anisotropic materials such as compost#e plates. This tan affect the accuracy of AE source location and make the source location procedure complicated. In this study, we propose a method to reduce the location error in anisotropic plates by using the numerical solution of nonlinear equations, where the velocity term has been removed by employing the fourth sensor. The efficiency and validity of the proposed method has also been experimentally verified.

  • PDF

Design of the emotion expression in multimodal conversation interaction of companion robot (컴패니언 로봇의 멀티 모달 대화 인터랙션에서의 감정 표현 디자인 연구)

  • Lee, Seul Bi;Yoo, Seung Hun
    • Design Convergence Study
    • /
    • v.16 no.6
    • /
    • pp.137-152
    • /
    • 2017
  • This research aims to develop the companion robot experience design for elderly in korea based on needs-function deploy matrix of robot and emotion expression research of robot in multimodal interaction. First, Elder users' main needs were categorized into 4 groups based on ethnographic research. Second, the functional elements and physical actuators of robot were mapped to user needs in function- needs deploy matrix. The final UX design prototype was implemented with a robot type that has a verbal non-touch multi modal interface with emotional facial expression based on Ekman's Facial Action Coding System (FACS). The proposed robot prototype was validated through a user test session to analyze the influence of the robot interaction on the cognition and emotion of users by Story Recall Test and face emotion analysis software; Emotion API when the robot changes facial expression corresponds to the emotion of the delivered information by the robot and when the robot initiated interaction cycle voluntarily. The group with emotional robot showed a relatively high recall rate in the delayed recall test and In the facial expression analysis, the facial expression and the interaction initiation of the robot affected on emotion and preference of the elderly participants.

Emotional Expression System Based on Dynamic Emotion Space (동적 감성 공간에 기반한 감성 표현 시스템)

  • 변광섭;박창현;심귀보;정인철;함호상
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.10a
    • /
    • pp.130-133
    • /
    • 2004
  • 인간의 감정을 정의하거나 분류하는 것은 매우 어려운 일이다. 이러한 애매모호한 인간의 감정은 어느 한 감정만 나타나는 것이 아니고 다양한 감정의 복합으로, 눈에 띄는 강정이 드러나는 것이다. 인간의 애매모호한 감정 상태와 유사한 감성을 표현하는 알고리즘으로 dynamic emotion Space를 이용한 감성 표현 알고리즘을 제안한다. 기존의 감성 표현 아바타들이 키리 설정된 몇개의 감정만을 데이터 베이스에서 불러와 표현하는 반면에, 본 논문에서 제안하는 감성 표현 시스템은 동적으로 변화하는 감성 공간을 이용하여 감성을 표현함으로써 무수히 다양한 표정을 표현할 수 있다. 실제로 인간의 복합적이고 다양한 표정을 표현할 수 있는지를 알아보기 위해 실제 구현 및 실험을 수행하고, dynamic emotion space를 이용한 감성 표현 시스템의 성능을 입증한다.

  • PDF

Eye Detection Based on Texture Information (텍스처 기반의 눈 검출 기법)

  • Park, Chan-Woo;Park, Hyun;Moon, Young-Shik
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.315-318
    • /
    • 2007
  • 자동 얼굴 인식, 표정 인식과 같은 얼굴 영상과 관련된 다양한 연구 분야는 일반적으로 입력 얼굴 영상에 대한 정규화가 필요하다. 사람의 얼굴은 표정, 조명 등에 따라 다양한 형태변화가 있어 입력 영상 마다 정확한 대표 특징 점을 찾는 것은 어려운 문제이다. 특히 감고 있는 눈이나 작은 눈 등은 검출하기 어렵기 때문에 얼굴 관련 연구에서 성능을 저하시키는 주요한 원인이 되고 있다. 이에 다양한 변화에 강건한 눈 검출을 위하여 본 논문에서는 눈의 텍스처 정보를 이용한 눈 검출 방법을 제안한다. 얼굴 영역에서 눈의 텍스처가 갖는 특성을 정의하고 두 가지 형태의 Eye 필터를 정의하였다. 제안된 방법은 Adaboost 기반의 얼굴 영역 검출 단계, 조명 정규화 단계, Eye 필터를 이용한 눈 후보 영역 검출 단계, 눈 위치 점 검출 단계 등 총 4단계로 구성된다. 실험 결과들은 제안된 방법이 얼굴의 자세, 표정, 조명 상태 등에 강건한 검출 결과를 보여주며 감은 눈 영상에서도 강건한 결과를 보여준다.

Positional Accuracy Analysis According to the Exterior Orientation Parameters of a Low-Cost Drone (저가형 드론의 외부표정요소에 따른 위치결정 정확도 분석)

  • Kim, Doo Pyo;Lee, Jae One
    • KSCE Journal of Civil and Environmental Engineering Research
    • /
    • v.42 no.2
    • /
    • pp.291-298
    • /
    • 2022
  • Recently developed drones are inexpensive and very convenient to operate. As a result, the production and utilization of spatial information using drones are increasing. However, most drones acquire images with a low-cost global navigation satellite system (GNSS) and an inertial measurement unit (IMU). Accordingly, the accuracy of the initial location and rotation angle elements of the image is low. In addition, because these drones are small and light, they can be greatly affected by wind, making it difficult to maintain a certain overlap, which degrades the positioning accuracy. Therefore, in this study, images are taken at different times in order to analyze the positioning accuracy according to changes in certain exterior orientation parameters. To do this, image processing was performed with Pix4D Mapper and the accuracy of the results was analyzed. In order to analyze the variation of the accuracy according to the exterior orientation parameters in detail, the exterior orientation parameters of the first processing result were used as meta-data for the second processing. Subsequently, the amount of change in the exterior orientation parameters was analyzed by in a strip-by-strip manner. As a result, it was proved that the changes of the Omega and Phi values among the rotation elements were related to a decrease in the height accuracy, while changes in Kappa were linked to the horizontal accuracy.

Warp-based Emotion-adaptive Real-Time Transforming Technique of Character's Facial Expression (워핑 기반의 감정 적응형 실시간 캐릭터 표정변환 기법)

  • Bae, Dong-Hee;Kim, Jin-Mo;Yun, Do-Kyung;Cho, Hyung-Je
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.434-437
    • /
    • 2011
  • 최근 단일 프로세서의 성능 개선이 한계에 이르고, 이에 따라 데이터 병렬 처리를 통한 시스템 성능 개선에 관한 연구가 활발히 진행되고 있다. 또한 이러한 변화로 인해 영상처리 분야에서도 대규모 연산의 병렬 컴퓨팅 수행에 관한 연구가 꾸준히 진행되고 있으며 하드웨어 또한 발전하여 실시간 시스템에 영상처리 분야가 많이 활용되고 있다. 본 논문에서는 캐릭터의 감정 상태에 따른 표정을 영상처리 분야에서 많이 사용되고 있는 이미지 워핑 기법을 적용하여 변화시킨다. 인간이 표현할 수 있는 기본적인 감정에 따른 표정을 데이터베이스로 정리하여 캐릭터에게 임의의 감정값이 주어지면 그에 맞는 표정을 데이터베이스에서 선택하여 사용자가 설정한 프레임만큼 워핑을 수행한다. 하지만 매 프레임에 대해 정해져 있는 제어선에 따라 움직이는 픽셀들의 워핑 연산은 그 계산량이 너무 많아 실시간으로 처리하기에 여러 가지 제약이 뒤따른다. 따라서 이를 실시간으로 처리하기 위해 NVIDIA의 CUDA를 활용한 데이터 병렬처리를 수행하여 실시간 처리가 가능하게 하는 방법을 제안하고, 실험을 통해 그 유용성을 제시한다.

Redundant Parallel Hopfield Network Configurations: A New Approach to the Two-Dimensional Face Recognitions (병렬 다중 홉 필드 네트워크 구성으로 인한 2-차원적 얼굴인식 기법에 대한 새로운 제안)

  • Kim, Yong Taek;Deo, Kiatama
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.7 no.2
    • /
    • pp.63-68
    • /
    • 2018
  • Interests in face recognition area have been increasing due to diverse emerging applications. Face recognition algorithm from a two-dimensional source could be challenging in dealing with some circumstances such as face orientation, illuminance degree, face details such as with/without glasses and various expressions, like, smiling or crying. Hopfield Network capabilities have been used specially within the areas of recalling patterns, generalizations, familiarity recognitions and error corrections. Based on those abilities, a specific experimentation is conducted in this paper to apply the Redundant Parallel Hopfield Network on a face recognition problem. This new design has been experimentally confirmed and tested to be robust in any kind of practical situations.

An Analysis of Face Recognition Methods for Recognition of Game Player's Facial Expression (게임 사용자 얼굴표정 인식을 위한 얼굴인식 기법 분석)

  • Yoo, Chae-Gon
    • Journal of Korea Game Society
    • /
    • v.3 no.2
    • /
    • pp.19-23
    • /
    • 2003
  • 컴퓨터 기술의 발전에 따라서 게임분야 역시 다양한 첨단 기술이 적용되고 있다. 예를 들면 강력한 3D가속 기능을 가진 비디오카드, 5.1 채널 사운드, 포스피드백 지원 입력 장치, 운전대, 적외선 센서, 음성 감지기 등이 게임의 입출력 인터페이스로서 이용되고 있다. 전형적인 방법 이외에도 광학방식이나 휴대용 게임기에 대한 플레이 방식에 대한 연구도 활발하다. 최근에는 비디오 게임기에도 사람의 동작을 인식하여 게임의 입력으로 받아들이는 기술이 상용화되기도 하였다. 본 논문에서는 이런 발전 방향을 고려하여 차세대 게임 인터페이스의 방식으로서 사용될 수 있는 사람의 표정 인식을 통한 인터페이스 구현을 위한 접근 방법들에 대하여 고찰을 하고자 한다. 사람의 표정을 입력으로 사용하는 게임은 심리적인 변화를 게임에 적용시킬 수 있으며, 유아나 장애자들이 게임을 플레이하기 위한 수단으로도 유용하게 사용될 수 있다. 영상을 통한 자동 얼굴 인식 및 분석 기술은 다양한 응용분야에 적용될 수 있는 관계로 많은 연구가 진행되어 왔다. 얼굴 인식은 동영상이나 정지영상과 같은 영상의 형태, 해상도, 조명의 정도 등에 따른 요소에 의하여 인식률이나 인식의 목적이 달라진다. 게임플레이어의 표정인식을 위해서는 얼굴의 정확한 인식 방법을 필요로 하며, 이를 위한 비교적 최근의 연구 동향을 살펴보고자 한다.

  • PDF