• Title/Summary/Keyword: 3차원 얼굴모델

Search Result 126, Processing Time 0.026 seconds

Real-time Hand Pose Recognition Using HLF (HLF(Haar-like Feature)를 이용한 실시간 손 포즈 인식)

  • Kim, Jang-Woon;Kim, Song-Gook;Hong, Seok-Ju;Jang, Han-Byul;Lee, Chil-Woo
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.897-902
    • /
    • 2007
  • 인간과 컴퓨터간의 전통적인 인터페이스는 인간이 요구하는 다양한 인터페이스를 제공하지 못한다는 점에서 점차 사용하기 불편하게 되었고 이는 새로운 형태의 인터페이스에 대한 요구로 이어지게 되었다. 본 논문에서는 이러한 추세에 맞추어 카메라를 통해 인간의 손 제스처를 인식하는 새로운 인터페이스를 연구하였다. 손은 자유도가 높고 3차원의 view direction에 의해 형상이 매우 심하게 변한다. 따라서 윤곽선 기반방법과 같은 2차원으로 투영된 영상에서 contour나 edge의 정보로 손 제스처를 인식하는 데는 한계가 있다. 그러나 모델기반 방법은 3차원 정보를 이용하기 때문에 손 제스처를 인식하는데 좋으나 계산량이 많아 실시간으로 처리하기가 쉽지 않다. 이러한 문제점을 해결하기 위해 손 형상에 대한 대규모 데이터베이스를 구성하고 정규화된 공간에서 Feature 간의 연관성을 파악하여 훈련 데이터 모델을 구성하여 비교함으로써 실시간으로 손 포즈를 구별할 수 있다. 이러한 통계적 학습 기반의 알고리즘은 다양한 데이터와 좋은 feature의 검출이 최적의 성능을 구현하는 것과 연관된다. 따라서 배경으로부터 노이즈를 최대한 줄이기 위해 피부의 색상 정보를 이용하여 손 후보 영역을 검출하고 검출된 후보 영역으로부터 HLF(Haar-like Feature)를 이용하여 손 영역을 검출한다. 검출된 손 영역으로부터 패턴 분류 과정을 거쳐 손 포즈를 인식 하게 된다. 패턴 분류 과정은 HLF를 이용하여 손 포즈를 인식하게 되는데 미리 학습된 각 포즈에 대한 HLF를 이용하여 손 포즈를 인식하게 된다. HLF는 Violar가 얼굴 검출에 적용한 것으로 얼굴 검출에 좋은 결과를 보여 주었으며, 이는 적분 이미지로부터 추출한 HLF를 이용한 Adaboost 학습 알고리즘을 사용하였다. 본 논문에서는 피부색의 색상 정보를 이용 배경과 손 영상을 최대한 분리하여 배경의 대부분이 Adaboost-Haar Classifier의 첫 번째 스테이지에서 제거되는 방법을 이용하여 그 성능을 더 향상 시켜 손 형상 인식에 적용하였다.

  • PDF

The Improvement of Meshwarp Algorithm for Rotational Pose Transformation of a Front Facial Image (정면 얼굴 영상의 회전 포즈 변형을 위한 메쉬워프 알고리즘의 개선)

  • Kim, Young-Won;Phan, Hung The;Oh, Seung-Taek;Jun, Byung-Hwan
    • Annual Conference of KIPS
    • /
    • 2002.11a
    • /
    • pp.425-428
    • /
    • 2002
  • 본 논문에서는 한 장의 정면 얼굴 영상만으로 회전 변형을 수행할 수 있는 새로운 영상기반렌더링(Image Based Rendering, IBR) 기법을 제안한다. 3차원 기하학적 모델을 대신하면서 수평 회전 변형을 연출하기 위해, 특정 인물의 정면, 좌우 반측면, 좌우 측면의 얼굴 영상에 대한 표준 메쉬 집합을 작성한다. 변형하고자 하는 임의의 인물에 대해서는 정면 영상에 대한 메쉬만을 작성하고, 나머지 측면 참조 메쉬들은 표준 메쉬 집합에 의해 자동으로 생성된다. 입체적인 회전 효과를 연출하기 위해, 회전 변형시 발생할 수 있는 제어점들간의 중첩 및 역전을 허용하도록 기존의 두 단계 메쉬워프 알고리즘을 개선한 역전가능 메쉬워프 알고리즘(invertible meshwarp algorithm)을 제안한다. 이 알고리즘을 이용하여 다양한 남녀노소의 정면 얼굴 영상에 대해 회전에 따른 포즈 변형을 수행하여 비교적 자연스러운 포즈 변형 결과를 얻었다.

  • PDF

Presentation of Efficient Matching Algorithm and its Applications to Image Recognition (효과적인 정합과정 알고리즘의 제시 및 영상 인식에의 적용)

  • 최세하;이주신
    • The Journal of the Acoustical Society of Korea
    • /
    • v.17 no.1
    • /
    • pp.31-38
    • /
    • 1998
  • 본 논문에서는 애매성을 고려한 이론을 적용하여 유사도를 측정한 후 퍼지 관계 행 렬을 생성하여 인식을 행하는 방법을 제안하고자 한다. 인식 시스템은 모델과 입력 영상의 특징값을 정합하여 행하게 되는데 이때 얼마나 유사한가를 계산하는 유사도 측정은 대단히 중요한 작업중의 하나가 된다. 이를 위해 톨이론과 퍼지이론의 일치도 연산을 이용하여 유 사도를 측정하며, 퍼지 관계 행렬을 생성하여 정합을 행하고자 한다. 제안한 알고리즘에 대 해 3차원 물체와 얼굴 영상을 대상으로 실험을 수행하였으며 이를 통해 본 논문의 유용성을 입증하고자 한다.

  • PDF

KUeyes: A biologically motivated color stereo headeye system (KUeyes: 생물학적 시각 모형에 기반한 컬러 스테레오 헤드아이 시스템)

  • 이상웅;최형철;강성훈;이성환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.586-588
    • /
    • 2000
  • KUeyes는 3차원 실세계의 영상처리를 위해 고려대학교 인공시각연구센터에서 개발된 컬러 스테레오 헤드아이 시스템이다. KUeyes는 인간의 시각 시스템을 모델로 하여 다해상도 변환 영상, 칼라 정보와 거리 정보, 움직임 정보를 이용하여 지능적이고 빠르게 객체를 탐지하여 추적한다. 또한 병렬적으로 수행되는 인식기를 통해 탐지된 사람의 얼굴을 인식한다. 다양한 실험 및 분석을 통해 KUeyes가 복잡한 실영상을 대상으로 움직이는 개체를 신시간으로 안정되게 추적하고 인식하는 것을 확인할 수 있었다.

  • PDF

A Deep Learning-Based Face Mesh Data Denoising System (딥 러닝 기반 얼굴 메쉬 데이터 디노이징 시스템)

  • Roh, Jihyun;Im, Hyeonseung;Kim, Jongmin
    • Journal of IKEEE
    • /
    • v.23 no.4
    • /
    • pp.1250-1256
    • /
    • 2019
  • Although one can easily generate real-world 3D mesh data using a 3D printer or a depth camera, the generated data inevitably includes unnecessary noise. Therefore, mesh denoising is essential to obtain intact 3D mesh data. However, conventional mathematical denoising methods require preprocessing and often eliminate some important features of the 3D mesh. To address this problem, this paper proposes a deep learning based 3D mesh denoising method. Specifically, we propose a convolution-based autoencoder model consisting of an encoder and a decoder. The convolution operation applied to the mesh data performs denoising considering the relationship between each vertex constituting the mesh data and the surrounding vertices. When the convolution is completed, a sampling operation is performed to improve the learning speed. Experimental results show that the proposed autoencoder model produces faster and higher quality denoised data than the conventional methods.

Human-like Fuzzy Lip Synchronization of 3D Facial Model Based on Speech Speed (발화속도를 고려한 3차원 얼굴 모형의 퍼지 모델 기반 립싱크 구현)

  • Park Jong-Ryul;Choi Cheol-Wan;Park Min-Yong
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2006.05a
    • /
    • pp.416-419
    • /
    • 2006
  • 본 논문에서는 음성 속도를 고려한 새로운 립싱크 방법에 대해서 제안한다. 실험을 통해 구축한 데이터베이스로부터 음성속도와 입모양 및 크기와의 관계를 퍼지 알고리즘을 이용하여 정립하였다. 기존 립싱크 방법은 음성 속도를 고려하지 않기 때문에 말의 속도와 상관없이 일정한 입술의 모양과 크기를 보여준다. 본 논문에서 제안한 방법은 음성 속도와 입술 모양의 관계를 적용하여 보다 인간에 근접한 립싱크의 구현이 가능하다. 또한 퍼지 이론을 사용함으로써 수치적으로 정확하게 표현할 수 없는 애매한 입 크기와 모양의 변화를 모델링 할 수 있다. 이를 증명하기 위해 제안된 립싱크 알고리즘과 기존의 방법을 비교하고 3차원 그래픽 플랫폼을 제작하여 실제 응용 프로그램에 적용한다.

  • PDF

Multidimensional Affective model-based Multimodal Complex Emotion Recognition System using Image, Voice and Brainwave (다차원 정서모델 기반 영상, 음성, 뇌파를 이용한 멀티모달 복합 감정인식 시스템)

  • Oh, Byung-Hun;Hong, Kwang-Seok
    • Annual Conference of KIPS
    • /
    • 2016.04a
    • /
    • pp.821-823
    • /
    • 2016
  • 본 논문은 다차원 정서모델 기반 영상, 음성, 뇌파를 이용한 멀티모달 복합 감정인식 시스템을 제안한다. 사용자의 얼굴 영상, 목소리 및 뇌파를 기반으로 각각 추출된 특징을 심리학 및 인지과학 분야에서 인간의 감정을 구성하는 정서적 감응요소로 알려진 다차원 정서모델(Arousal, Valence, Dominance)에 대한 명시적 감응 정도 데이터로 대응하여 스코어링(Scoring)을 수행한다. 이후, 스코어링을 통해 나온 결과 값을 이용하여 다차원으로 구성되는 3차원 감정 모델에 매핑하여 인간의 감정(단일감정, 복합감정)뿐만 아니라 감정의 세기까지 인식한다.

A study on the lip shape recognition algorithm using 3-D Model (3차원 모델을 이용한 입모양 인식 알고리즘에 관한 연구)

  • 배철수
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.3 no.1
    • /
    • pp.59-68
    • /
    • 1999
  • Recently, research and developmental direction of communication system is concurrent adopting voice data and face image in speaking to provide more higher recognition rate then in the case of only voice data. Therefore, we present a method of lipreading in speech image sequence by using the 3-D facial shape model. The method use a feature information of the face image such as the opening-level of lip, the movement of jaw, and the projection height of lip. At first, we adjust the 3-D face model to speeching face image sequence. Then, to get a feature information we compute variance quantity from adjusted 3-D shape model of image sequence and use the variance quality of the adjusted 3-D model as recognition parameters. We use the intensity inclination values which obtaining from the variance in 3-D feature points as the separation of recognition units from the sequential image. After then, we use discrete HMM algorithm at recognition process, depending on multiple observation sequence which considers the variance of 3-D feature point fully. As a result of recognition experiment with the 8 Korean vowels and 2 Korean consonants, we have about 80% of recognition rate for the plosives and vowels. We propose that usability with visual distinguishing factor that using feature vector because as a result of recognition experiment for recognition parameter with the 10 korean vowels, obtaining high recognition rate.

  • PDF

On the Implementation of a Facial Animation Using the Emotional Expression Techniques (FAES : 감성 표현 기법을 이용한 얼굴 애니메이션 구현)

  • Kim Sang-Kil;Min Yong-Sik
    • The Journal of the Korea Contents Association
    • /
    • v.5 no.2
    • /
    • pp.147-155
    • /
    • 2005
  • In this paper, we present a FAES(a Facial Animation with Emotion and Speech) system for speech-driven face animation with emotions. We animate face cartoons not only from input speech, but also based on emotions derived from speech signal. And also our system can ensure smooth transitions and exact representation in animation. To do this, after collecting the training data, we have made the database using SVM(Support Vector Machine) to recognize four different categories of emotions: neutral, dislike, fear and surprise. So that, we can make the system for speech-driven animation with emotions. Also, we trained on Korean young person and focused on only Korean emotional face expressions. Experimental results of our system demonstrate that more emotional areas expanded and the accuracies of the emotional recognition and the continuous speech recognition are respectively increased 7% and 5% more compared with the previous method.

  • PDF