• 제목/요약/키워드: Facial Capture

검색결과 58건 처리시간 0.021초

뇌파측정기와 키넥트를 이용한 기능성 게임 개발 (Development of a Serious Game using EEG Monitor and Kinect)

  • 정상협;한승완;김효찬;김기남;송민선;이강희
    • 한국게임학회 논문지
    • /
    • 제15권4호
    • /
    • pp.189-198
    • /
    • 2015
  • 본 논문에서는 차세대 게임 인터페이스를 활용한 기능성 런닝게임을 제시한다. 게임은 2인용 대결방식으로 개발하였으며, 방식은 다음과 같이 나뉜다. 첫째, 뇌파측정기를 이용하여 사용자1의 감정 변화, 집중력의 강도, 안면의 움직임을 측정한다. 둘째, 모션 캡쳐 장치인 키넥트를 이용하여 사용자2의 달리기, 좌우 방향전환, 점프 등의 모션을 측정한다. 본 게임의 핵심은 사용자의 뇌파 그래프가 실시간으로 게임내의 맵의 형태로 표현되는 것이다. 사용자는 자신의 뇌파가 게임 내의 맵으로 시각화되는 것을 보며 뇌파를 스스로 조절하는 학습능력을 배울 수 있다. 따라서 사용자1은 이러한 기능성 게임을 플레이하면서 뇌의 활성화를 통한 집중력 향상을 꾀할 수 있고, 사용자2는 실제로 달리고 점프하는 동작을 통한 운동능력을 증진하는 효과를 얻을 수 있다.

독립 요소 분석을 이용한 얼굴 표정의 매개변수화 (On Parameterizing of Human Expression Using ICA)

  • 송지혜;신현준
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제15권1호
    • /
    • pp.7-15
    • /
    • 2009
  • 본 논문에서는 표정을 매개변수 공간에서 표현하고 응용하기 위한 새로운 방법을 제안한다. 컴퓨터 애니메이션 분야에서 복잡한 얼굴 표정을 보다 간단하게 표현하기 위해 표정을 매개변수화 하기 위한 다양한 연구들이 이루어졌다. 본 논문에서는 사람의 얼굴 표정을 포착한 데이터를 이용하여 표정을 구성하는 간단한 몇 개의 주요 움직임을 분석한다. 이를 위해 먼저 표정 매개 변수화를 애니메이션에 효과적으로 적용하기 위해 필요한 요구사항을 정리하고, 기존 연구들의 제한점을 파악한다. 본 논문에서는 많은 양의 표정 데이터에 독립 요소 분석(independent component analysis)기법을 적응함으로써 사람의 표정을 나타내는 독립적인 움직임을 추출하고 표정의 매개변수 공간을 구성한다. 또한 얼굴의 비선형적 움직임을 보다 정확하게 근사하기 위한 변형 모델과 데이터를 기반으로 변형 모델을 학습하기 위한 방법을 제안한다. 이러한 과정을 통하여 직관적으로 일반 사용자도 쉽게 표정을 제어할수 있는 매개변수 집합과 변형 모델을 얻을 수 있다.

  • PDF

한글 문자 입력에 따른 얼굴 에니메이션 (Facial Animation Generation by Korean Text Input)

  • 김태은;박유신
    • 한국전자통신학회논문지
    • /
    • 제4권2호
    • /
    • pp.116-122
    • /
    • 2009
  • 본 논문에서는 얼굴 애니메이션을 좀 더 실질적으로 표현하기 위하여 한글 생성의 원리와 입 모양 형태의 유사성을 기반으로 기본 음소를 선정하고 이를 이용하는 새로운 알고리듬을 제안한다. 카메라를 통해 얻어진 특징 점 이용이 아닌, 모션 캡쳐 (Motion Capture) 장비를 사용하여 실제 입모양의 움직임 데이터를 취득하여 취득된 데이터를 지수 증,감 형태로 나타내어 발성에 대한 음소를 표현하고 연속된 음절을 표현하기 위하여 지배 함수(Dominance Function)와 혼합 함수(Blending Function)를 적용하여 동시 조음에 대한 표현을 해결하였다. 또한 음절 간의 결합 시간을 입 주변의 마커(Marker) 거리 값의 변위를 이용하여 그 기울기 값에 따라 시간 지연을 함으로 현실감 있는 사용자 입력 문자에 대한 입 모양 궤적 데이터를 생성하는 실험 결과를 보여준다.

  • PDF

실시간 능동 비전 카메라를 이용한 시선 위치 추적 시스템 (Gaze Detection System using Real-time Active Vision Camera)

  • 박강령
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권12호
    • /
    • pp.1228-1238
    • /
    • 2003
  • 이 논문에서는 컴퓨터 시각 인식 방법에 의해 모니터 상에 사용자가 쳐다보고 있는 시선 위치를 파악하기 위한 새롭고 실용적인 방법을 제안한다. 일반적으로 사용자가 모니터 상의 한 위치를 쳐다보기 위해서는 얼굴 및 눈동자를 동시에 움직이는 경향이 있다. 기존의 시선 위치 추적 시스템은 사용자의 얼굴 전체를 취득할 수 있는 단 하나의 광각 카메라 시스템을 주로 많이 이용하였다. 그러나 이러한 경우 영상의 해상도가 많이 떨어져서 사용자의 눈동자 움직임을 정확하게 추적하기 어려운 문제점이 있다. 그러므로 이 논문에서는 광각 카메라(얼굴의 움직임에 의한 시선 위치 추적용) 및 눈 영역을 확대하여 취득하는 협각 카메라(눈동자 움직임에 의한 시선 위치 추적용), 즉 이중 카메라를 이용하여 시선 위치 추적 시스템을 구현하였다. 얼굴의 움직임 시 전체적인 위치가 변화될 눈동자의 움직임을 정확히 추적하기 위해, 협각 카메라에는 광각 카메라로부터 추출된 눈 특징점의 위치를 기반으로 한 자동 초점 및 자동 상하/좌우 회전 기능이 포함되어 있으며, 눈 특징점을 보다 빠르고 정확하게 추출하기 위해 이중 적외선 조명을 사용하였다. 실험 결과, 본 논문에서는 실시간으로 동작하는 시선 위치 추적 시스템을 구현할 수 있었으며, 이때 얼굴 및 눈동자 움직임을 모두 고려하여 계산한 모니터상의 시선 위치 정확도는 약 3.44cm의 최소 자승 에러성능을 나타냈다.

딥러닝을 활용한 한국어 스피치 애니메이션 생성에 관한 고찰 (A Study on Korean Speech Animation Generation Employing Deep Learning)

  • 강석찬;김동주
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권10호
    • /
    • pp.461-470
    • /
    • 2023
  • 딥러닝을 활용한 스피치 애니메이션 생성은 영어를 중심으로 활발하게 연구되어왔지만, 한국어에 관해서는 사례가 없었다. 이에, 본 논문은 최초로 지도 학습 딥러닝을 한국어 스피치 애니메이션 생성에 활용해 본다. 이 과정에서, 딥러닝이 스피치 애니메이션 연구를 그 지배적 기술인 음성 인식 연구로 귀결시킬 수 있는 중요한 효과를 발견하게 되어, 이 효과를 한국어 스피치 애니메이션 생성에 최대한 활용하는 방법을 고찰한다. 이 효과는 연구의 최우선 목표를 명확하게 하여, 근래에 들어 활발하지 않은 한국어 스피치 애니메이션 연구를 효과적이고 효율적으로 재활성화하는데 기여할 수 있다. 본 논문은 다음 과정들을 수행한다: (i) 블렌드쉐입 애니메이션 기술을 선택하며, (ii) 딥러닝 모델을 음성 인식 모듈과 표정 코딩 모듈의 주종 관계 파이프라인으로 구현하고, (iii) 한국어 스피치 모션 캡처 dataset을 제작하며, (iv) 두 대조용 딥러닝 모델들을 준비하고 (한 모델은 영어 음성 인식 모듈을 채택하고, 다른 모델은 한국어 음성 인식 모듈을 채택하며, 두 모델이 동일한 기본 구조의 표정 코딩 모듈을 채택한다), (v) 두 모델의 표정 코딩 모듈을 음성 인식 모듈에 종속되게 학습시킨다. 유저 스터디 결과는, 한국어 음성 인식 모듈을 채택하여 표정 코딩 모듈을 종속적으로 학습시킨 모델 (4.2/5.0 점 획득)이, 영어 음성 인식 모듈을 채택하여 표정 코딩 모듈을 종속적으로 학습시킨 모델 (2.7/5.0 점 획득)에 비해 결정적으로 더 자연스러운 한국어 스피치 애니메이션을 생성함을 보여 주었다. 이 결과는 한국어 스피치 애니메이션의 품질이 한국어 음성 인식의 정확성으로 귀결됨을 보여 줌으로써 상기의 효과를 확인해준다.

휴대폰에서의 홍채인식을 위한 고속 홍채검출에 관한 연구 (A Study on Fast Iris Detection for Iris Recognition in Mobile Phone)

  • 박현애;박강령
    • 대한전자공학회논문지SP
    • /
    • 제43권2호
    • /
    • pp.19-29
    • /
    • 2006
  • 최근 휴대폰에서 개인 정보 보안의 중요성이 대두되고 있으며, 이에 따라 생체인식 기능이 내장된 휴대폰에 관심이 집중되고 있다. 그러므로 본 논문에서는 휴대용 기기에 홍채인식기술을 적용하기 위한 방법을 제안한다 기존의 홍채 인식 알고리즘에서는 고 배율의 줌 렌즈(zoom lens)와 초점렌즈(focus lens)를 사용하여 홍채인식에 사용될 확대된 홍채영상을 획득하였다. 이와 같이 이 전에 휴대폰에 홍채인식기술을 적용하기 위해서는 줌 렌즈와 초점렌즈를 추가 장착하여야 했으며, 이는 가격 상승과 부피 증가의 문제를 발생시켰다. 그러나 최근 휴대폰의 멀티미디어 기기 융 복합 추세로 인해 휴대폰 내에 장착된 메가픽셀 카메라(Mega-pixel Camera)의 성능이 급속히 발전함에 따라, 고 배율의 줌 렌즈 및 초점렌즈(zoom & focus lens) 없이도 확대된 홍채영상의 획득이 가능하게 되었다. 즉, 메가 픽셀 카메라 폰을 사용하여 사용자로부터 원거리에서 취득한 얼굴영상에서의 홍채영역이 홍채인식을 수행하기 위한 충분한 픽셀정보를 가지게 되었다. 본 논문에서는 이러한 얼굴영상에서 각막에 반사된 조명 반사광을 기반으로 휴대폰에서의 홍채인식을 위한 고속 홍채검출 방법을 제안한다. 또한 눈, 카메라, 조명 모델을 기반으로 각막에 반사된 조명반사광의 밝기와 크기를 추정하는 이론적 배경을 제안하며, 입력영상에서 태양광의 존재 유무와 광학적으로 또는 피사체의 움직임에 의해 반사된 흐림 현상 (Optical & Motion blur)을 판별하기 위해 조명을 연속적으로 On/Off 시키는 방법을 제안한다. 실험결과, 삼성 SCH-S2300(150MHz의 ARM 9 CPU) 휴대폰에서 홍채 영역 추출 총 수행시간은 평균 65ms이었고, 홍채 검출 성공률은 태양광이 존재하지 않는 실내에서 99%, 태양광이 존재하는 실외에서 98.5%였다._{SSH}$ 전압이 약 1.1V 일 때까지 오류 없이 동작함을 관측하였다. 본 논문의 SRAM 스위칭 전력감소는 I/O의 bit width가 증가하면 더욱 더 중요해질 것으로 예상할 수 있다.어 자료 형태를 32.4%의 순으로 개발을 희망하였다. 다섯째, 주로 사용하는 웹 사이트는 가정과 교사나 교과 연구회에서 운영하는 사이트를 46.2%, 에듀넷이나 한국교육학술정보원(KERIS) 사이트는 30.8%가 활용하는 것으로 나타났다. 또한 학습 자료 개발은 제작 능력이 있는 가정과 교사들이 교과 연구회를 만들어 공동으로 제작 할 수 있기를 희망하고 있었다. 시대적인 변화와 교육 환경의 변화로 웹 콘텐츠 자료를 활용한 교수 학습 방법이 중요한 도구로 인식되고 있다. 특히 가정 교과는 일상생활에 필요한 기초적인 경험을 실생활과 접목시켜 종합적으로 다루는 교과이기 때문에 다양하고 창의적인 콘텐츠가 절실히 요구되는 실정이다. 본 연구의 결과들에서 제시한 여러 가지 사항들을 고려하여 웹 콘텐츠 자료 활용과 개발이 이루어진다면 보다 효율적인 교수 학습이 이루어질 것으로 기대된다.변연계통과 대뇌겉질 전체에 영향을 미칠 것으로 여겨지는데, 본 실험에서는 네 종류의 바닥핵들, 즉 꼬리핵, 줄무늬체바닥핵, 중격옆핵 및 중격핵과 관련된 신경연접들을 관찰하였으며, 그 결과를 문헌 고찰한 결과 변연계통과 줄무늬체계통이 앞뇌의 바닥에 있는 신경핵들에서 형태학적 교차연결을 통해 정서와 마음의 상태를 행동과 대응으로 표현하는 중요한 신경회로가 존재함을 제안하였다.腎臟組織)에서 더많이 발생되었다. 틸라피아의 신사구체(腎絲球體)는 담수(淡水)에서 10%o의 해수(海水)로 이주된지 14일(日) 이후에 신장(腎臟)에서 수축된 것으로 나타났다. 30%o의 해수(海水)에 적응(適應)된 틸라피아의 평균 신사구체(腎絲球體)의 면적은 담수(淡水)에 적응된 개체의 면적보다

역전가능 메쉬워프 알고리즘에 의한 정면 얼굴 영상의 포즈 변형 (Pose Transformation of a Frontal Face Image by Invertible Meshwarp Algorithm)

  • 오승택;전병환
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권1_2호
    • /
    • pp.153-163
    • /
    • 2003
  • 본 논문에서는 기하학적인 3차원 모델을 사용하지 않고 정면이 얼굴 영상 및 2차원 메쉬만으로 얼굴의 포즈 변형을 수행하는 영상기반 렌더링(Image Based Rendering; IBR) 기법을 제안한다. 3차원 기하학적 모델을 대신하기 위해, 먼저 표준 인물의 정면, 좌우 반측면, 좌우 측면의 얼굴 영상에 대한 표준 메쉬를 작성한다. 합성하고자 하는 임의의 인물에 대해서는 주어진 정면 얼굴 영상의 메쉬만을 작성하고, 그 밖의 메쉬는 표준 메쉬 집합을 근거로 자동 생성된다. 그런 다음, 메쉬 제어점들의 중첩 및 역전을 허용하도록 개선한 역전가능 메쉬워프 알고리즘(invertible meshwarp algorithm)을 이용하여 얼굴의 입체적인 회전 변형을 수행한다. 또한, 눈이나 입의 개폐 변형도 동일한 워핑 알고리즘으로 구현한다. 얼굴 변형 성능을 평가하기 위해, 총 10명으로부터 머리를 수평으로 회전하면서 동영상을 취득한 후, 실제 영상과 변형 영상마다 양 눈의 중간 위치인 기준점에서 각 특징점까지의 거리를 계산하여 평균 차이를 구하였다. 그 결과, 기준점에서 입의 중간 위치까지의 거리에 비해 약 7.0%의 평균 위치 오차만이 발생하였다.

투사에 기초한 얼굴 인식 알고리즘들의 통계적 분석 (Statistical Analysis of Projection-Based Face Recognition Algorithms)

  • 문현준;백순화;전병민
    • 한국통신학회논문지
    • /
    • 제25권5A호
    • /
    • pp.717-725
    • /
    • 2000
  • 최근 수년간 얼굴인식에 관한 많은 알고리즘이 개발되었고 그 대다수가 view와 투사에 기초한 알고리즘이었다. 본 논문에서의 투사는 비단 직교 기저상에 영상을 투사하는 것으로 국한하지 않고 영상 화소값을 변환하는 일반적인 선형 변환으로써 상관관계, 주성분 분석, 클러스트링, gray scale 투사, 그리고 추적 필터매칭을 포함한다. 본 연구에서는 FERET 데이터베이스 상의 얼굴 영상을 평가한 알고리즘들을 세부적으로 분석하고자 한다. 투사에 기초한 알고리즘은 3단계로 구성된다. 첫 번째 단계는 off-line상에서 행하며 알고리즘 설계자에 의해 새로운 기저가 설정되거나 또는 학습을 통해 새로운 기저를 결정한다. 두 번째 단계는 on-line상에서 행해지며 영상을 설정된 새로운 기저상에 투사한다. 세 번째 단계는 on-line상에서 행해지며 영상내의 얼굴은 가장 인접한 이웃 분류자로 인식된다. 대부분의 평가 방법들은 단일 gallery 상에서의 성능 평가가 이루어짐으로써 알고리즘 성능을 충분히 측정하지 못하는 반면 본 연구에서는 독립된 galley들의 집합을 구성함으로써 각각의 다른 galley상에서 가지는 변화와 이들의 상대적 성능을 평가한\ulcorner.

  • PDF