• 제목/요약/키워드: 3D-face tracking

검색결과 48건 처리시간 0.02초

사회불안성향자의 주의 과정에 관한 임상 융합 연구 : 정서맥락에서 긍정 자극을 중심으로 (Clinical Convergence Study on Attention Processing of Individuals with Social Anxiety Tendency : Focusing on Positive Stimulation in Emotional Context)

  • 박지윤;윤혜영
    • 한국융합학회논문지
    • /
    • 제9권3호
    • /
    • pp.79-90
    • /
    • 2018
  • 본 연구의 목적은 긍정 얼굴 자극에 대한 주의의 과정에서 정서 맥락적 배경의 유무에 따라 사회불안성향자들과 정상인 간 차이가 나타나는지 살펴보고자 하는 것이다. 이를 위해 무맥락적 배경에서 긍정 얼굴 자극에 대한 주의 과정을 확인하였고, 다음으로 정서 맥락적 배경이 존재하는 상황에서 동일한 주의 과정을 탐색하였다. D시의 800명의 대학생에게 SADS와 CES-D를 실시하고, 사회불안집단(SA, n=24)과 정상 대조군(NC, n=24)을 선별하였다. 주의 개입과 주의 이탈 두 요소를 측정하기 위해 최초 응시 방향, 최초 응시 시간을 안구 운동 추적을 통해 측정하였다. 그 결과, 사회불안집단의 경우 배경이 없는 상태에서 통제집단에 비해 긍정 얼굴 자극으로부터 더 빠른 주의 이탈이 관찰되었다. 그러나 긍정 얼굴 자극이 긍정 배경 자극 안에 제시되면 사회불안집단과 통제집단 간의 차이가 관찰되지 않았다. 이 결과는 긍정 배경이 사회불안장애성향자의 정서 처리에 영향을 미친다는 것을 시사한다.

얼굴 위치와 방향 추적을 이용한 3차원 시각화 (3D Visualization using Face Position and Direction Tracking)

  • 김민하;김지현;김철기;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.173-175
    • /
    • 2011
  • 본 논문에서는 얼굴의 3차원 위치와 방향을 추적하여 3D 물체를 다각도에서 볼 수 있는 사용자 인터페이스를 제시한다. 구현된 사용자 인터페이스는 사용자가 상하좌우로 얼굴을 움직였을 때, 얼굴의 3차원 위치 좌표를 이용하여 사용자가 움직이는 방향으로 물체를 이동시킨다. 그 뒤 사용자가 상하(pitch)좌우(yaw)로 얼굴을 회전시켰을 때, 얼굴의 Euler angle값을 이용하여 얼굴의 회전각만큼 물체를 회전시켜 물체의 측면을 제공한다. 다양한 위치와 방향에 사용자가 있을 때 물체의 움직임의 정확성과 반응성을 실험한 결과 시각화가 잘 됨을 확인하였다.

  • PDF

New Digital Esthetic Rehabilitation Technique with Three-dimensional Augmented Reality: A Case Report

  • Hang-Nga, Mai;Du-Hyeong, Lee
    • Journal of Korean Dental Science
    • /
    • 제15권2호
    • /
    • pp.166-171
    • /
    • 2022
  • This case report describes a dynamic digital esthetic rehabilitation procedure that integrates a new three-dimensional augmented reality (3D-AR) technique to treat a patient with multiple missing anterior teeth. The prostheses were designed using computer-aided design (CAD) software and virtually trialed using static and dynamic visualization methods. In the static method, the prostheses were visualized by integrating the CAD model with a 3D face scan of the patient. For the dynamic method, the 3D-AR application was used for real-time tracking and projection of the CAD prostheses in the patient's mouth. Results of a quick survey on patient satisfaction with the two visualization methods showed that the patient felt more satisfied with the dynamic visualization method because it allowed him to observe the prostheses directly on his face and be more proactive in the treatment process.

컬러 정보를 이용한 실시간 표정 데이터 추적 시스템 (Realtime Facial Expression Data Tracking System using Color Information)

  • 이윤정;김영봉
    • 한국콘텐츠학회논문지
    • /
    • 제9권7호
    • /
    • pp.159-170
    • /
    • 2009
  • 온라인 기반의 3차원 얼굴 애니메이션을 위해서 실시간으로 얼굴을 캡처하고 표정 데이터를 추출하는 것은 매우 중요한 작업이다. 최근 동영상 입력을 통해 연기자의 표정을 캡처하고 그것을 그대로 3차원 얼굴 모델에 표현하는 비전 기반(vision-based) 방법들에 대한 연구가 활발히 이루어지고 있다. 본 논문 에서는 실시간으로 입력되는 동영상으로부터 얼굴과 얼굴 특징점들을 자동으로 검출하고 이를 추적하는 시스템을 제안한다. 제안 시스템은 얼굴 검출과 얼굴 특징점 추출 및 추적과정으로 구성된다. 얼굴 검출은 3차원 YCbCr 피부 색상 모델을 이용하여 피부 영역을 분리하고 Harr 기반 검출기를 이용해 얼굴 여부를 판단한다. 얼굴 표정에 영향을 주는 눈과 입 영역의 검출은 밝기 정보와 특정 영역의 고유한 색상 정보를 이용한다. 검출된 눈과 입 영역에서 MPEG-4에서 정의한 FAP를 기준으로 10개의 특징점을 추출하고, 컬러 확률 분포의 추적을 통해 연속 프레임에서 특징점들의 변위를 구한다 실험 결과 제안 시스템 은 약 초당 8 프레임으로 표정 데이터를 추적하였다.

이동형 패럴랙스 배리어 모바일 3D 디스플레이를 위한 강인한 시청자 시역 위치 추정 알고리즘 (Robust Viewpoint Estimation Algorithm for Moving Parallax Barrier Mobile 3D Display)

  • 김기석;조재수;엄기문
    • 방송공학회논문지
    • /
    • 제17권5호
    • /
    • pp.817-826
    • /
    • 2012
  • 본 논문에서는 이동형 패럴랙스 배리어 방식의 모바일 3D 디스플레이를 위해 급격한 조명 변화에도 강인한 시청자 시역위치 추정 알고리즘을 제안한다. 기존의 비올라-존스 검출기와 옵티컬-플로우를 선형 결합한 시역 위치 추정 알고리즘[1]은 급격하게 조명이 변하는 경우 잘못된 시역 위치를 추정하는 문제가 있음을 확인하였고, 특히 이러한 급격한 조명의 변화 문제는 모바일 환경에서 흔히 발생하는 환경조건이다. 그리고 어두운 공간에서 3D 디스플레이를 시청하는 경우 디스플레이 조명이 시청자의 얼굴에 비치기 때문에 조명 변화가 매우 크게 발생할 수 있다. 급격한 조명의 변화에 대한 문제점을 해결하기 위해 본 논문에서는 매 프레임마다 정확하게 옵티컬-플로우 얼굴 검출기의 정확도를 판단할 수 있는 방법을 새롭게 제안하고, 다양한 실험을 통해 그 효과를 검증한다. 조명의 변화등에 의해 옵티컬-플로우가 잘못된 추적 결과를 출력하는 경우, 기존의 두 알고리즘(비올라-존스 얼굴검출기+옵티컬-플로우 특징점 추적기)을 선별적으로 선택함으로써 강인한 얼굴검출 및 추적이 이루어지도록 하고, 다양한 실험 결과를 통해 그 효과를 검증한다.

3차원 얼굴 표정 추적을 위한 스테레오 시각 모듈 설계 및 구현 (Design and Realization of Stereo Vision Module For 3D Facial Expression Tracking)

  • 이문희;김경석
    • 방송공학회논문지
    • /
    • 제11권4호
    • /
    • pp.533-540
    • /
    • 2006
  • 본 연구에서는 2개의 CMOS 영상 센서가 탑재된 스테레오 시각 모듈을 사용하여 얼굴 움직임 및 표정을 효과적으로 추적할 수 있는 얼굴용 모션 캡쳐 기술을 제안한다. 제안한 추적 알고리즘에는 신경회로망 기반의 중심점추적기법 및 상관추적기법을 사용한다. 실험 결과, 일반 얼굴 표정에 대해 스테레오 시각 모션 캡쳐를 사용한 두 추적기법 모두 15, 30프레임율에 대해 각각 95.6%, 99.6%의 추적성공률을 가진다는 것을 보여준다. 그러나 '입술 떨림'의 경우, 입술부위는 중심점추적기법(82.7%/15frame, 99.1%/30frame)의 추적성공률이 상관추적기법(78.7%/15frame, 92.7%/30frame)보다 높다는 것을 보여준다.

Target Object Image Extraction from 3D Space using Stereo Cameras

  • Yoo, Chae-Gon;Jung, Chang-Sung;Hwang, Chi-Jung
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -3
    • /
    • pp.1678-1680
    • /
    • 2002
  • Stereo matching technique is used in many practical fields like satellite image analysis and computer vision. In this paper, we suggest a method to extract a target object image from a complicated background. For example, human face image can be extracted from random background. This method can be applied to computer vision such as security system, dressing simulation by use of extracted human face, 3D modeling, and security system. Many researches about stereo matching have been performed. Conventional approaches can be categorized into area-based and feature-based method. In this paper, we start from area-based method and apply area tracking using scanning window. Coarse depth information is used for area merging process using area searching data. Finally, we produce a target object image.

  • PDF

Realtime Facial Expression Representation Method For Virtual Online Meetings System

  • Zhu, Yinge;Yerkovich, Bruno Carvacho;Zhang, Xingjie;Park, Jong-il
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 추계학술대회
    • /
    • pp.212-214
    • /
    • 2021
  • In a society with Covid-19 as part of our daily lives, we had to adapt ourselves to a new reality to maintain our lifestyles as normal as possible. An example of this is teleworking and online classes. However, several issues appeared on the go as we started the new way of living. One of them is the doubt of knowing if real people are in front of the camera or if someone is paying attention during a lecture. Therefore, we encountered this issue by creating a 3D reconstruction tool to identify human faces and expressions actively. We use a web camera, a lightweight 3D face model, and use the 2D facial landmark to fit expression coefficients to drive the 3D model. With this Model, it is possible to represent our faces with an Avatar and fully control its bones with rotation and translation parameters. Therefore, in order to reconstruct facial expressions during online meetings, we proposed the above methods as our solution to solve the main issue.

  • PDF

팬/틸트 탑제형 스테레오 카메라를 이용한 지능형 이동표적 추적 및 감시 시스템의 구현 (Implementation of Intelligent Moving Target Tracking and Surveillance System Using Pan/Tilt-embedded Stereo Camera System)

  • 고정환;이준호;김은수
    • 한국통신학회논문지
    • /
    • 제29권4C호
    • /
    • pp.514-523
    • /
    • 2004
  • 본 논문에서는 팬/틸트가 탑재된 스테레오 카메라를 이용한 새로운 지능형 이동표적 추적감시 시스템을 제안하고 구현하였다. 제안된 시스템은 먼저, 스테레오 카메라에서 입력된 영상으로부터 YCbCr 칼라 임계치 기법을 사용하여 표적 얼굴영역을 검출한 다음, 지능형 시각 시스템에 기반한 팬/틸트 탑재형 스테레오 카메라의 능동적인 제어를 통해 표적의 다양한 변화에 관계없이 표적의 거리정보 및 3차원적 이동 정보를 실시간적으로 검출함으로써 표적의 적응적 추적감시를 수행하게 된다. 80 프레임의 스테레오 영상을 사용한 실험 결과, 이동표적에 대한 실시간적 위치정보 검출 및 적응적 추적을 확인하였으며 특히, 팬/틸트 추적후 표적 중심좌표의 수평, 수직 표준편차가 매우 작은 값인 1.82, 1.11로 각각 유지되고, 표적의 3차원적 위치 좌표값의 오차 역시 평균 0.5% 이하로 유지됨이 분석됨으로써 이를 통한 새로운 실시간 스테레오 표적 감시추적 시스템의 구현 가능성을 제시하였다.

적응적인 스테레오 카메라 기반의 팬/틸트 제어를 통한 표적 감시-추적 시스템 (Stereo Camera-based Target Surveillance-Tracking System through an adaptive Pan/tilt Control)

  • 조도현;고정환;원영진
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2005년도 추계종합학술대회
    • /
    • pp.1269-1272
    • /
    • 2005
  • In this paper, a new intelligent moving target tracking and surveillance system basing on the pan/tilt-embedded stereo camera system is suggested and implemented. In the proposed system, once the face area of a target is detected from the input stereo image by using a YCbCr color model and then, using this data as well as the geometric information of the tracking system, the distance and 3D information of the target are effectively extracted in real-time.

  • PDF