• 제목/요약/키워드: Facial Capture

검색결과 58건 처리시간 0.027초

수어 동작 키포인트 중심의 시공간적 정보를 강화한 Sign2Gloss2Text 기반의 수어 번역 (Sign2Gloss2Text-based Sign Language Translation with Enhanced Spatial-temporal Information Centered on Sign Language Movement Keypoints)

  • 김민채;김정은;김하영
    • 한국멀티미디어학회논문지
    • /
    • 제25권10호
    • /
    • pp.1535-1545
    • /
    • 2022
  • Sign language has completely different meaning depending on the direction of the hand or the change of facial expression even with the same gesture. In this respect, it is crucial to capture the spatial-temporal structure information of each movement. However, sign language translation studies based on Sign2Gloss2Text only convey comprehensive spatial-temporal information about the entire sign language movement. Consequently, detailed information (facial expression, gestures, and etc.) of each movement that is important for sign language translation is not emphasized. Accordingly, in this paper, we propose Spatial-temporal Keypoints Centered Sign2Gloss2Text Translation, named STKC-Sign2 Gloss2Text, to supplement the sequential and semantic information of keypoints which are the core of recognizing and translating sign language. STKC-Sign2Gloss2Text consists of two steps, Spatial Keypoints Embedding, which extracts 121 major keypoints from each image, and Temporal Keypoints Embedding, which emphasizes sequential information using Bi-GRU for extracted keypoints of sign language. The proposed model outperformed all Bilingual Evaluation Understudy(BLEU) scores in Development(DEV) and Testing(TEST) than Sign2Gloss2Text as the baseline, and in particular, it proved the effectiveness of the proposed methodology by achieving 23.19, an improvement of 1.87 based on TEST BLEU-4.

컬러 정보를 이용한 실시간 표정 데이터 추적 시스템 (Realtime Facial Expression Data Tracking System using Color Information)

  • 이윤정;김영봉
    • 한국콘텐츠학회논문지
    • /
    • 제9권7호
    • /
    • pp.159-170
    • /
    • 2009
  • 온라인 기반의 3차원 얼굴 애니메이션을 위해서 실시간으로 얼굴을 캡처하고 표정 데이터를 추출하는 것은 매우 중요한 작업이다. 최근 동영상 입력을 통해 연기자의 표정을 캡처하고 그것을 그대로 3차원 얼굴 모델에 표현하는 비전 기반(vision-based) 방법들에 대한 연구가 활발히 이루어지고 있다. 본 논문 에서는 실시간으로 입력되는 동영상으로부터 얼굴과 얼굴 특징점들을 자동으로 검출하고 이를 추적하는 시스템을 제안한다. 제안 시스템은 얼굴 검출과 얼굴 특징점 추출 및 추적과정으로 구성된다. 얼굴 검출은 3차원 YCbCr 피부 색상 모델을 이용하여 피부 영역을 분리하고 Harr 기반 검출기를 이용해 얼굴 여부를 판단한다. 얼굴 표정에 영향을 주는 눈과 입 영역의 검출은 밝기 정보와 특정 영역의 고유한 색상 정보를 이용한다. 검출된 눈과 입 영역에서 MPEG-4에서 정의한 FAP를 기준으로 10개의 특징점을 추출하고, 컬러 확률 분포의 추적을 통해 연속 프레임에서 특징점들의 변위를 구한다 실험 결과 제안 시스템 은 약 초당 8 프레임으로 표정 데이터를 추적하였다.

모션 데이터를 이용한 3차원 아바타 얼굴 표정 제어 (Facial Expression Control of 3D Avatar using Motion Data)

  • 김성호;정문렬
    • 정보처리학회논문지A
    • /
    • 제11A권5호
    • /
    • pp.383-390
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간 적으로 선택하게 함으로써 3차원 아바타의 얼굴 표정을 제어하는 기법을 제안하고, 해당 시스템을 구축한다. 본 시스템에서는 얼굴 모션 캡쳐 데이터로 구성된 2400여개의 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정에서 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 이 경로를 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 원하는 표정을 실시간 적으로 선택함으로써 제어한다. 이를 도와주기 위해 표정공간을 다차원 스케일링 기법을 이용하여 2차원 공간으로 가시화 했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 해본 결과, 3차원 아바타의 실시간 얼굴 표정 제어가 필요한 각 분야에서 매우 유용하게 사용될 것으로 판단되었다.24시간 경과시킨 후 치아의 장축에 따라 절단하여 침투된 색소의 정도를 광학현미경상에서 40배로 관찰하였다. 각각의 실험결과는 ANOVA/Tukey's test 및 Kruskal-Wallis non-parametric independent analysis와 Mann-Whitney U test에 의하여 통계 분석하여 다음과 같은 결론을 얻었다. 1. 대조군에 있어서 혼합형 복합레진의 미세인장 결합강도는 미세혼합형에 비하여 높았으며, 실험군 사이에는 유의차를 보이지 않았다. 2.모든 복합레진의 미세인장 결합강도는 와동의 C-factor증가에 따라 감소하는 경향을 나타내었고, 혼합형 복합레진의 실험군은 대조군에 비하여 낮게 나타났으며, 미세혼합형 복합레진에서는 유의차를 보이지 않았다. 3. 절단측 및 치은측 변연부의 미세누출정도는 혼합형 복합레진이 미세혼합형에 비하여 대체로 높게 나타났다. 4. 모든 실험군에서 미세누출은 C-factor증가에 따라 증가하였고 절단측에 비하여 치은측 변연이 높게 나타났으나 통계학적 유의차는 보이지 않았다. C-factor의 변화에 대하여 필러함량과 탄성계수가 높은 혼합형 복합레진이 미세혼합형에 비하여 더 민감한 결과를 보인다. 이는 복합레진 수복시 재료의 선택과 중합수축의 적절한 조절이 중요한 요소임을 시사한다.s에서는 1주, 2주에서 강한 염증반응을 보였으나 12주에서는 염증반응이 감소하였다. 4) 새로 개발된 봉함제 Adseal-1,2는 1주, 2주에서는 가장 약한 염증반응을 보이나 4주, 12주 후에는 AH Plus와 비슷한 수준의 염증 반응을 보였다. 5) Pulp Canal Sealer를 제외한 모든 군에서 인정할 만한 생체친화성을 보였다. 6)

3차원동작측정에 의한 얼굴 표정의 분석 (Analysis of facial expressions using three-dimensional motion capture)

  • 박재희;이경태;김봉옥;조강희
    • 대한인간공학회:학술대회논문집
    • /
    • 대한인간공학회 1996년도 추계학술대회논문집
    • /
    • pp.59-65
    • /
    • 1996
  • 인간의 얼굴 표정은 인간의 감성이 가장 잘 나타나는 부분이다 . 따라서 전통적으로 인간의 표정을 감 성과 연관 지어 연구하려는 많은 노력이 있어 왔다. 최근에는 얼굴 온도 변화를 측정하는 방법, 근전도(EMG; Electromyography)로 얼굴 근육의 움직임을 측정하는 방법, 이미지나 동작분석에 의한 얼굴 표정의 연구가 가능 하게 되었다. 본 연구에서는 인간의 얼굴 표정 변화를 3차원 동작분석 장비를 이용하여 측정하였다. 얼굴 표정 의 측정을 위해 두가지의 실험을 계획하였는데, 첫번 째 실험에서는 피실험자들로 하여금 웃는 표정, 놀라는 표정, 화난 표정, 그리고 무표정 등을 짓게 한 후 이를 측정하였으며, 두번째 실험에스는 코미디 영화와 공포 영화를 피 실험자들에게 보여 주어 피실험자들의 표정 변화를 측정하였다. 5명의 성인 남자가 실험에 참여하였는데, 감성을 일으킬 수 있는 적절한 자극 제시를 못한 점 등에서 처음에 기도했던 6개의 기본 표정(웃음, 슬픔, 혐오, 공포, 화남, 놀람)에 대한 모든 실험과 분석이 수행되지 못했다. 나머지 부분을 포함한 정교한 실험 준비가 추후 연구 에서 요구된다. 이러한 연구는 앞으로 감성공학, 소비자 반응 측정, 컴퓨터 애니메이션(animation), 정보 표시 장치(display) 수단으로서 사용될 수 있을 것이다.

  • PDF

실시간 감시 카메라를 구현하기 위한 고속 영상확대 및 초점조절 기법 (Fast Zooming and Focusing Technique for Implementing a Real-time Surveillance Camera System)

  • 한헌수;최정렬
    • 한국정밀공학회지
    • /
    • 제21권3호
    • /
    • pp.74-82
    • /
    • 2004
  • This paper proposes a fast zooming and focusing technique for implementing a real-time surveillance camera system which can capture a face image in less than 1 second. It determines the positions of zooming and focusing lenses using two-step algorithm. In the first step, it moves the zooming and focusing lenses simultaneously to the positions calculated using the lens equations for achieving the predetermined magnification. In the second step the focusing lens is adjusted so that it is positioned at the place where the focus measure is the maximum. The camera system implemented for the experiments has shown that the proposed algorithm spends about 0.56 second on average fur obtaining a focused image.

키넥트 방식을 활용한 얼굴모션인식 데이터 제어에 관한 연구 (A Study on the Correction of Face Motion Recognition Data Using Kinect Method)

  • 이준상;박준홍
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2019년도 춘계학술대회
    • /
    • pp.513-515
    • /
    • 2019
  • 키넥트 적외선 프로젝터를 활용하여 깊이 값을 인지하는 기술은 계속 발전하고 있다. 사람의 움직임을 추적하는 기술은 마크리스 방식에서 비마크리스 방식으로 발전하고 있다. 키넥트를 활용한 얼굴 움직임에 대한 캡쳐는 정교하지 못한 단점을 가지고 있다. 또한 얼굴에 대한 제스처나 움직임을 실시간으로 제어 하는 방법은 많은 연구가 필요한다. 따라서 본 논문은 키넥트 적외선 방식을 활용하여 추출된 얼굴인식 데이터에 브랜딩 기술을 접목하고 제어하는 기술을 연구하여 자연스러운 3D 영상콘텐츠를 제작할 수 있는 기술을 제안한다.

  • PDF

저화질 안면 이미지의 화질 개선를 통한 안면 특징점 검출 모델의 성능 향상 (Enhancing the performance of the facial keypoint detection model by improving the quality of low-resolution facial images)

  • 이경욱;이예진;박종혁
    • 지능정보연구
    • /
    • 제29권2호
    • /
    • pp.171-187
    • /
    • 2023
  • 저화소의 감시카메라와 같은 촬영 장비를 통해 사람의 얼굴을 인식할 경우, 화질이 낮아 얼굴을 포착하기 어렵다는 문제점이 있다. 이렇게, 사람의 얼굴을 인식하기 어렵다면 범죄용의자나 실종자를 특정해내지 못하는 등의 문제가 발생할 수 있다. 기존 이미지 속 안면 인식에 관한 연구들에서는 정제된 데이터셋을 사용하였기 때문에 다양한 환경에서의 성능을 가늠하기 어렵다는 한계가 존재한다. 이에, 본 논문에서는 저화질 이미지에서 안면 인식 성능이 떨어지는 문제를 해결하기 위해 다양한 환경을 고려한 저화질 안면 이미지에 대해 화질 개선을 수행하여 고화질 이미지를 생성한 뒤, 안면 특징점 검출의 성능 향상시키는 방법을 제안한다. 제안 방법의 현실 적용 가능성을 확인하기 위해 전체 이미지에서 사람이 상대적으로 작게 나타나는 데이터셋을 선정하여 실험을 수행하였다. 또한 마스크 착용 상황을 고려한 안면 이미지 데이터셋을 선정하여, 현실 문제로의 확장 가능성을 탐구하였다. 안면 이미지의 화질을 개선하여 특징점 검출 모델의 성능을 측정한 결과, 개선 후 안면의 검출 여부는 마스크를 착용하지 않은 이미지의 경우 평균 3.47배, 마스크를 착용한 경우 평균 9.92배로 성능 향상을 확인할 수 있었다. 안면 특징점에 대한 RMSE는 마스크를 착용한 이미지의 경우 평균 8.49배 감소, 마스크를 착용하지 않은 경우 평균 2.02배 감소한 것을 확인할 수 있었다. 이에, 화질 개선을 통해 저화질로 포착된 안면 이미지에 대한 인식률을 높여 제안 방법의 활용 가능성을 확인할 수 있었다.

다중 웨어러블 센서를 활용한 운전자 상태 인식 (Driver's Status Recognition Using Multiple Wearable Sensors)

  • 신의섭;김명국;이창욱;강행봉
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제6권6호
    • /
    • pp.271-280
    • /
    • 2017
  • 본 논문에서는 자동차의 안전운전을 위해서 운전자의 생체정보를 수집하여 운전자의 상태에 따라 운전자에게 적절한 경보를 하거나, 직접 자동자를 제어할 수 있는 기반 시스템을 제시하였다. 기존의 운전자 얼굴정보를 촬영하여 정보를 획득하거나, 운전자의 시트나 스티어링 휠에 센서를 장착하여 생제정보를 획득하는 방식이 부정확하거나 단속적인 정보만을 얻을 수 있는데 비하여, 본 논문에서 제시한 웨어러블 장치는 의료장비 수준의 정확도를 얻을 수 있었으며, 지속적으로 높은 정확도의 생체신호를 얻을 수 있었다. 개발된 웨어러블 장치에는 심박, 피부전도도, 피부온도를 측정할 수 있는 센서를 장착하였으며, 자동차에서 발생되는 각종 잡음을 제거할 수 있는 필터 기술을 적용하였고, 가속도센서와 자이로 센서를 장착하여 측정 오차를 제거하는 기술을 적용하였다. 수집된 생체신호를 바탕으로 운전자의 상태를 판별할 수 있는 기준을 제시하였고, 공인인증기관에 의뢰하여 의료수준 정도의 정확성이 있음을 검증하였다. 실험실 시험과 실차 시험을 통하여 개발된 장치가 운전자의 상태를 측정할 수 있는 장치로 활용될 수 있음을 검증하였다.

코로나-19 보호용 페이스 마스크에서의 액적 고속 충돌 거동 (Microdroplet Impact Dynamics at Very High Velocity on Face Masks for COVID-19 Protection)

  • 최재원;이동호;어지수;이동근;강전웅;지인서;김태영;홍지우
    • Korean Chemical Engineering Research
    • /
    • 제60권2호
    • /
    • pp.282-288
    • /
    • 2022
  • 코로나 팬데믹 시대에서 비말(respiratory droplet)을 통한 감염 및 확산을 막기 위해 마스크는 없어서는 안 될 생활 필수품이 되었다. 본 연구에서는 두 가지 다른 타입의 마스크(KF-94 마스크와 덴탈 마스크)가 비말 차단에 얼마나 효과적인지를 파악하기 위하여, i) 각각의 마스크를 구성하고 있는 필터의 젖음성(wettability) 특성을 분석하고, ii) 필터 표면에 빠른 속도로 충돌하는 미소 액적의 동적 거동 특성을 실험적으로 관찰하였다. 각 필터의 구성 재료에 따라 상반된 젖음성 특성, 소수성(hydrophobicity) 또는 친수성(hydrophilicity)을 보임을 확인하였다. 또한, 일정 체적을 갖는 미소 액적을 안정적으로 토출하는 공압 조건을 탐색하고 액적의 충돌 속도 변화에 따른 액적 충돌 거동 변화를 분석하였다. 마스크를 구성하고 있는 필터의 종류와 액적 충돌 속도에 따라 i) 필터를 통과하지 못하거나(no penetration), ii) 필터에 포획(capture)되거나, iii) 필터를 통과(penetration)하는 등의 다른 충돌 후 거동을 보임을 확인하였다. 이러한 결과들은 비말 차단용 마스크 디자인에 있어 매우 기본적이고 유용한 정보를 제공할 뿐만 아니라, 다양한 다공성 표면에서의 액적 거동에 대한 학문적 연구에도 도움이 될 것으로 판단된다.

감정 자세 인식을 위한 자세특징과 감정예측 모델 (Posture features and emotion predictive models for affective postures recognition)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제12권6호
    • /
    • pp.83-94
    • /
    • 2011
  • 감정 컴퓨팅의 대표적 연구 주제는 기계가 사람의 감정을 인식하여 이에 적절히 대응하는 것이다. 감정 인식 연구에서는 얼굴과 목소리 단서를 이용하여 감정을 포착하는데 집중했으며 최근에 와서 행동자세를 주요 수단으로 이용하고 있다. 본 연구의 목적은 감정 표현에서 중요한 역할을 담당하는 자세 특징을 포착하고 확인하여 감정을 판별하는 것이다. 이를 위해 먼저 자세포착시스템으로 다양한 감정 자세를 수집하여 감정별 특징을 공간적 특징으로 설명한다. 그리고 동작을 취하는 행위자가 의도하는 감정과 관찰자가 인지하는 감정 간에 통계적으로 의미 있는 상관관계가 있음을 표준통계기술을 통해 확인한다. 6가지 주요 감정을 판별하기 위해 판별 분석법을 이용하여 감정 자세 예측 모델을 구축하고 자세 특징을 측정한다. 제안 특징과 모델의 평가는 행위자-관찰자 감정 자세 집단의 상관관계를 이용하여 수행한다. 정량적 실험 결과는 제안된 자세 특징으로 감정을 잘 판별하며 감정 예측 모델이 잘 수행됨을 보여준다.