• 제목/요약/키워드: 입술 인식

검색결과 93건 처리시간 0.049초

공포와 놀람 표정인식을 이용한 위험상황 인지 (Risk Situation Recognition Using Facial Expression Recognition of Fear and Surprise Expression)

  • 곽내정;송특섭
    • 한국정보통신학회논문지
    • /
    • 제19권3호
    • /
    • pp.523-528
    • /
    • 2015
  • 본 논문은 얼굴의 표정 인식을 이용한 위험상황 인지 알고리즘을 제안한다. 제안방법은 인간의 다양한 감정 표정 중 위험상황을 인지하기 위한 표정인 놀람과 공포의 표정을 인식한다. 제안방법은 먼저 얼굴 영역을 추출하고 검출된 얼굴 영역으로부터 눈 영역과 입술 영역을 추출한다. 각 영역에 유니폼 LBP 방법을 적용하여 표정을 판별하고 위험 상황을 인식한다. 제안방법은 표정인식을 위해 사용되는 Cohn-Kanade 데이터베이스 영상을 대상으로 성능을 평가하였다. 이 데이터베이스는 사람의 기본표정인 웃는 표정, 슬픈 표정, 놀란 표정, 화난 표정, 역거운 표정, 공포 표정 등 6가지의 표정영상을 포함하고 있다. 그 결과 표정 인식에 좋은 결과를 보였으며 이를 이용하여 위험상황을 잘 판별하였다.

음성/영상 정보를 이용한 새로운 끝점추정 방식에 기반을 둔 음성인식 시스템 (A Speech Recognition System based on a New Endpoint Estimation Method jointly using Audio/Video Informations)

  • 이동근;김성준;계영철
    • 방송공학회논문지
    • /
    • 제8권2호
    • /
    • pp.198-203
    • /
    • 2003
  • 본 논문에서는 멀티미디어 데이터에 존재하는 입술의 움직임(영상언어)과 음성을 함께 이용하여 음성의 끝점을 정확히 추정하는 방법과 이를 기반으로 한 음성인식 시스템을 제안한다. 잡음 섞인 음성의 끝점추정 방법은 다음과 같다. 각 테스트 단어에 대하여 영상언어를 이용한 끝점과 깨끗한 음성을 이용한 끝점을 각각 구한 후 이것들의 차이를 계산한다. 이 차이에 영상언어 끝점을 더하여 잡음 섞인 음성의 끝점으로 추정한다. 이와 같은 끝점(즉, 음성구간)의 추정방법을 인식기에 적용한다. 동일한 구간의 음성이 인식기의 각 단어모델에 입력되는 기존의 인식 방법과는 달리, 새로운 인식기에서는 각 단어별로 추정된 서로 다른 구간의 음성이 각 해당단어모델에 입력된다. 제안된 방식을 모의실험 한 결과, 음성잡음의 크기에 관계없이 정확한 끝점을 추정 할 수 있었으며, 그 결과 약 8% 정도의 인식률 향상을 이루었다.

감성인식에 따른 가상 캐릭터의 미소 표정변화에 관한 연구 (Study of expression in virtual character of facial smile by emotion recognition)

  • 이동엽
    • 만화애니메이션 연구
    • /
    • 통권33호
    • /
    • pp.383-402
    • /
    • 2013
  • 본 연구에서는 감성 변화에 따라 나타나는 얼굴 표정에 대한 해부학적 접근방식으로 근육 체계에 의해서 부호화하는 얼굴 움직임 부호화 시스템(FACS, Facial Action Coding System)을 얼굴표정에 적용하고 이를 바탕으로 듀센스마일(Duchenne smile)을 가상 캐릭터에 적용하여 검증해 보고자 한다. 인간의 표정을 인식하는 방식이 동일하게 가상의 캐릭터에도 적용된다는 선행연구를 바탕으로 애니메이션, 게임 등의 캐릭터에 보다 사실적인 표정을 담을 수 있는 연구 방식을 제안하고자 한다. 실험을 위해 훈련된 연극전공 학생들에게 정서 유발 실험을 통해 듀센 스마일과 일반 스마일을 추출하였다. 추출된 표정을 바탕으로 얼굴 근육 데이터를 표집하여 입과 입술주변의 근육과 다른 부위의 얼굴 표정 빈도를 산출하여 얻어진 데이터를 가상 캐릭터에 적용해 보았다. 그 결과 미소 표정에서 근육의 움직임은 협골 대근육의 수축으로 인한 입술 끝이 상향운동을 하며 안륜근이 수축하며 뺨이 올라가고 눈의 아래쪽 외측 눈꺼풀이 올라가는 표정이 나타났다. 개방성과 관련된 입주변 근육(AU25, AU26, AU27)과 코주위 근육(AU9)이 함께 협골근과 광대근 주변 근육의 움직임이 표현되었다. 그중 듀센 미소는 협골 대근육과 안륜근이 동시에 움직이는 형태로 발생되었다. 이를 바탕으로 본인의 의지에 의해 수행 가능한 광대근육과 감성적 정서에 공감하여 웃음의 형태로 나타나는 안륜근을 구분하고 이를 가상의 캐릭터의 근육에 적용하여 인간의 표정과 가상의 캐릭터 표정이 서로 구분 가능한지를 설문을 통해 알아보고자 하였다.

조명 변화에 견고한 얼굴 특징 추출 (Robust Extraction of Facial Features under Illumination Variations)

  • 정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.1-8
    • /
    • 2005
  • 얼굴 분석은 얼굴 인식 머리 움직임과 얼굴 표정을 이용한 인간과 컴퓨터사이의 인터페이스, 모델 기반 코딩, 가상현실 등 많은 응용 분야에서 유용하게 활용된다. 이러한 응용 분야에서는 얼굴의 특징점들을 정확하게 추출해야 한다. 본 논문에서는 눈, 눈썹, 입술의 코너와 같은 얼굴 특징을 자동으로 추출하는 방법을 제안한다. 먼저, 입력 영상으로부터 AdaBoost 기반의 객체 검출 기법을 이용하여 얼굴 영역을 추출한다. 그 다음에는 계곡 에너지. 명도 에너지, 경계선 에너지의 세 가지 특징 에너지를 계산하여 결합한다. 구해진 특징 에너지 영상에 대하여 에너지 값이 큰 수평 방향향의 사각형을 탐색함으로써 특징 영역을 검출한다. 마지막으로 특징 영역의 가장자리 부분에서 코너 검출 알고리즘을 적용함으로써 눈, 눈썹, 입술의 코너를 검출한다. 본 논문에서 제안된 얼굴 특징 추출 방법은 세 가지의 특징 에너지를 결합하여 사용하고 계곡 에너지와 명도 에너지의 계산이 조명 변화에 적응적인 특성을 갖도록 함으로써, 다양한 환경 조건하에서 견고하게 얼굴 특징을 추출할 수 있다.

  • PDF

Deformable Template과 GA를 이용한 얼굴 인식 및 아바타 자동 생성 (Face Detection for Automatic Avatar Creation by using Deformable Template and GA)

  • 박태영;권민수;강훈
    • 한국지능시스템학회논문지
    • /
    • 제15권1호
    • /
    • pp.110-115
    • /
    • 2005
  • 본 논문에서는 아바타를 자동으로 생성하기 위한 컬러 이미지 상에서의 얼굴, 눈, 입술 윤곽선 검출 기법을 제안하였다. 제안된 기법에서는 먼저 조명의 영향을 최대한 배제하기 위하여 HSI 색상 모델을 사용하였고 I 정보를 제외한 HS 평면상에서 피부색을 정의하고 이를 이용하여 입력된 이미지로부터 피부 영역을 검출하였다. 그리고 변형가능 템플릿과 유전자 알고리즘을 이용하여 얼굴, 눈, 입의 윤곽선을 검출하였다. 여기서 변형가능 템플릿은 B-spline 곡선과 컨트롤 포인트 벡터로 이루어지며, 이것은 다양한 얼굴, 눈, 입술 모양의 표현을 가능하게 한다. 또 유전자 알고리즘은 자연계의 진화와 선택원리를 응용한 매우 효율적인 탐색 알고리즘이다 다음으로, 검출된 얼굴과 각 요소들의 윤곽선과 퍼지 C-평균 군집화를 이용하여 아바타를 생성하게 된다. 퍼지 C-평균 군집화는 얼굴색을 일정한 수로 단순화하는 과정에서 사용하였다. 결과적으로, 이와 같은 기법을 이용하여 기존의 정해진 이미지를 가지고 표현하던 아바타와는 달리 사용자의 특성을 표현할 수 있는 아바타를 자동으로 생성할 수 있다.

에지 분석에 의한 자동 독화 실험 (Automatic Lip Reading Experiment by the Analysis of Edge)

  • 이경호;금종주;이상범
    • 한국컴퓨터산업학회논문지
    • /
    • 제9권1호
    • /
    • pp.21-28
    • /
    • 2008
  • 본 논문에서는 입술 주위 영상만으로 독화를 위한 에지 파라미터를 추출하였고, 한국어 5모음 'ㅏ/ㅔ/ㅣ/ㅗ/ㅜ'를 인식하는데 효과적임을 보였다. 발화하는 입주위의 이미지를 $5{\times}5$로 나누고, 각 영역에 소벨 연산자를 적용하여 디지털 에지 수를 구한 후, 이 값들의 관찰 오차를 정규화를 통하여 수정하고, 정규화 된 값을 파라미터로 사용하였다. 파라미터의 견인성을 확인하기 위하여, 자동 독화 시스템을 구축하였다. 인식 실험에 정상인 50명이 동원되었고, 10명의 이미지로 분석하고, 다른 40명의 이미지로 인식 실험을 하였다. 500개의 데이터를 분석하고, 이 분석을 바탕으로 신경망 시스템을 구축하였으며, 400개의 데이터로 인식 실험하였다. 신경망 시스템의 최고 인식 결과는 91.1%였다.

  • PDF

3차원 모델을 이용한 입모양 인식 알고리즘에 관한 연구 (A study on the lip shape recognition algorithm using 3-D Model)

  • 김동수;남기환;한준희;배철수;나상동
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 1998년도 추계종합학술대회
    • /
    • pp.181-185
    • /
    • 1998
  • 최근 통신 시스템의 연구와 발전 방향은 목소리의 음성 정보와 말하는 얼굴 영상의 화상 정보를 함께 적용하므로서 음성 정보만을 제공하는 경우보다 높은 인식율을 제공한다. 따라서 본 연구는 청각장애자들의 언어 대체수단 중 하나인 구화(speechreading)에서 가장 시각적 변별력이 높은 독순(lipreading)을 PC에서 구현하고자 한다. 간 논문은 기존의 방법과 달리 말하는 영상 시퀀스에서 독순(lipreading)을 행하기 위해 3차원 모델을 사용하여 입의 벌어진 정도, 턱의 움직임, 입술의 돌출과 같은 3차원 특징 정보를 제공하였다. 이와 같은 특징 정보를 얻기 위해 3차원 형상 모델을 입력 동영상에 정합시키고 정합된 3차원모델에서 각 특징점의 변화량을 인식파라미터로 사용하였다. 그리고, 인식 단위로 동영상을 분리하는 방법은 3차원 특징점 변화량에서 얻어지는 강도의 기울기에 의한다. 인식은 다차원(multi-dimensional), 다단계 라벨링 방법을 사용하여 3차원 특징벡터를 입력으로 한 이산 HMM을 사용하였다.

  • PDF

음성인식에서 입술 파라미터 열화에 따른 견인성 연구 (Robustness of Bimodal Speech Recognition on Degradation of Lip Parameter Estimation Performance)

  • 김진영;신도성;최승호
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2002년도 11월 학술대회지
    • /
    • pp.205-208
    • /
    • 2002
  • Bimodal speech recognition based on lip reading has been studied as a representative method of speech recognition under noisy environments. There are three integration methods of speech and lip modalities as like direct identification, separate identification and dominant recording. In this paper we evaluate the robustness of lip reading methods under the assumption that lip parameters are estimated with errors. We show that the dominant recording approach is more robust than other methods with lip reading experiments. Also, a measure of lip parameter degradation is proposed. This measure can be used in the determination of weighting values of video information.

  • PDF

딥러닝 표정 인식을 통한 운동 영상 유튜브 하이라이트 업로드 자동화(RPA) 설계 (Design of Automation (RPA) for uploading workout videos to YouTube highlights through deep learning facial expression recognition)

  • 신동욱;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.655-657
    • /
    • 2022
  • 본 논문은 유튜브에 업로드 된 운동 영상을 시청하는 사람의 얼굴 영역을 YoloV3을 이용하여 얼굴 영상에서 눈 및 입술영역을 검출하는 방법을 연구하여, YoloV3은 딥 러닝을 이용한 물체 검출 방법으로 기존의 특징 기반 방법에 비해 성능이 우수한 것으로 알려져 있다. 본 논문에서는 영상을 다차원적으로 분리하고 클래스 확률(Class Probability)을 적용하여 하나의 회귀 문제로 접근한다. 영상의 1 frame을 입력 이미지로 CNN을 통해 텐서(Tensor)의 그리드로 나누고, 각 구간에 따라 객체인 경계 박스와 클래스 확률을 생성해 해당 구역의 눈과 입을 검출한다. 검출된 이미지 감성 분석을 통해, 운동 영상 중 하이라이트 부분을 자동으로 선별하는 시스템을 설계하였다.

3차원 모델을 이용한 입모양 인식 알고리즘에 관한 연구 (A study on the lip shape recognition algorithm using 3-D Model)

  • 배철수
    • 한국정보통신학회논문지
    • /
    • 제3권1호
    • /
    • pp.59-68
    • /
    • 1999
  • 최근 통신 시스템의 연구와 발전 방향은 목소리의 음성 정보와 말하는 얼굴 영상의 화상 정보를 함께 적용하므로서 음성 정보만을 제공하는 경우보다 높은 인식율을 제공한다. 따라서 본 연구는 청각장애자들의 언어 대체수단 중 하나인 구화(speechreading)에서 가장 시각적 변별력이 높은 입모양 인식을 일반 퍼스널 컴퓨터상에서 구현하고자 한다. 본 논문은 기존의 방법과 달리 말하는 영상 시퀀스에서 입모양 인식을 행하기 위해 3차원 모델을 사용하여 입의 벌어진 정도, 턱의 움직임, 입술의 돌출과 같은 3차원 특징 정보를 제공하였다. 이와 같은 특징 정보를 얻기 위해 3차원 형상 모델을 입력 동영상에 정합시키고 정합된 3차원 형상 모델에서 각 특징점의 변화량을 인식파라미터로 사용하였다. 그리고, 인식단위로 동영상을 분리하는 방법은 3차원 특징점 변화량에서 얻어지는 강도의 기울기에 의하여 이루어지고, 인식은 각각의 3차원 특징벡터를 이산 HMM 인식기의 인식 파라메타로 사용하였다. 본 논문에서는 한국어 10개 모음에 대하여 인식실험하여 비교적 높은 인식율을 얻을 수 있는 것으로 보아 본 연구에서 사용한 특징 벡터를 시간적 변별 요소로서 사용할 수 있음을 제시하였다.

  • PDF