• 제목/요약/키워드: 입술영역검출

검색결과 38건 처리시간 0.097초

CNN 모델을 이용한 얼굴 추출 및 보정 기법 (Face Detection and Region Refinement using a CNN Model)

  • 조일국;김호준
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (B)
    • /
    • pp.313-315
    • /
    • 2006
  • 본 연구에서는 실내에서 입력받은 영상의 조명과 크기 변화 등에 강인한 얼굴 검출 기법을 소개한다. 제안된 얼굴 검출 기법은 후보 영역 선정 과정과 얼굴패턴 검출 과정, 얼굴 영역 보정 과정으로 이루어진다. 후보 영역 선정 과정에서는 조명보정과 색상 필터, 움직임 필터를 이용하여 얼굴패턴의 후보 영역을 선정한다. 얼굴패턴 검출 과정에서는 CNN을 이용하여 특징을 추출하고, WFMM 신경망을 이용하여 얼굴 패턴을 검증한다. 얼굴 영역 보정 과정은 형태학적 연산 등의 영상 처리를 이용하여 눈 영역과 입술 영역의 위치를 판별한 후 최종적인 얼굴 영역을 결정한다.

  • PDF

컬러정보와 부분 템플릿을 이용한 얼굴영역, 요소 및 회전각 검출 (Detection Method of Human Face, Facial Components and Rotation Angle Using Color Value and Partial Template)

  • 이미애;박기수
    • 정보처리학회논문지B
    • /
    • 제10B권4호
    • /
    • pp.465-472
    • /
    • 2003
  • 얼굴영상을 효율적으로 처리하기 위해선 먼저 인력영상에서 얼굴영역과 얼굴을 구성하는 각 요소를 검출하고 얼굴의 회전각을 추정하는 전처리과정이 필요하다. 본 논문에서는 다양한 얼굴의 크기와 머리회전, 조명의 변화가 허용되고 피부색과 비슷한 배경이 얼굴에 병합되는 경우에도 얼굴과 요소들(눈, 입)을 강건하게 검출할 수 있는 방법을 제안한다. 변환된 HSV 컬러 좌표계상의 대역적 피부 색상정보와 히스토그램을 이용한 피부 색상정보로 얼굴후보영역을 지정한 뒤, 같은 방법으로 얼굴후보영역 안에서 입술영역을 검출한다. 입술영역의 횡축 기울기로 x축에 대한 회전각을 추정한 후, 얼굴의 모양정보와 요소의 위치정보를 이용해 얼굴임을 확정한다. 다음으로 양안의 조합으로 이루어진 부분 템플릿매칭을 통해 눈을 검출한 뒤, 얼굴의 넓이를 참조한 3차원 공간상에서의 눈의 위치를 계산하여 y축 회전각을 추정한다. 다양한 얼굴영상에 대해 실험을 실시한 결과, 본 알고리즘의 유효성을 확인하였다.

확률맵 기반 유전자 알고리즘에 의한 ROI 검출 (ROI Detection by Genetic Algorithm Based on Probability Map)

  • 박희정
    • 한국산학기술학회논문지
    • /
    • 제11권8호
    • /
    • pp.3028-3035
    • /
    • 2010
  • 본 연구에서는 인물영상에서 입술영역을 검출하기 위한 확률맵 기반 유전자 알고리즘을 제안한다. 하나의 최적해 탐색에 사용되었던 기존 유전자 알고리즘을 수정하여 입술과 같은 영역 검출에 부합하는 다수의 해를 얻도록 적용한다. 이를 위해 공간좌표를 의미하는 염색체로 각 개체를 표현하고, 보존구간, 세대수에 따른 부분 균일교배, 비중복 선택 등의 유전연산 방법을 도입한다. 또한 HSV 칼라공간에서 HS성분에 대한 확률맵을 제안하고, 이를 적용함으로써 유전자 알고리즘의 속성인 유사 색상에 대한 적응성을 더욱 증대한다. 실험을 통하여 제안한 알고리즘의 성능을 좌우하는 주요 파라미터 분석, 종료 함수의 종료 조건 $\beta$의 최적값 평가 분석 그리고 교배 방법에 따른 성능 평가 결과를 분석하였으며, 입술 이외의 관심객체 변경에 따른 다른 ROI(Region Of Interest)의 검출에도 유연하게 적응할 수 있음을 관찰하였다.

조명 변화에 견고한 얼굴 특징 추출 (Robust Extraction of Facial Features under Illumination Variations)

  • 정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.1-8
    • /
    • 2005
  • 얼굴 분석은 얼굴 인식 머리 움직임과 얼굴 표정을 이용한 인간과 컴퓨터사이의 인터페이스, 모델 기반 코딩, 가상현실 등 많은 응용 분야에서 유용하게 활용된다. 이러한 응용 분야에서는 얼굴의 특징점들을 정확하게 추출해야 한다. 본 논문에서는 눈, 눈썹, 입술의 코너와 같은 얼굴 특징을 자동으로 추출하는 방법을 제안한다. 먼저, 입력 영상으로부터 AdaBoost 기반의 객체 검출 기법을 이용하여 얼굴 영역을 추출한다. 그 다음에는 계곡 에너지. 명도 에너지, 경계선 에너지의 세 가지 특징 에너지를 계산하여 결합한다. 구해진 특징 에너지 영상에 대하여 에너지 값이 큰 수평 방향향의 사각형을 탐색함으로써 특징 영역을 검출한다. 마지막으로 특징 영역의 가장자리 부분에서 코너 검출 알고리즘을 적용함으로써 눈, 눈썹, 입술의 코너를 검출한다. 본 논문에서 제안된 얼굴 특징 추출 방법은 세 가지의 특징 에너지를 결합하여 사용하고 계곡 에너지와 명도 에너지의 계산이 조명 변화에 적응적인 특성을 갖도록 함으로써, 다양한 환경 조건하에서 견고하게 얼굴 특징을 추출할 수 있다.

  • PDF

입술 영역의 움직임과 밝기 변화를 이용한 음성구간 검출 알고리즘 개발 (Voice Activity Detection using Motion and Variation of Intensity in The Mouth Region)

  • 김기백;유제웅;조남익
    • 방송공학회논문지
    • /
    • 제17권3호
    • /
    • pp.519-528
    • /
    • 2012
  • 음성구간을 검출하는 일반적인 방법은 음향신호로부터 특징값을 추출하여 판별식을 거치는 것이다. 그러나 잡음이 많은 환경에서 그 성능은 당연히 저하되며, 이 경우 영상신호를 이용하거나 영상과 음성을 동시에 사용함으로써 성능향상을 도모할 수 있다. 영상신호를 이용하여 음성구간을 검출하는 기존 방법들에서는 액티브 어피어런스 모델, 옵티컬 플로우, 밝기 변화 등 주로 하나의 특징값을 이용하고 있다. 그러나 음성구간의 참값은 음향신호에 의해 결정되므로 한 가지의 영상정보만으로는 음성구간을 검출하는데 한계를 보이고 있다. 본 논문에서는 입술 영역의 옵티컬 플로우와 밝기 변화 두 가지 영상정보로부터 특징값을 추출하고, 추출된 특징값들을 결합하여 음성구간을 검출하는 알고리즘을 제안하고자 한다. 또한, 음성구간 검출 알고리즘이 다른 시스템의 전처리로 활용되는 경우에 적은 계산량만으로 수행되는 것이 바람직하므로, 통계적 모델링에 의한 방법보다는 추출된 특징값으로부터 간단한 대수적 연산만으로 스코어를 산정하여 문턱값과 비교하는 방법을 제안하고자 한다. 입술 영역 검출을 위해서는 얼굴에서 가장 두드러진 특징점을 갖는 눈을 먼저 검출한 후, 얼굴의 구조와 밝기값을 이용하는 알고리즘을 제안하였다. 실험 결과 본 논문에서 제안하는 두 가지 특징값을 결합한 음성구간 검출 알고리즘이 하나의 특징값만을 이용했을 때보다 우수한 성능을 보임을 확인할 수 있다.

PCA와 HMM을 이용한 실시간 립리딩 시스템의 설계 및 구현 (Design and Implementation of a Real-Time Lipreading System Using PCA & HMM)

  • 이지근;이은숙;정성태;이상설
    • 한국멀티미디어학회논문지
    • /
    • 제7권11호
    • /
    • pp.1597-1609
    • /
    • 2004
  • 립리딩은 잡음 환경에서 저하되는 음성 인식률의 보상과 음성을 청취하기 어려운 상황에서의 음성인식보조 수단으로 많은 연구가 시도되고 있다. 기존 립리딩 시스템은 인위적인 조명 환경이나 얼굴과 입술 추출을 위하여 미리 정해진 제한된 조건에서 실험되어 왔다. 본 논문에서는 화자의 움직임이 허용되고 컬러나 조명과 같은 환경 변화에 제한조건을 완화한 영상을 이용하여 실시간 립리딩 시스템을 구현하였다. 본 논문의 시스템은 범용으로 사용되는 PC 카메라를 통해 입력받은 영상에서 얼굴과 입술 영역을 실시간으로 검출한 후, 립리딩에 필요한 영상정보를 추출하고 이 입술 영상 정보를 이용하여 실시간으로 발성 단어를 인식할 수 있다. 얼굴과 입술 영역 검출을 위하여 조명환경에 독립성을 갖는 색도 히스토그램 모델을 이용하였고 움직이는 화자의 얼굴 추적을 위하여 평균 이동 알고리즘을 이용하였다. 검출된 입술 영역에서 학습과 인식에 필요한 영상 정보를 추출하기 위하여 PCA(Principal Component Analysis)를 사용하였고, 인식 알고리즘으로는 HMM을 이용하였다. 실험 결과 화자종속일 경우 90%의 인식률을 보였으며 잡음이 있는 음성과 합병하여 인식률 실험을 해 본 결과, 음성 잡음비에 따라서 음성 인식률을 약 40~85%까지 향상시킬 수 있었다.

  • PDF

오디오-비디오 정보 융합을 통한 멀티 모달 음성 인식 시스템 (Audio-Visual Integration based Multi-modal Speech Recognition System)

  • 이상운;이연철;홍훈섭;윤보현;한문성
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 추계학술발표논문집 (상)
    • /
    • pp.707-710
    • /
    • 2002
  • 본 논문은 오디오와 비디오 정보의 융합을 통한 멀티 모달 음성 인식 시스템을 제안한다. 음성 특징 정보와 영상 정보 특징의 융합을 통하여 잡음이 많은 환경에서 효율적으로 사람의 음성을 인식하는 시스템을 제안한다. 음성 특징 정보는 멜 필터 캡스트럼 계수(Mel Frequency Cepstrum Coefficients: MFCC)를 사용하며, 영상 특징 정보는 주성분 분석을 통해 얻어진 특징 벡터를 사용한다. 또한, 영상 정보 자체의 인식률 향상을 위해 피부 색깔 모델과 얼굴의 형태 정보를 이용하여 얼굴 영역을 찾은 후 강력한 입술 영역 추출 방법을 통해 입술 영역을 검출한다. 음성-영상 융합은 변형된 시간 지연 신경 회로망을 사용하여 초기 융합을 통해 이루어진다. 실험을 통해 음성과 영상의 정보 융합이 음성 정보만을 사용한 것 보다 대략 5%-20%의 성능 향상을 보여주고 있다.

  • PDF

딥러닝 표정 인식을 통한 운동 영상 유튜브 하이라이트 업로드 자동화(RPA) 설계 (Design of Automation (RPA) for uploading workout videos to YouTube highlights through deep learning facial expression recognition)

  • 신동욱;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.655-657
    • /
    • 2022
  • 본 논문은 유튜브에 업로드 된 운동 영상을 시청하는 사람의 얼굴 영역을 YoloV3을 이용하여 얼굴 영상에서 눈 및 입술영역을 검출하는 방법을 연구하여, YoloV3은 딥 러닝을 이용한 물체 검출 방법으로 기존의 특징 기반 방법에 비해 성능이 우수한 것으로 알려져 있다. 본 논문에서는 영상을 다차원적으로 분리하고 클래스 확률(Class Probability)을 적용하여 하나의 회귀 문제로 접근한다. 영상의 1 frame을 입력 이미지로 CNN을 통해 텐서(Tensor)의 그리드로 나누고, 각 구간에 따라 객체인 경계 박스와 클래스 확률을 생성해 해당 구역의 눈과 입을 검출한다. 검출된 이미지 감성 분석을 통해, 운동 영상 중 하이라이트 부분을 자동으로 선별하는 시스템을 설계하였다.

자가 미소 훈련을 위한 자동 미소 분석 시스템 (An Automatic Smile Analysis System for Smile Self-training)

  • 송원창;강선경;정성태
    • 한국멀티미디어학회논문지
    • /
    • 제14권11호
    • /
    • pp.1373-1382
    • /
    • 2011
  • 본 논문에서는 사용자가 스스로 미소 훈련을 할 수 있도록 자동으로 미소를 분석하는 시스템을 제안한다. 제안된 시스템은 입력 영상으로부터 AdaBoost 알고리즘을 통해 얼굴 영역을 검출한 다음, ASM(active shape model)을 이용하여 생성된 얼굴 형태 모델을 이용하여 얼굴의 특징을 찾는다. 얼굴 특징을 찾은 다음에는 미소 분석에 필요한 입술 라인과 개별 치아 영역을 추출한다. 미소의 정도를 분석하기 위해 입술 라인과 치아와의 관계 판별이 필요한데, 이를 위해 치아 영상에 대해 2차 미분을 실행한 후, 세로축과 가로축에 히스토그램 프로젝션 방법을 이용하여 개별적인 치아 영역을 찾는다. 입술 라인과 개별 치아 영역에 대한 분석을 통해 사용자의 미소 정도를 자동으로 분석하고 결과를 실시간으로 사용자가 직접 확인할 수 있게 해 준다. 본 논문에서 개발된 시스템은 기존에 치과 병원에서 이루어진 미소 훈련을 위한 미소 평가 결과와 8.6% 이하의 오차를 보였으며 사용자가 혼자서도 미소를 훈련하는데 활용할 수 있는 것으로 분석되었다.

3차원 메이크업 시뮬레이션을 위한 자동화된 마스크 생성 (Automatic Mask Generation for 3D Makeup Simulation)

  • 김현중;김정식;최수미
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.397-402
    • /
    • 2008
  • 본 논문에서는 햅틱 인터랙션 기반의 3차원 가상 얼굴 메이크업 시뮬레이션에서 메이크업 대상에 대한 정교한 페인팅을 적용하기 위한 자동화된 마스크 생성 방법을 개발한다. 본 연구에서는 메이크업 시뮬레이션 이전의 전처리 과정에서 마스크를 생성한다. 우선, 3차원 스캐너 장치로부터 사용자의 얼굴 텍스쳐 이미지와 3차원 기하 표면 모델을 획득한다. 획득된 얼굴 텍스쳐 이미지로부터 AdaBoost 알고리즘, Canny 경계선 검출 방법과 색 모델 변환 방법 등의 영상처리 알고리즘들을 적용하여 마스크 대상이 되는 주요 특정 영역(눈, 입술)들을 결정하고 얼굴 이미지로부터 2차원 마스크 영역을 결정한다. 이렇게 생성된 마스크 영역 이미지는 3차원 표면 기하 모델에 투영되어 최종적인 3차원 특징 영역의 마스크를 레이블링하는데 사용된다. 이러한 전처리 과정을 통하여 결정된 마스크는 햅틱 장치와 스테레오 디스플레이기반의 가상 인터페이스를 통해서 자연스러운 메이크업 시뮬레이션을 수행하는데 사용된다. 본 연구에서 개발한 방법은 사용자에게 전처리 과정에서의 어떠한 개입 없이 자동적으로 메이크업 대상이 되는 마스크 영역을 결정하여 정교하고 손쉬운 메이크업 페인팅 인터페이스를 제공한다.

  • PDF