• 제목/요약/키워드: 끝점 검출

검색결과 74건 처리시간 0.02초

모바일 환경에서의 시각 음성인식을 위한 눈 정위 기반 입술 탐지에 대한 연구 (A Study on Lip Detection based on Eye Localization for Visual Speech Recognition in Mobile Environment)

  • 송민규;;김진영;황성택
    • 한국지능시스템학회논문지
    • /
    • 제19권4호
    • /
    • pp.478-484
    • /
    • 2009
  • 음성 인식 기술은 편리한 삶을 추구하는 요즘 추세에 HMI를 위해 매력적인 기술이다. 음성 인식기술에 대한 많은 연구가 진행되고 있으나 여전히 잡음 환경에서의 성능은 취약하다. 이를 해결하기 위해 요즘은 청각 정보 뿐 아니라 시각 정보를 이용하는 시각 음성인식에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 모바일 환경에서의 시각 음성인식을 위한 입술의 탐지 방법을 제안한다. 시각 음성인식을 위해서는 정확한 입술의 탐지가 필요하다. 우리는 입력 영상에서 입술에 비해 보다 찾기 쉬운 눈을 이용하여 눈의 위치를 먼저 탐지한 후 이 정보를 이용하여 대략적인 입술 영상을 구한다. 구해진 입술 영상에 K-means 집단화 알고리듬을 이용하여 영역을 분할하고 분할된 영역들 중 가장 큰 영역을 선택하여 입술의 양 끝점과 중심을 얻는다. 마지막으로, 실험을 통하여 제안된 기법의 성능을 확인하였다.

투영곡선의 자동정합을 이용한 전방향 카메라 보정 (Using Contour Matching for Omnidirectional Camera Calibration)

  • 황용호;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제45권6호
    • /
    • pp.125-132
    • /
    • 2008
  • 감시 및 로보트 분야 등에서 다양하게 사용되는 전방향(omnidirectional) 카메라 시스템은 넓은 시야각을 제공한다. 전방향 카메라의 사영모델과 외부변수를 추정하는 대부분의 기존 연구에서는 사전에 설정된 영상 간의 대응관계를 가정한다. 본 논문에서는 두 장의 전방향 영상으로부터 투영곡선을 자동으로 정합하여 카메라의 외부변수를 추정하는 새로운 알고리즘이 제안된다. 먼저 두 영상에서 대응되는 특징점으로부터 에피폴라 구속조건을 계산하여 초기 카메라 변수를 계산한다. 검출된 특징점과 투영곡선을 대상으로 능동적(active) 정합방법으로 대응관계를 결정한다. 최종 단계에서 대응 투영곡선을 구성하는 양 끝점의 에피폴라(epipolar) 평면과 3차원 벡터의 각도 오차를 최소화하는 카메라 변수를 추정한다. 합성영상과 어안렌즈(fisheye lens)로 취득된 실제 영상을 대상으로 제안된 알고리즘이 기존 방법에 비해 카메라의 외부변수를 정확하게 추정함을 확인하였다.

한국어 고립단어인식을 위한 고속 알고리즘 (Fast Algorithm for Recognition of Korean Isolated Words)

  • 남명우;박규홍;정상국;노승용
    • 한국음향학회지
    • /
    • 제20권1호
    • /
    • pp.50-55
    • /
    • 2001
  • 본 논문에서는 청각모델을 이용하여 음성신호로부터 추출한 특징벡터를 2차원 DCT (discrete cosine transform)방법을 사용하여 가공한 후, 새로운 거리측정 방법에 적용하여 한국어 고립단어 인식 실험을 행하였다. 고립단어 인식은 기존에 많은 방법들이 제안되어졌으나, 본 논문에서 제안한 방법은 고립단어 인식을 위한 특징 파라미터로 2차원 DCT 계수를 사용한 것으로 구현이 간단하며, 간단한 계산식으로 인하여 빠른 인식 시간을 가지는 장점이 있다. 제안한 방식의 타당성 검토를 위하여, 고립단어 인식에서 좋은 인식결과를 나타내는 DTW (Dynamic Time Warping)방법을 사용하여 인식률을 비교하였다[5][6]. 실험결과 제안한 방식은 DTW를 사용한 인식방법에 비하여 화자종속 고립단어 인식에서는 거의 유사한 인식결과를, 화자독립 고립단어 인식에서는 더 높은 인식결과를 얻을 수 있었다. 또한, DTW에 비해 패턴비교를 위한 계산시간에 있어서는 200배 이상의 감소효과를 볼 수 있었다. 제안된 방법은 비교 방법에 비하여 잡음환경에서도 강한 특성을 보였다.

  • PDF

은닉된 손가락 예측이 가능한 실시간 손 포즈 인식 방법 (A Real-time Hand Pose Recognition Method with Hidden Finger Prediction)

  • 나민영;최재인;김태영
    • 한국게임학회 논문지
    • /
    • 제12권5호
    • /
    • pp.79-88
    • /
    • 2012
  • 본 논문에서는 키보드나 마우스를 이용하지 않고 손 포즈나 동작으로 직관적인 사용자 인터 페이스를 제공하기 위한 실시간 손 포즈 인식 방법을 제안한다. 먼저 깊이 카메라 입력영상에서 왼손과 오른손의 영역을 분할 및 잡음 보정 후 각 손 영역에 대하여 손 회전각과 손 중심점을 계산한다. 그리고 손 중심점에서 일정간격으로 원을 확장해 나가면서 손 경계 교차점의 중간 지점을 구해 손가락 관절점과 끝점을 검출한다. 마지막으로 앞서 구한 손 정보와 이전 프레임의 손 모델간의 매칭을 수행하여 손 포즈를 인식한 후 다음 프레임을 위하여 손 모델을 갱신한다. 본 방법은 연속된 프레임간의 시간 일관성을 이용하여 이전 프레임의 손 모델 정보를 통하여 은닉된 손가락의 예측이 가능하다. 양손을 사용하여 은닉된 손가락을 가진 다양한 손 포즈에 대해 실험한 결과 제안 방법은 평균 95% 이상의 정확도로 32 fps 이상의 성능을 보였다. 제안 방법은 프리젠테이션, 광고, 교육, 게임 등의 응용분야에서 비접촉식 입력 인터페이스로 사용될 수 있다.