• 제목/요약/키워드: Lip Region Extraction

검색결과 15건 처리시간 0.027초

색도 변환과 퍼지 클러스터링을 이용한 입술영역 추출 (Extraction of Lip Region using Chromaticity Transformation and Fuzzy Clustering)

  • 김정엽
    • 한국멀티미디어학회논문지
    • /
    • 제17권7호
    • /
    • pp.806-817
    • /
    • 2014
  • The extraction of lip region is essential to Lip Reading, which is a field of image processing to get some meaningful information by the analysis of lip movement from human face image. Many conventional methods to extract lip region are proposed. One is getting the position of lip by using geometric face structure. The other discriminates lip and skin regions by using color information only. The former is more complex than the latter, however it can analyze black and white image also. The latter is very simple compared to the former, however it is very difficult to discriminate lip and skin regions because of close similarity between these two regions. And also, the accuracy is relatively low compared to the former. Conventional analysis of color coordinate systems are mostly based on specific extraction scheme for lip regions rather than coordinate system itself. In this paper, the method for selection of effective color coordinate system and chromaticity transformation to discriminate these two lip and skin region are proposed.

가우스 분류기를 이용한 입술영역 추출 (Lip Region Extraction by Gaussian Classifier)

  • 김정엽
    • 한국멀티미디어학회논문지
    • /
    • 제20권2호
    • /
    • pp.108-114
    • /
    • 2017
  • Lip reading is a field of image processing to assist the process of sound recognition. In some environment, the capture of sound signal usually has significant noise and therefore, the recognition rate of sound signal decreases. Lip reading can be a good feature for the increase of recognition rates. Conventional lip extraction methods have been proposed widely. Maia et. al. proposed a method by the sum of Cr and Cb. However, there are two problems as follows: the point with maximum saturation is not always regarded as lips region and the inner part of lips such as oral cavity and teeth can be classified as lips. To solve these problems, this paper proposes a method which adopts the histogram-based classifier for the extraction of lips region. The proposed method consists of two stages, learning and test. The amount of computation is minimized because this method has no color conversion. The performance of proposed method gives 66.8% of detection rate compared to 28% of conventional ones.

Robust Lip Extraction and Tracking of the Mouth Region

  • Min, Duk-Soo;Kim, Jin-Young;Park, Seung-Ho;Kim, Ki-Jung
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -2
    • /
    • pp.927-930
    • /
    • 2000
  • Visual features of lip area play an important role in the visual speech information. We are concerned about correct lip area as region of interest (ROI). In this paper, we propose a robust and fast method for locating the mouth corners. Also, we define a region of interest at mouth during speech. A method, which we have used, only uses the horizontal and vertical image operators at mouth area. This searching is performed by fitting the ROI-template to image with illumination control. Most of the lip extraction algorithms are dependent on luminosity of image. We just used the binary image where the variable threshold is applied. The variable threshold varies to illumination condition. In order to control those variations, the gray-tone is converted to binary image by threshold, which is obtained through Multiple Linear Regression Analysis (MLRA) about divided 2D special region. Thus we obtained the region of interest at mouth area, which is the robust extraction about illumination. A region of interest is automatically extracted.

  • PDF

YCbCr 농도 대비를 이용한 입술특징 추출 (Lip Feature Extraction using Contrast of YCbCr)

  • 김우성;민경원;고한석
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2006년도 하계종합학술대회
    • /
    • pp.259-260
    • /
    • 2006
  • Since audio speech recognition is affected by noise in real environment, visual speech recognition is used to support speech recognition. For the visual speech recognition, this paper suggests the extraction of lip-feature using two types of image segmentation and reduced ASM. Input images are transformed to YCbCr based images and lips are segmented using the contrast of Y/Cb/Cr between lip and face. Subsequently, lip-shape model trained by PCA is placed on segmented lip region and then lip features are extracted using ASM.

  • PDF

임베디드 환경에서의 실시간 립리딩 시스템 구현 (Real Time Lip Reading System Implementation in Embedded Environment)

  • 김영운;강선경;정성태
    • 정보처리학회논문지B
    • /
    • 제17B권3호
    • /
    • pp.227-232
    • /
    • 2010
  • 본 논문은 임베디드 환경에서의 실시간 립리딩 방법을 제안한다. 기존 PC 환경에 비하여 임베디드 환경은 사용할 수 있는 자원이 제한적이므로, 기존 PC 환경의 립리딩 시스템을 임베디드 환경에서 실시간으로 구동하기는 어렵다. 이러한 문제를 해결하기 위해 본 논문은 임베디드 환경에 적합한 입술영역 검출 방법과 입술 특징추출 방법, 그리고 발성 단어 인식 방법을 제안한다. 먼저 정확한 입술영역을 찾기 위해 얼굴 색상정보를 이용해 얼굴영역을 검출하고 검출된 얼굴 영역에서 양쪽 두 눈의 위치를 찾아 기하학적 관계를 이용해 정확한 입술영역을 검출한다. 검출된 입술영역에서 주위 환경 변화에 따른 조명 변화에 강인한 특징을 추출하기위해 히스토그램 매칭과 입술 폴딩, RASTA 필터를 적용하고 주성분 분석(PCA)을 이용한 특징계수를 추출해 인식에 사용하였다. 실험결과 CPU 806Mhz, RAM 128MB 사양의 임베디드 환경에서 발성 단어에 따라 1.15초에서 2.35초까지의 처리 속도를 보였으며, 180개의 단어 중 139개의 단어를 인식해 77%의 인식률을 얻을 수 있었다.

입술영역 분할을 위한 CIELuv 칼라 특징 분석 (Analysis of CIELuv Color feature for the Segmentation of the Lip Region)

  • 김정엽
    • 한국멀티미디어학회논문지
    • /
    • 제22권1호
    • /
    • pp.27-34
    • /
    • 2019
  • In this paper, a new type of lip feature is proposed as distance metric in CIELUV color system. The performance of the proposed feature was tested on face image database, Helen dataset from University of Illinois. The test processes consists of three steps. The first step is feature extraction and second step is principal component analysis for the optimal projection of a feature vector. The final step is Otsu's threshold for a two-class problem. The performance of the proposed feature was better than conventional features. Performance metrics for the evaluation are OverLap and Segmentation Error. Best performance for the proposed feature was OverLap of 65% and 59 % of segmentation error. Conventional methods shows 80~95% for OverLap and 5~15% of segmentation error usually. In conventional cases, the face database is well calibrated and adjusted with the same background and illumination for the scene. The Helen dataset used in this paper is not calibrated or adjusted at all. These images are gathered from internet and therefore, there are no calibration and adjustment.

성인 구순구개열환자의 교정치료 전략 (The orthodontic strategies for adult patients of cleft lip and palate)

  • 김재훈
    • 대한치과의사협회지
    • /
    • 제53권7호
    • /
    • pp.450-456
    • /
    • 2015
  • Even the adult cleft lip and palate patient who has not had timely treatment during the growth period, can be treated with orthodontic treatment without the necessity of orthognathic surgery if only the patient is treated under correct diagnosis and fitting appliances. Initially, maxillary arch form is established by constructing trifocal circles. Posterior region can be expanded and derotated laterally with pentahelix and anterior teeth are aligned with Tiggle brackets and "ㄷ"-shaped spring. Thereafter, anterior and posterior regions are consolidated. Mandibular intercanine width should be adjusted to maxillary intercanine width which was unavoidably reduced. Mandibular anterior tooth extraction will be helpful to attain proper mandibular intercanine width and better anterior dental showing.

발화구간 검출을 위해 학습된 CNN 기반 입 모양 인식 방법 (Lip Reading Method Using CNN for Utterance Period Detection)

  • 김용기;임종관;김미혜
    • 디지털융복합연구
    • /
    • 제14권8호
    • /
    • pp.233-243
    • /
    • 2016
  • 소음환경에서의 음성인식 문제점으로 인해 1990년대 중반부터 음성정보와 영양정보를 결합한 AVSR(Audio Visual Speech Recognition) 시스템이 제안되었고, Lip Reading은 AVSR 시스템에서 시각적 특징으로 사용되었다. 본 연구는 효율적인 AVSR 시스템을 구축하기 위해 입 모양만을 이용한 발화 단어 인식률을 극대화하는데 목적이 있다. 본 연구에서는 입 모양 인식을 위해 실험단어를 발화한 입력 영상으로부터 영상의 전처리 과정을 수행하고 입술 영역을 검출한다. 이후 DNN(Deep Neural Network)의 일종인 CNN(Convolution Neural Network)을 이용하여 발화구간을 검출하고, 동일한 네트워크를 사용하여 입 모양 특징 벡터를 추출하여 HMM(Hidden Markov Mode)으로 인식 실험을 진행하였다. 그 결과 발화구간 검출 결과는 91%의 인식률을 보임으로써 Threshold를 이용한 방법에 비해 높은 성능을 나타냈다. 또한 입모양 인식 실험에서 화자종속 실험은 88.5%, 화자 독립 실험은 80.2%로 이전 연구들에 비해 높은 결과를 보였다.

발치 교정치료시 치은 함입에 관한 치은 처치 (Treatment of Gingival Invagination after Orthodontic Treatment with Extraction)

  • 김윤상;조진형;조진우
    • 구강회복응용과학지
    • /
    • 제28권1호
    • /
    • pp.79-86
    • /
    • 2012
  • 심한 치열 총생이나 입술이 돌출된 환자들에서 대다수의 경우에 발치 교정치료를 시행한다. 이런 경우 많은 수의 환자들에서 교정치료 완료 후 발치된 공간이 폐쇄되었음에도 해당 발치 공간 부위에 치은이 주름을 형성하는 치은 함입(gingival invagination)이 관찰된다. 이런 경우 폐쇄된 공간의 재발 및 국소적 치주 문제가 발생할 가능성이 있기에 치은 함입부에 대한 치주과적 처치가 필요하다. 본 증례의 환자는 치아가 맞지 않는다고 내원한 16세 여자 환자였으며 몇 년 전에 지역 치과에서 상악 소구치의 발치가 시행되었던 환자였기에 하악 소구치 발치를 동반한 교정치료를 시행하였다. 자연스럽게 폐쇄되었던 상악 소구치부와는 다르게 교정치료 완료 후 하악 소구치부위에서는 치은 함입이 관찰되어 치주과적으로 치은 함입부위를 절제하여 치은 평탄화를 시켰다. 치은 평탄화 작업은 레이저를 이용하여 좌측은 1회, 우측은 2회에 걸쳐서 시행하였으며 안정된 결과를 나타내었다. 이상의 치료를 통하여 발치를 동반한 교정치료 환자에서 발생하기 쉬운 치은 함입부의 치은 평탄화를 이룬 증례를 보고하고자 한다.

눈 주위의 피부색을 이용한 피부영역검출과 입술검출에 관한 연구 (A Study on Extraction of Skin Region and Lip Using Skin Color of Eye Zone)

  • 박영재;장석우;김계영
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권4호
    • /
    • pp.19-30
    • /
    • 2009
  • 본 논문에서는 입력된 영상에서 얼굴의 구성요소와 얼굴을 검출하는 방법을 제안하고자 한다. 얼굴 구성 요소탐지 방법으로는 EyeMap과 MouthMap을 이용하여 눈과 입술을 검출하는 방법을 사용한다. 먼저 눈의 영역을 찾은 후에 그 주변의 색상을 이용하여 피부 영역의 색상값 분포를 찾는다. 피부영역은 YCbCr에서 특징적인 분포를 나타내는데 이를 이용하여 배경영역과 피부영역을 분리한다. 피부영역으로 검출된 영역의 색상값 분포를 찾고 전체 영상에 그 분포와 근거리에 있는 영역들을 피부영역으로 검출한다. 여기서 추출된 피부영역을 기반으로 MouthMap을 구하여 입술을 검출한다. 기존의 방법과 달리 환경에 적응된 피부색상모델을 만들 수 있어 피부 영역 검출에서 좋은 결과를 얻을 수 있을 뿐 아니라 보다 정확한 입술영역을 찾을 수 있다.