• 제목/요약/키워드: lip model

검색결과 142건 처리시간 0.028초

YCbCr 농도 대비를 이용한 입술특징 추출 (Lip Feature Extraction using Contrast of YCbCr)

  • 김우성;민경원;고한석
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2006년도 하계종합학술대회
    • /
    • pp.259-260
    • /
    • 2006
  • Since audio speech recognition is affected by noise in real environment, visual speech recognition is used to support speech recognition. For the visual speech recognition, this paper suggests the extraction of lip-feature using two types of image segmentation and reduced ASM. Input images are transformed to YCbCr based images and lips are segmented using the contrast of Y/Cb/Cr between lip and face. Subsequently, lip-shape model trained by PCA is placed on segmented lip region and then lip features are extracted using ASM.

  • PDF

ASM 기반의 얼굴 특징 영역 추출 및 변형된 알파 블렌딩을 이용한 가상 메이크업 프로그램 (A Virtual Makeup Program Using Facial Feature Area Extraction Based on Active Shape Model and Modified Alpha Blending)

  • 구자명;조태훈
    • 한국정보통신학회논문지
    • /
    • 제14권8호
    • /
    • pp.1827-1835
    • /
    • 2010
  • 본 논문은 사용자 사진에서 ASM(Active Shape Model)을 이용하여 얼굴의 각 특징 점을 추출하고, 추출 된 특징점을 이용하여 화장할 부분의 영역을 생성 한다. 기존의 가상 메이크업 프로그램에서는 사용자가 수동적으로 몇 개의 특징 점을 정확히 선택해야 하는데서 불편함을 초래했다. 본 논문에서 제안하는 가상 메이크업 프로그램에서는 ASM을 이용하여 사용자의 입력을 필요로 하지 않는다. 자연스러운 화장 효과를 표현하기 위해서 기본적인 알파 블렌딩을 각각 화장품의 특징에 맞게 변형하여 사용자 피부색과 화장품의 색을 혼합한다. 얼굴 윤곽, 눈, 눈썹, 입술, 볼의 영역을 생성하고, Foundation, Blush, Lip Stick, Lip Liner, Eye Pencil, Eye Liner, Eye Shadow 종류의 화장을 할 수 있게 구현하였다.

Support Vector Machine Based Phoneme Segmentation for Lip Synch Application

  • Lee, Kun-Young;Ko, Han-Seok
    • 음성과학
    • /
    • 제11권2호
    • /
    • pp.193-210
    • /
    • 2004
  • In this paper, we develop a real time lip-synch system that activates 2-D avatar's lip motion in synch with an incoming speech utterance. To realize the 'real time' operation of the system, we contain the processing time by invoking merge and split procedures performing coarse-to-fine phoneme classification. At each stage of phoneme classification, we apply the support vector machine (SVM) to reduce the computational load while retraining the desired accuracy. The coarse-to-fine phoneme classification is accomplished via two stages of feature extraction: first, each speech frame is acoustically analyzed for 3 classes of lip opening using Mel Frequency Cepstral Coefficients (MFCC) as a feature; secondly, each frame is further refined in classification for detailed lip shape using formant information. We implemented the system with 2-D lip animation that shows the effectiveness of the proposed two-stage procedure in accomplishing a real-time lip-synch task. It was observed that the method of using phoneme merging and SVM achieved about twice faster speed in recognition than the method employing the Hidden Markov Model (HMM). A typical latency time per a single frame observed for our method was in the order of 18.22 milliseconds while an HMM method applied under identical conditions resulted about 30.67 milliseconds.

  • PDF

입술의 대칭성에 기반한 효율적인 립리딩 방법 (An Efficient Lipreading Method Based on Lip's Symmetry)

  • 김진범;김진영
    • 대한전자공학회논문지SP
    • /
    • 제37권5호
    • /
    • pp.105-114
    • /
    • 2000
  • 본 논문에서는 영상 변환 기반 자동 립리딩 알고리즘에서 처리하는 데이터 수를 효과적으로 감소시키는데 중점을 두었다 화자의 입술에 대한 압축된 정보를 갖는 영상 변환 방식이 입술 윤곽선 기반 방식보다 우수한 립리딩 성능을 보이지만 이 방식은 입술 특정 파라미터를 다수 갖게 되므로 데이터 처리량이 많아지고 인식시간이 길어지게 된다 계산되는 데이터를 줄이기 위해 우리는 엽술의 대칭성에 기반하여 입술영상을 수직으로 접는 간단한 방법을 제안한다 추가적으로 주성분 분석(PCA) 알고리즘을 사용하여 빠른 알고리즘을 고려하였고, HMM을 이용한 단어 인식실험 결과를 보인다 제안된 방법에서 접어진 입술영상을 이용한 결과, 일반적으로 $16{\times}16$ 입술영상을 사용하는 방법에 비해 특정파라미터 수가 $22{\sim}47%$ 감소하였고, HMM(hidden Markov model) 인식 알고리즘을 이용한 단어 인식률에서도 $2{\sim}3%$ 개선된 결과를 얻었다.

  • PDF

AAM 기반 얼굴 표정 인식을 위한 입술 특징점 검출 성능 향상 연구 (A Study on Enhancing the Performance of Detecting Lip Feature Points for Facial Expression Recognition Based on AAM)

  • 한은정;강병준;박강령
    • 정보처리학회논문지B
    • /
    • 제16B권4호
    • /
    • pp.299-308
    • /
    • 2009
  • AAM(Active Appearance Model)은 PCA(Principal Component Analysis)를 기반으로 객체의 형태(shape)와 질감(texture) 정보에 대한 통계적 모델을 통해 얼굴의 특징점을 검출하는 알고리즘으로 얼굴인식, 얼굴 모델링, 표정인식과 같은 응용에 널리 사용되고 있다. 하지만, AAM알고리즘은 초기 값에 민감하고 입력영상이 학습 데이터 영상과의 차이가 클 경우에는 검출 에러가 증가되는 문제가 있다. 특히, 입을 다문 입력얼굴 영상의 경우에는 비교적 높은 검출 정확도를 나타내지만, 사용자의 표정에 따라 입을 벌리거나 입의 모양이 변형된 얼굴 입력 영상의 경우에는 입술에 대한 검출 오류가 매우 증가되는 문제점이 있다. 이러한 문제점을 해결하기 위해 본 논문에서는 입술 특징점 검출을 통해 정확한 입술 영역을 검출한 후에 이 정보를 이용하여 AAM을 수행함으로써 얼굴 특징점 검출 정확성을 향상시키는 방법을 제안한다. 본 논문에서는 AAM으로 검출한 얼굴 특징점 정보를 기반으로 초기 입술 탐색 영역을 설정하고, 탐색 영역 내에서 Canny 경계 검출 및 히스토그램 프로젝션 방법을 이용하여 입술의 양 끝점을 추출한 후, 입술의 양 끝점을 기반으로 재설정된 탐색영역 내에서 입술의 칼라 정보와 에지 정보를 함께 결합함으로써 입술 검출의 정확도 및 처리속도를 향상시켰다. 실험결과, AAM 알고리즘을 단독으로 사용할 때보다, 제안한 방법을 사용하였을 경우 입술 특징점 검출 RMS(Root Mean Square) 에러가 4.21픽셀만큼 감소하였다.

색상 군집화를 이용한 입술탐지 알고리즘 (A Lip Detection Algorithm Using Color Clustering)

  • 정종면
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권3호
    • /
    • pp.37-43
    • /
    • 2014
  • 본 논문에서는 색상 군집화를 이용한 입술탐지 알고리즘을 제안한다. RGB 색상 모델로 주어진 입력영상에서 AdaBoost 알고리즘을 이용하여 얼굴영역을 추출한 후, 얼굴영역을 Lab 컬러 모델로 변환한다. Lab 컬러 모델에서 a 성분은 입술과 유사한 색상을 잘 표현할 수 있는 반면 b 성분은 입술의 보색을 표현할 수 있기 때문에 Lab 컬러로 표현된 얼굴영역에서 a와 b 성분을 기준으로 최단 이웃(nearest neighbour) 군집화 알고리즘을 이용하여 피부 영역을 분리한 후, K-means 색상 군집화를 통해 입술 후보 영역을 추출하고, 마지막으로 기하학적 특징을 이용하여 최종적인 입술영역을 탐지하였다. 실험 결과는 제안된 방법이 강건하게 입술을 탐지함을 보인다.

Three-dimensional evaluation of the correlation between lip canting and craniofacial planes

  • Kim, Jun-Young;Park, Hee-Keun;Shin, Seung-Woo;Park, Jin Hoo;Jung, Hwi-Dong;Jung, Young-Soo
    • 대한치과교정학회지
    • /
    • 제50권4호
    • /
    • pp.258-267
    • /
    • 2020
  • Objective: This study aimed to analyze the correlation of horizontal and sagittal planes used in two-dimensional diagnosis with lip canting by using three-dimensional (3D) analysis. Methods: Fifty-two patients (25 men, 27 women; average age: 24 years) undergoing treatment for dentofacial deformity were enrolled. Computed tomography images were acquired, and digital imaging and communication in medicine files were reconstructed into a 3D virtual model wherein horizontal and sagittal craniofacial planes were measured. Subsequently, the correlations of lip canting with these horizontal and sagittal planes were investigated. Results: The mandibular symmetry plane, the occlusal plane, Camper's plane, the mandibular plane, Broadbent's plane, and the nasal axis plane were correlated with the amount of lip canting (Pearson's correlation coefficients: 0.761, 0.648, 0.556, 0.526, 0.438, and 0.406, respectively). Planes associated with the lower part of the face showed the strongest correlations; the strength of the correlations decreased in the midfacial and cranial regions. None of the planes showed statistically significant differences between patients with clinical lip canting (> 3°) and those without prominent lip canting. Conclusions: The findings of this study suggest that lip canting is strongly correlated with the mandibular symmetry plane, which includes menton deviation. This finding may have clinical implications with regard to the treatment of patients requiring correction of lip canting. Further studies are necessary for evaluating changes in lip canting after orthognathic surgery.

시각적 어텐션을 활용한 입술과 목소리의 동기화 연구 (Lip and Voice Synchronization Using Visual Attention)

  • 윤동련;조현중
    • 정보처리학회 논문지
    • /
    • 제13권4호
    • /
    • pp.166-173
    • /
    • 2024
  • 본 연구에서는 얼굴 동영상에서 입술의 움직임과 음성 간의 동기화 탐지 방법을 제안한다. 기존의 연구에서는 얼굴 탐지 기술로 얼굴 영역의 바운딩 박스를 도출하고, 박스의 하단 절반 영역을 시각 인코더의 입력으로 사용하여 입술-음성 동기화 탐지에 필요한 시각적인 특징을 추출하였다. 본 연구에서는 입술-음성 동기화 탐지 모델이 음성 정보의 발화 영역인 입술에 더 집중할 수 있도록 사전 학습된 시각적 Attention 기반의 인코더 도입을 제안한다. 이를 위해 음성 정보 없이 시각적 정보만으로 발화하는 말을 예측하는 독순술(Lip-Reading)에서 사용된 Visual Transformer Pooling(VTP) 모듈을 인코더로 채택했다. 그리고, 제안 방법이 학습 파라미터 수가 적음에도 불구하고 LRS2 데이터 세트에서 다섯 프레임 기준으로 94.5% 정확도를 보임으로써 최근 모델인 VocaList를 능가하는 것을 실험적으로 증명하였다. 또, 제안 방법은 학습에 사용되지 않은 Acappella 데이터셋에서도 VocaList 모델보다 8% 가량의 성능 향상이 있음을 확인하였다.

남극 로스해에서 분리한 Croceibacter atlanticus균 유래 리파아제의 생산, 고정화, 효소특성 연구 (Production, Immobilization, and Characterization of Croceibacter atlanticus Lipase Isolated from the Antarctic Ross Sea)

  • 박채경;김형권
    • 한국미생물·생명공학회지
    • /
    • 제46권3호
    • /
    • pp.234-243
    • /
    • 2018
  • 남극해에는 산업적으로 유용한 신규 효소촉매를 생산하는 미생물들이 들어 있다. 우리는 로스해(Ross Sea)로부터 분리한 여러 저온성 박테리아를 조사하였으며, 그 중에서 지방분해 능력이 뛰어난 Croceibacter atlanticus (No. 40-F12)를 찾았다. Shotgun 클로닝 방법으로 리파아제 유전자(lipCA)를 찾았으며 Escherichia coli 균에서 LipCA 효소를 발현하였다. Spain Arreo metagenome alpha/beta hydrolase를 기준으로 LipCA 상동구조모델을 만들어서 분석한 결과, ${\alpha}/{\beta}$ hydrolase fold, Gly-X-Ser-X-Gly motif, 그리고 lid 구조를 갖고 있기 때문에 전형적인 리파아제 효소임이 밝혀졌다. Ammonium sulfate 침전법과 겔여과 크로마토그래피를 통해서 세포추출액으로부터 LipCA 효소를 순수하게 분리한 후, 최적 온도, pH, 안정성, 기질특이성, 유기용매 안정성 등의 효소특성을 규명하였다. LipCA를 cross-linked enzyme aggregate (CLEA) 방법으로 고정화하고 효소특성을 조사, 비교하였다. 고정화를 통해 온도, pH, 유기용매에 대한 안정성이 증가하였고 기질특이성의 변화는 관찰되지 않았다. $LipCA^{CLEA}$는 원심분리 방법으로 쉽게 회수되었고 4번의 재사용 후에 40% 이상의 활성이 잔재하였다. 이 논문은 C. atlanticus 리파아제의 발현, 특성규명, Cross-linked Enzyme Aggregated 고정화를 바탕으로 안정성을 높여 산업적 활용 가능성을 제시한 최초의 보고이다.

모바일 환경에서의 시각 음성인식을 위한 눈 정위 기반 입술 탐지에 대한 연구 (A Study on Lip Detection based on Eye Localization for Visual Speech Recognition in Mobile Environment)

  • 송민규;;김진영;황성택
    • 한국지능시스템학회논문지
    • /
    • 제19권4호
    • /
    • pp.478-484
    • /
    • 2009
  • 음성 인식 기술은 편리한 삶을 추구하는 요즘 추세에 HMI를 위해 매력적인 기술이다. 음성 인식기술에 대한 많은 연구가 진행되고 있으나 여전히 잡음 환경에서의 성능은 취약하다. 이를 해결하기 위해 요즘은 청각 정보 뿐 아니라 시각 정보를 이용하는 시각 음성인식에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 모바일 환경에서의 시각 음성인식을 위한 입술의 탐지 방법을 제안한다. 시각 음성인식을 위해서는 정확한 입술의 탐지가 필요하다. 우리는 입력 영상에서 입술에 비해 보다 찾기 쉬운 눈을 이용하여 눈의 위치를 먼저 탐지한 후 이 정보를 이용하여 대략적인 입술 영상을 구한다. 구해진 입술 영상에 K-means 집단화 알고리듬을 이용하여 영역을 분할하고 분할된 영역들 중 가장 큰 영역을 선택하여 입술의 양 끝점과 중심을 얻는다. 마지막으로, 실험을 통하여 제안된 기법의 성능을 확인하였다.