DOI QR코드

DOI QR Code

Analysis of CIELuv Color feature for the Segmentation of the Lip Region

입술영역 분할을 위한 CIELuv 칼라 특징 분석

  • Kim, Jeong Yeop (School of Sungsim College of General Education, Youngsan University)
  • Received : 2018.10.16
  • Accepted : 2018.12.19
  • Published : 2019.01.31

Abstract

In this paper, a new type of lip feature is proposed as distance metric in CIELUV color system. The performance of the proposed feature was tested on face image database, Helen dataset from University of Illinois. The test processes consists of three steps. The first step is feature extraction and second step is principal component analysis for the optimal projection of a feature vector. The final step is Otsu's threshold for a two-class problem. The performance of the proposed feature was better than conventional features. Performance metrics for the evaluation are OverLap and Segmentation Error. Best performance for the proposed feature was OverLap of 65% and 59 % of segmentation error. Conventional methods shows 80~95% for OverLap and 5~15% of segmentation error usually. In conventional cases, the face database is well calibrated and adjusted with the same background and illumination for the scene. The Helen dataset used in this paper is not calibrated or adjusted at all. These images are gathered from internet and therefore, there are no calibration and adjustment.

Keywords

1. 서 론

  입력된 얼굴영상으로부터 입술영역을 추출하는 위하여 흑백영상과 칼라영상에 따라 서로 다른 방법들이 많이 제안되었다. 흑백영상의 경우는 주로, 형틀(template) [1]과 능동모델(active model)[2]을 이용하거나, 능동모델을 칼라 특징과 결합하는 방법 [3-4]도 제안되었다. 칼라영상은 기존 칼라 좌표계에 서 가공된 새로운 특징치를 활용하는 방법들이 주로 제안되었다. Vogt 등[5]은 HSI 칼라 좌표계에 기반 하여 HS 정보를 바탕으로 한 LUT(Look-Up Table)를 구성하였다. 사전에 확보된 입술과 피부영역의 경 계정보를 이용하여 영역분할을 시도하였다. 그러나 이 방법은 영상의 촬영 환경, 입력장치 특성 등의 영향에 따라 안정적인 작동이 어려운 단점이 있고, 사전 정보의 획득을 위한 사람의 수동 작업이 필요하였다. Sanchez 등[6]은 RGB 칼라 좌표계를 그대로 사용하였고, 사전에 입술 주변의 피부영역에 대한 기본 자료를 필요로 하였으며, 기하학적인 모양 정보를 활용하였다. 본격적인 칼라 좌표계의 특징을 조합하는 방법은 이후, 몇몇 연구자들이 제안하기 시작하였고, Winner 등[7]이 정규화 된 RGB 좌표계를 처음 사용하였다. 정규화된 칼라 특징은 영상의 밝기 값을 배제한, 주로 색조(hue) 정보를 중심으로 하였으며, 영상의 촬영 환경에서의 조명의 영향을 배제해 주고, 특징의 차원(dimension)을 줄여서 처리를 간단하게 해 주는 장점이 있었다. 연구자들은 균등 칼라 좌표 계에 대한 관심과, 칼라 특징 치들의 조합을 통한 영 역분할 방법에 관심을 가지게 되었고, Liew[8]와 Wu [9] Sridharan[10] 등의 연구자들은 CIE 계열의 표준 칼라 좌표계들을 여러 개 조합하여 새로운 증가 된 차원의 특징을 계산하고, 학습시키는 방법에 관심을 보였다. Liew 등[8]은 CIELab와 CIELuv를 조합한 CIELabuv의 5차원 칼라 특징을 구성하여 퍼지 학습을 이용한 영역분할 방법을 제안하였다. 그들은 입술을 포함하는 입 주변영역을 입력으로 사용하였으며, 얼굴을 포함하는 전체영상으로부터 작동되는 방법을 제안하지는 않았다. c-평균(c-means) 방법 을 포함하는 퍼지 영역분할 알고리즘을 설계하여 입술영역을 분할하였다. 비슷한 시기에 Sridharan[10]등은 RGB 좌표계에서 출발하여 정규화 된 (r,g) 또 는 R/G 특징에 대한 평균 값과 분산 값 등을 사전에 학습하여 영역분할에 이용하였다. 최근 Rohani 등[11] 은 RGB 좌표계의 특징 값의 조합 또는 변형을 통하여 R/(R+G)와 같은 형태의 특징을 도입하였으며, 영역분할에 효율적임을 보였고, Kim[11]은 다양한 칼라 좌표계에 대해 분석한 바 있다.

  본 논문에서는 균등 칼라 좌표계로 변환된 CIELuv 좌표계에서의 데이터를 이용하여 영역분할에 효율적인 특징 치를 제안하였다. 주로 u-v 색도 평면에서 의 입술과 피부영역의 데이터 분포는 두 개의 긴 타 원형의 형태로 나타나며, 단순하게 두 개 영역 데이터 분포의 중심점에서 유클리드 거리를 계산하면 입술과 피부 영역 구분에 큰 오류가 발생함을 확인하였다. 그러므로 이와 같은 데이터 분포에 적합한 새로운 특징을 유추하고 계산하는 과정을 2장에 나타내었고, 3장에서는 제안한 특징 치를 이용하여 성능을 검증할 수 있는 방법을 제시하였다. 4장에서는 실험 결과와 토론을, 5장에서는 결론을 기술하였다. 제안한 방법은 Helen 데이터베이스의 1919장의 영상에 대하여 65%의 추출 성능을, 오차는 59%로 나타났다.

 

2. 입술영역 분할을 위한 칼라 특징치의 해석 방법

2.1 칼라 특징치의 분포 해석

  입술영역은 Fig. 1에 정의된 것처럼, (b)의 흰색 영역을 의미하고, 나머지 검은색 영역은 피부영역이 라 하며, 입술 주변과 치아를 포함한다. 다른 연구자는 치아와 혀 부분을 입술영역에 포함시키기도 하지만 본 논문에서는 상기 기준을 적용한다.

 

MTMDCW_2019_v22n1_27_f0001.png 이미지

Fig. 1. The definition of lips and skin region: (a) mouth image (b) ground truth image of lips.

 

  입술과 피부 영역의 색상 분포는 상당히 유사한 편이며, 경우에 따라서는 겹치는 영역이 발생하기도 한다. 물리적으로 두 영역은 멜라닌 농도의 차이만 존재하기 때문에 이와 같은 문제가 발생하는 것이며, 칼라 좌표계의 선택에 따라서 겹치거나 거리가 변화 하는 경향이 있다. 이상적으로는 겹치는 영역이 없는 것이 영역분할에 유리하지만, 실질적으로는 겹치는 경우가 많은 편이다. 많은 연구자들이 균등 칼라좌표계를 선호하였고, 두 가지 이상의 특징을 결합하여 두 영역이 겹치는 효과를 최대한 배제하고자 노력하였다. 그러나 두 영역에 대한 특징 값의 거리는 크게 증가하지 않는 경향을 보인다. 본 논문에서는 두 영역에 대한 특징 값의 거리를 상대적으로 증가시키기 위하여 색상 특징의 패턴을 분석하고, 영역 분할에 효과적인 특징 값의 형태를 구하고자 한다.

  입술과 피부의 두 영역에 대하여 CIEXYZ와 같은 불균일 좌표계가 아닌 균등한 CIELuv 좌표계의 데이터 분포를 관찰하였다. 기존의 색상 변환은 식(1) 의 RGB로부터 CIEXYZ 좌표계로 변환을 시작으로 하여 식(2)와 같이 CIELuv 좌표계로 2단계 변환을 주로 포함한다.

 

\(\left[\begin{array}{l} {X} \\ {Y} \\ {Z} \end{array}\right]=\left[\begin{array}{lll} {0.607} & {0.174} & {0.200} \\ {0.299} & {0.587} & {0.144} \\ {0.000} & {0.066} & {1.112} \end{array}\right]\left[\begin{array}{l} {R} \\ {G} \\ {B} \end{array}\right]\)        (1)

 

\(\begin{aligned} &L=116\left(\frac{Y}{Y_{W}}\right)^{\frac{1}{3}}-16\\ &u=13 L\left(u_{p}-u_{p n}\right)\\ &v=13 L\left(v_{p}-v_{p n}\right) \end{aligned}\)        (2)

 

  여기서, \(u_{p}=\frac{4 X}{X+15 Y+3 Z}, v_{p}=\frac{9 Y}{X+15 Y+3 Z}\)이고,\(u_{p n}=\frac{4 X_{W}}{X_{W}+15 Y_{W}+3 Z_{W}}, v_{p n}=\frac{9 Y_{W}}{X_{W}+15 Y_{W}+3 Z_{W}}\)이다.

 

  Fig. 1의 (a)와 같은 입주변의 영상은 치아나 혀와 같은 영역을 포함하기도 하지만 전체 면적 대비 적은 편이므로 크게 입술과 피부의 두 개 영역으로 나눌 수 있다. 그러므로 입 주변의 영역에 대한 RGB 값이 CIELuv 칼라 좌표계로 변환이 되면 전체적인 색상 분포의 형태를 얻을 수 있다. 얻어진 색상분포는 uv 평면에서 주로 이치분포(bi-modal) 또는 단일분포 (uni-modal)의 두 가지 유형으로 나타난다. 이치분포의 경우는 입술과 피부영역의 분할을 용이하게 하지만 단일분포 형태는 영역분할이 사실상 어렵다. 단일 분포는 두 영역의 칼라 특성이 유사하게 나타나서 사람이 해당 영상을 수동으로 분할하기가 어려운 경우도 많다. 데이터베이스로부터 여러 장의 입 주변 영상의 색상분포를 분석하여 입력영상은 두 가지 형태의 색상분포를 가지는 것으로 가정할 수 있다.

  전형적인 이치분포는 Fig. 2와 같이 나타난다. 가로축은 CIELuv의 U, 세로축은 V를 의미하며 데이터의 분포는 해당 UV 색상평면에서의 히스토그램 값이고, 가로축은 0~80, 세로축은 -15~25 정도의 범위를 나타낸다. 이 분포 예제는 영역분할이 잘 될 수 있는 형태이지만, 일반적인 경우는 두 개의 분포집합이 잘 분리되지 않거나, 최악의 경우는 하나의 분포 집합 형태로 합쳐지는 경우도 나타날 수 있다.

  이와 같은 분포 형태는 피셔의 기준(Fisher’s criterion)을 적용하면 효과적이고 간단하게 분리할 수 있다. 그러나 피셔의 기준을 적용하는 경우에도 주성분 분석(PCA) 모듈의 안정성이 저하되면 2차원 데이터로부터 1차원 데이터로의 투영의 안정성이 저하 되어 최종적으로 얻어진 1차원 데이터를 이용해서 영역 분할하기는 어려워진다. 이 문제점을 해결하기 위해서는 특징분포로부터의 안정적인 기준 정보의 추출이 필요하며, 본 논문에서는 Fig. 3의 직선 L을 기준정보로 제안한다. 직선 L에 대한 정보를 얻을 수 있다면 각각의 특징 값인 (up,vp) 포인트로부터 직선 L까지의 최단거리인 dm을 정의할 수 있고, dm은 특징분류에 효과적인 새로운 특징치가 된다. dm 값이 상대적으로 작은 경우는 피부영역을 의미하고, 값이 커질수록 입술영역에 속하게 된다. 이 과정에서 가장 중요한 부분은 입 주변 영상으로부터 구해진 색상 특징 분포 히스토그램으로부터 직선 L의 정보를 효과적으로 추출하는 것이다.

 

MTMDCW_2019_v22n1_27_f0002.png 이미지

Fig. 2. The typical distribution of colo features in UV space.

 

MTMDCW_2019_v22n1_27_f0003.png 이미지

Fig. 3 The reference information for the segmentation of lips in UV-histogram.

 

2.2 영역분할을 위한 새로운 특징치 계산 방법

  UV 평면으로부터 색상분포의 기준정보를 추출하기 위한 첫 번째 단계는 히스토그램을 작성하고 직선 L을 구성하기 위한 후보 점들을 확보하는 것이다. 본 논문에서는 후보 점들을 찾기 위하여 원래의 UV 평면 히스토그램 공간의 원점으로부터 V축의 증가 방향으로 1개 라인에 대한 탐색을 시작하고, 1개 라인의 끝에 도달하면 U축의 증가방향을 따라 다음의 라인으로 이동하여 탐색을 계속한다. 탐색과정에서 0이 아닌 포인트가 검출되면 첫 번째의 후보점이 얻어진 것이다. Fig. 4(a)에 나타난 것과 같이 좌측의 첫 번째 화살표 방향으로 탐색이 시작되며 첫 번째 후보점이 얻어지지 않으면 두 번째 화살표 방향으로 진행하는 방법이다. 두 번째 후보 점은 첫 번째 후보 점이 검출된 다음 열에서 시작하여 유사한 방법으로 구해질 수 있다. 이 과정이 완성되면 Fig. 4(b)와 같이 후보 점들의 집합을 얻을 수 있다.

 

MTMDCW_2019_v22n1_27_f0004.png 이미지

Fig. 4. The method to find reference information in histogram: (a) detection of reference points, (b) fitting of line using reference points.

 

  후보 점들이 구해지면 이 점들로 구성할 수 있는 대표적인 직선에 대한 정보를 계산할 수 있으며 a*U+b*V+c=0의 형태로 직선 정합(line fitting)을 통하여 계수인 a, b, c를 구할 수 있으며, 기준정보인 직선 L에 대한 정보를 얻게 된다. 얻어진 직선 L의 기준정보는 (a, b, c)로 표현할 수 있으며, UV 평면상의 특정한 포인트 (up,vp)로부터 직선 L까지의 최단 거리인 dm은 식(3)과 같이 구할 수 있다.

 

\(d_{m}=\frac{\left|a^{*} u_{p}+b^{*} v_{p}+c\right|}{\sqrt{a^{2}+b^{2}}}\)       (3)

 

3. 제안한 특징치 기반 거리를 이용한 입술영역 분할

3.1 성능 검증 방법의 설계

  기존의 방법들은 여러 가지 칼라 좌표계의 칼라 특징을 조합하고, 별도의 영역분할 방법을 적용하였다. Sridharan 등[10]은 정규화 된 (r, g), R/G 특징의 평균과 7×7 창 내부의 표준편차를 새로운 특징으로 하여 90% 내외의 분류성능을 보였다. Liew 등[8]은 CIELabuv의 5차원 칼라 특징을 이용하였고, 퍼지 c평균 영역분할 방법을 사용하였다. Rohani 등[11]은 R/(R+G)를 주된 특징으로 하고, 퍼지 c-평균 영역분할을 적용하였다. 본 논문에서는 제안한 칼라 특징의 성능평가를 위하여 기존의 방법들 중에서 다양한 영역분할 방법을 배제하고, 칼라 특징만을 이용하여 성능비교를 수행하고자 한다.

  성능비교를 위한 검증방법은 Fig. 5에 나타내었다. 검증과정의 첫 번째 단계는 입력영상 데이터베이스에 관한 것이다. Helen 데이터 셋[13]을 사용하였고, 데이터베이스는 입력된 영상의 입 주변에 해당하는 기준좌표와 입술영역을 구성하는 좌표 값들을 포함하고 있다. 데이터베이스로부터 입 주변의 영역에 해당하는 공간좌표 값을 이용하여 해당 영역을 추출하고(②), 비교하고자하는 여러 가지 유형의 칼라변환을 수행한다(③). 본 논문에서는 rg, xy, 색조(Hue), uv의 4개 종류 변환을 대상으로 하고, 변환된 칼라 특징에 대하여 주성분 분석을 통하여 처리하기 쉬운 1차원의 데이터로 변환한다(④). 색조 정보는 원래 1차원 데이터이지만 0~360도의 각도로 표시되므로 0 주변의 값은 1과 359로 처리하기 어려운 단점이 있다. 그러므로 색조의 값을 다시 정의하여 Hx =cos (Hue), Hy =sin(Hue)의 형태로 변형하여 사용하였다. 4가지의 칼라 특징은 각각 주성분 분석을 통하여 1차원 투영을 하고, uv 칼라 특징을 이용하여 제안한 새로운 특징치인을 dm을 계산한다(⑤). 계산된 2차원 칼라 특징으로부터 1차원의 특징치로 변환하기 위하여 기존의 4가지 칼라특징들에 대해서는 주성분 분석법을 적용하고, 제안한 방법을 이용하여 dm을 구하여 5가지 유형의 1차원 특징을 계산할 수 있다. 이와 같이 계산된 5가지 유형의 특징치들에 대하여 Otsu [14]의 영역분할 방법을 적용하여 입술과 피부영역을 분할한다(⑥). 이진화된 입술과 피부영역에 대하여 데이터베이스에서 제공하는 기준 입술영역 좌표 를 이용하여 오차를 계산한다(⑦). 오차의 형태는 Liew 등[8]이 사용한 OL(Overlaps)과 SE(Segmentation Error)를 이용하였다.

 

MTMDCW_2019_v22n1_27_f0005.png 이미지

Fig. 5. Test procedure for the proposed feature.

 

4. 실험 결과 및 고찰

4.1 실험영상

  입술 영역 추출 실험에 사용한 데이터베이스는 Helen 데이터 셋[13]을 이용하였다. 데이터베이스에서 제공하는 총 2300 여장의 영상은 다양한 크기와 장면의 조명을 가지고 있다. 이 영상들은 인터넷에서 수집된 것으로, 실내/실외, 다양한 촬영현장의 조명 환경, 다양한 인물 등의 특성을 가지고 있으며, 전혀 보정되지 않은 상태이다. 실험을 위해 선택한 영상들은 1919장으로 380장의 영상은 흑백영상이거나 사진이 아닌 그래픽 데이터이므로 배제하였다. 실험에 사용된 샘플영상들을 Fig. 6에 나타내었다.

 

MTMDCW_2019_v22n1_27_f0006.png 이미지

Fig. 6. Example of test images.

 

4.2 성능 평가의 기준과 토론

  입술영역 추출 결과는 TP(True Positive), TN (True Negative), FN(False Negative), FP(False Positive)의 4개 그룹으로 분류된다. TP는 입술영역 을 입술영역으로 분류한 경우이고, TN은 입술영역 을 피부영역으로, FN은 피부영역을 피부영역으로, FP는 피부영역을 입술영역으로 분류한 것을 의미한다. 데이터베이스에서 제공하는 기존 입술영역 좌표 를 이용하여 기준 입술영역을 확보할 수 있고, 이를 바탕으로 하여 추출된 화소별 결과를 4개의 그룹으 로 분류하여 추출성능을 검증할 수 있다. 4개의 그룹 결과로부터 성능평가 지표인 OL과 SE는 식(4),(5)와 같이 구할 수 있다.

 

\(O L=2 \times \frac{N_{T P}}{N_{T P}+N_{F P}+N_{T N}+N_{T P}} \times 100[\%]\)       (4)

\(S E=\frac{N_{F P}+N_{T N}}{2 \times\left(N_{T N}+N_{T P}\right)} \times 100[\%]\)        (5)

 

여기서, NTP는 TP에 해당하는 화소의 숫자이고, NTN은 TN, NFP은 FP, NFN은 FN에 각각 해당된다. 영역분할 실험결과의 예는 Fig. 7에 나타내었다. 빨간색 영역은 피부-입술 즉, 피부이지만 입술로 추출된 경우이고, 녹색은 입술-피부, 검은색은 피부-피 부, 노란색은 입술-입술의 형태를 의미한다.

 

MTMDCW_2019_v22n1_27_f0007.png 이미지

Fig. 7. Examples of detection result for #1 image(a)input image, (b) ground truth image, (c) result of rg, (b) result of xy. (e) result of uv. (f) result of Hue, and (g) result of proposed.

 

  전체적인 성능은 Table 1과 2에 나타내었다. Table 1은 실험대상 전체 1919장의 영상에 대하여 각각 구해진 OL과 SE 값의 평균값을 특징 종류별로 나타낸 것이다. 제안한 방법의 OL은 가장 높은 편이지만 SE가 가장 작게 나타나서 영역분할 성능이 우수함을 보인다. Table 2는 전체 실험 대상에 대하여 OL과 SE의 안정성을 나타내는 자료이다. 제안한 방법의 OL과 SE가 다른 특징치 방법들에 비하여 안정성이 있음을 알 수 있다.

 

Table 1. Average results of tested features

MTMDCW_2019_v22n1_27_t0001.png 이미지

 

Table 2. Standard deviation results of tested features

MTMDCW_2019_v22n1_27_t0002.png 이미지

 

  Fig. 8에는 실험결과에서 관찰되는 두 가지 유형을 표시하였다. Fig. 8의 (a)는 치아를 포함하는 입 주변 영상을, (c)는 치아와 혀를 포함하는 경우이다. (b)의 결과에서 치아는 피부영역으로 인식되었는데, 본 논문에서 추출하고자 하는 입술영역에 포함되지 는 않으므로 실제로는 피부영역이 아니지만 입술/피 부의 2 클래스 분류를 기준으로하기 때문에 입술영역보다는 피부영역으로 분류되는 것이 바람직하다. (d)의 결과에서 치아는 피부영역으로 분류되었고, 혀는 입술영역으로 분류되었다. 혀와 입술영역은 시각적으로 관찰하기에도 유사도가 높아서 구분이 쉽지 않으며, 실험에서도 피부영역보다는 입술영역에 가까운 것으로 판정하였다. 일부 연구에서는 입술영역의 외곽선만을 기준으로 내부는 입술, 외부는 피부로 평가하기도 하지만, 립 리딩 시스템에서는 입술의 모양과 발음의 연관관계를 중시하기 때문에 이와 같은 경우는 혀가 피부영역으로 분류되는 것이 바람직하다. 이와 같은 분류 오차는 추후 연구에서 보완되어야 할 점이다.

 

MTMDCW_2019_v22n1_27_f0008.png 이미지

Fig. 8. The result for teeth and tongue : (a) mouth image of #93 (b) result image for #93  (c) mouth image for #95 (d) result image for #95.

 

  기존의 방법들은 대부분 OL이 80~95%, SE는 5~15% 정도의 성능을 보이는 것이 일반적이다. 사용되는 데이터베이스는 동일한 배경에서 촬영되었고, 조명, 인물, 장면의 구성 등이 잘 조정되어 있는 경우가 많다. 본 논문에서 사용된 Helen 데이터 셋은 전혀 보정이 되지 않은 영상들로 구성되어 있다. 인터넷에서 수집된 영상들이므로 보정이나 수정이 이루어지지 않은 것이다. 제안한 특징의 성능을 확인하기 위하여 비교적 잘 보정된 미국 캘리포니아 대학 데이터베이스[15]를 이용하였다. 이 데이터베이스는 450장, 896 × 592 크기의 칼라영상으로 구성되어 있으며, 남자 17명, 여자 11명에 대하여 개인별로 조명, 실내/실외 등의 조건을 변경시켜 약 20장씩 정도를 촬영한 것이다. 실험에서 선택한 영상은 개인별로 정면에 해당하는 2장씩이며 총 54장을 사용하였다. 2명의 경우는 1장씩 밖에 제공하지 않아서 2장은 생략하였다. 그리고 미국 조지아 대학에서 제공하는 데이터베이스[16]의 50장의 영상을 추가하여 검토 실험에 서는 총 104장의 영상을 사용하였다. 추가적인 영상들은 Fig. 9에 나타내었다.

 

MTMDCW_2019_v22n1_27_f0009.png 이미지

Fig. 9. Examples of additional test images: upper row from Cal. Tech and lower row from Georgia Tech..

 

  상대적으로 잘 보정된 데이터베이스에 대한 검토실험의 대략적인 결과는 Table 3에 나타내었다.

 

Table 3. Average results of addtional tested features

MTMDCW_2019_v22n1_27_t0003.png 이미지

 

 제안한 방식의 성능은 OL 80.2로 가장 우수하게 나타났으며, 일반적인 입술영역 분할방법들의 평균치인 80~95%에 거의 근접하는 것으로 보인다. 본 논문에서 사용한 영역분할 방법은 Otsu의 문턱치를 이용한 것으로 최소화된 형태로 설계되어 있다. 다른 기존의 방식들은 퍼지 영역분할 방법 또는 입술영역 분할을 위하여 더욱 복잡한 과정을 거치는 것이 일반적이다. 그러므로 제안한 방식의 결과보다는 약간 우수한 성능을 보이지만, 최종 결과를 얻기 위한 계산량이나 알고리즘의 복잡도 등을 고려하면 제안한 방법이 우수함을 알 수 있다. 제안한 방법의 단순한 장점은 정적인 영상이 아니라 동영상에도 큰 수정 없이 그대로 적용할 수 있다는 점이다. 동영상을 연속된 정적인 영상의 집합으로 분해한 다음 각각의 영상에 제안한 방법을 적용할 수 있다. 추가적으로 앞 프레임에서의 추출결과를 사전정보로 사용한다면 다음 프레임에서의 추출성능의 향상도 기대할 수 있다. 동영상에 대한 적용방법은 추후 연구에서 다룰 수 있다.

 

5. 결 론

  본 논문에서는 입술과 피부의 영역분할 성능을 향상시키기 위하여 거리 형태의 특징치를 입력영상의 칼라분포로부터 추출하는 방법을 제안하였다. 제안한 특징 값의 추출은 기존의 주성분 분석법을 대체할 수 있으며, 단순한 Otsu 문턱치 알고리즘을 통한 영 역분할을 수행하여 처리 시간을 줄일 수 있는 장점이 있다. 입술영역 분할을 위한 특징 값은 1차원 형태이며, 기존방식의 특징 값들에 비하면 차원이 낮아서 영역분할 처리에 유리하다. 결과적으로 입술영역 추출성능은 보정되지 않은 데이터베이스의 1919장의 영상에 대해서는 65%의 추출 성능을, 오차는 59%로 나타났다. 상대적으로 잘 보정된 데이터베이스의 104 장의 영상에 대해서는 80% 정도의 추출성능과 30.95%의 오차를 보였다. 이 실험들을 통하여 제안한 특징 값들이 입술영역 분할에 유용함을 보였으며, 수정 없이 립 리딩 시스템의 특징 추출 부분에 적용될 수 있다. 추후 연구에서는 히스토그램으로부터 더욱 정교한 기준 데이터를 추출하는 방법의 연구가 필요하다.

References

  1. A.L. Yuille, P.W. Hallinan, and D.S. Cohen, “Feature Extraction from Faces Using Deformable Templates,” International Journal of Computer Vision, Vol. 8, No. 2, pp. 99-111, 1992. https://doi.org/10.1007/BF00127169
  2. T.F. Cootes, C.J. Taylor, D.H. Cooper, and J. Grahan, “Active Shape Models-their Training and Application,” Computer Vision and Image Understanding, Vol. 61, No. 2, pp. 38-59, 1995. https://doi.org/10.1006/cviu.1995.1004
  3. C. Bregler and Y. Konig, "Eigenlips for Robust Speech Recognition," Proceeding of IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 669-672, 1994.
  4. G.I. Chiou and J.N. Hwang, “Lip Reading from Color Video,” IEEE Transactions on Image Processing, Vol. 6, No. 8, pp. 1192-1195, 1997. https://doi.org/10.1109/83.605417
  5. M. Vogt, "Fast Matching of a Dynamic Lip Model to Color Video Sequences under Regular Illumination Conditions," North Atlantic Treaty Organization Advanced Study Institute Series F, Vol. 150, pp. 399-407, 1996.
  6. M.U.R. Sanchez, J. Matas, and J. Kittler, "Statistical Chromaticity-based Lip Tracking with B-Splines," Proceeding of the IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 2973-2976, 1997.
  7. M. Wimmer and B. Radig, "Adaptive Skin Color Classificator," Proceeding of the First International Congress for Global Science and Technology International Conference on Graphics, Vision and Image Processing GVIP-05, Vol. 1, pp. 324-327, 2005.
  8. A.W. Liew, S.H. Leung, and W.H. Lau, “Segmentation of Color Lip Images by Spatial Fuzzy Clustering,” IEEE Transactions on Fuzzy Systems, Vol. 11, No. 4, pp. 542-549, 2003. https://doi.org/10.1109/TFUZZ.2003.814843
  9. Y. Wu, R. Ma, W. Hu, T. Wang, Y. Zhang, J. Cheng, et al., "Robust Lip Localization on Multi-View Faces In Video," Proceeding of IEEE International Conference on Image Processing, pp. 481-484, 2007.
  10. S. Sridharan, S. Lucey, and V. Chandran, “Adaptive Mouth Segmentation Using Chromatic Features,” Pattern Recognition Letters, Vol. 23, No. 11, pp. 1293-1302, 2002. https://doi.org/10.1016/S0167-8655(02)00078-8
  11. R. Rohani, F. Sobhanmanesh, S. Alizadeh, and R. Boostani, “Lip Processing and Modeling Based on Spatial Fuzzy Clustering in Color Images,” International Journal of Fuzzy Systems, Vol. 13, No. 2, pp. 65-73, 2011.
  12. J. Kim, "Extraction of Lip Region Using Chromaticity Transformation and Fuzzy Clustering," Journal of Korea Multimedia Society, Vol. 17, No. 7, pp. 806-817, 2014. https://doi.org/10.9717/kmms.2014.17.7.806
  13. V. Le, J. Brandt, Z. Lin, L. Bourdev, and T.S. Huang, "Interactive Facial Feature Localizastion," Proceeding of European Conference on Computer Vision, pp. 679-692, 2012.
  14. N. Otsu, “A Threshold Selection Method from Grey Level Histograms,” IEEE Transactions on Systems, Man and Cybernetics, Vol. 9, No. 1, pp. 62-66, 1979. https://doi.org/10.1109/TSMC.1979.4310076
  15. California Institute of Technology Face Database, http://www.vision.caltech.edu/Image_Datasets/faces/faces.tar (accessed July, 25, 2018).
  16. Georgia Tech Face Database, http://www.anefian.com/research/face_reco.htm (accessed July, 25, 2018).