• 제목/요약/키워드: facial feature point

검색결과 60건 처리시간 0.019초

인터랙티브 미디어 플랫폼 콕스에 제공될 4가지 얼굴 변형 기술의 비교분석 (Comparison Analysis of Four Face Swapping Models for Interactive Media Platform COX)

  • 전호범;고현관;이선경;송복득;김채규;권기룡
    • 한국멀티미디어학회논문지
    • /
    • 제22권5호
    • /
    • pp.535-546
    • /
    • 2019
  • Recently, there have been a lot of researches on the whole face replacement system, but it is not easy to obtain stable results due to various attitudes, angles and facial diversity. To produce a natural synthesis result when replacing the face shown in the video image, technologies such as face area detection, feature extraction, face alignment, face area segmentation, 3D attitude adjustment and facial transposition should all operate at a precise level. And each technology must be able to be interdependently combined. The results of our analysis show that the difficulty of implementing the technology and contribution to the system in facial replacement technology has increased in facial feature point extraction and facial alignment technology. On the other hand, the difficulty of the facial transposition technique and the three-dimensional posture adjustment technique were low, but showed the need for development. In this paper, we propose four facial replacement models such as 2-D Faceswap, OpenPose, Deekfake, and Cycle GAN, which are suitable for the Cox platform. These models have the following features; i.e. these models include a suitable model for front face pose image conversion, face pose image with active body movement, and face movement with right and left side by 15 degrees, Generative Adversarial Network.

색상 움직임을 이용한 얼굴 특징점 자동 추출 (Automatic Extraction of the Facial Feature Points Using Moving Color)

  • 김남호;김형곤;고성제
    • 전자공학회논문지S
    • /
    • 제35S권8호
    • /
    • pp.55-67
    • /
    • 1998
  • 본 논문에서는 컬러 비디오 시퀀스 상에서 눈과 입에 해당하는 얼굴 특징점을 고속으로 추출하는 방법을 제안한다. 자유로운 움직임을 갖는 얼굴 영역을 안정적으로 추출하기 위해 얼굴 색상 분포를 이용한 색상 변환 영상에 움직임 검출 기법을 적용하여 움직이는 살색 부분만을 효율적으로 검출하는 색상 움직임 개념을 사용하였다. 움직임 정보는 살색의 가능성 정도에 따라 가중치가 주어지며 화소 단위의 움직임 여부를 결정하는 문턱값도 살색의 가능성 정도에 따라 적응적으로 결정된다. 눈의 색상분포와 형태소 연산자를 사용한 움직임 살색 영역에서 눈 후보 영역을 추출하고 눈과 눈썹의 상호 위치 관계를 이용하여 눈의 영역을 최종 결정한다. 입의 영역은 눈의 위치를 기준으로 입 후보 영역을 정하고 색상 히스토그램을 이용하여 입의 영역을 검출한다. 찾아진 눈과 입의 영역에서 정확한 특징점의 위치를 구하기 위해 PCA (Principal Component Analysis)를 사용하였다. 실험 결과 복잡한 배경, 개인적인 편차, 얼굴의 방향과 크기 등에 영향을 받지 않고 고속으로 정확한 얼굴의 특징점을 추출할 수 있었다.

  • PDF

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.401-404
    • /
    • 2007
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링을 기반으로한 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 6가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고, 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.

  • PDF

Anthropometric Facial Characteristics of Adult Tae-eumin of Northern and Southern Lineage in the Korean Peninsula

  • Kim, Eun-Hee;Cho, Yong-Jin;Jung, Yee-Hong;Seo, Young-Kwang;Kim, Sun-Hyung;Lee, Soo-Kyung;Koh, Byung-Hee;Kim, Dal-Rae
    • 대한한의학회지
    • /
    • 제30권6호
    • /
    • pp.86-95
    • /
    • 2009
  • Objectives: This study aimed to examine the difference of external appearance measurements in subjects of different regional lineages as subgroups within the Tae-eumin Sasang grouping. Methods: We chose 51 Tae-eumin subjects diagnosed by Korean Sasang constitutional medical doctors aided by voice analysis. The subjects were divided into two groups, the northern and southern lineages, by an expert on facial characteristics of the two lineages. We took pictures of their frontal and lateral views by Martin's method, measured projected length of face with the Facial Feature Measurement Program, and analyzed anthropometric facial differences between the northern and southern types. Results: Results show differences between the northern and southern types. First, the northern type of face has bigger measurements than the southern type on the frontal face. Second, the northern type of face has higher measurements of "height", which means distance from pupil to a specific measurement point, than the southern type on the frontal face. Third, on the frontal face, the northern and southern types have differences with respect to eyebrow, point of sellion, and eye. Fourth, on the side face, the northern and southern types have differences in lip, mandible and ear. Conclusions: We found our anthropometric facial measurements of the northern and southern lineages to be in accordance with previous literature. Knowledge of the differences between the northern and southern lineages can be a hint in constitutional diagnosis when differentiation is clinically confusing.

  • PDF

얼굴 특징점을 활용한 영상 편집점 탐지 (Detection of video editing points using facial keypoints)

  • 나요셉;김진호;박종혁
    • 지능정보연구
    • /
    • 제29권4호
    • /
    • pp.15-30
    • /
    • 2023
  • 최근 미디어 분야에도 인공지능(AI)을 적용한 다양한 서비스가 등장하고 있는 추세이다. 하지만 편집점을 찾아 영상을 이어 붙이는 영상 편집은, 대부분 수동적 방식으로 진행되어 시간과 인적 자원의 소요가 많이 발생하고 있다. 이에 본 연구에서는 Video Swin Transformer를 활용하여, 발화 여부에 따른 영상의 편집점을 탐지할 수 있는 방법론을 제안한다. 이를 위해, 제안 구조는 먼저 Face Alignment를 통해 얼굴 특징점을 검출한다. 이와 같은 과정을 통해 입력 영상 데이터로부터 발화 여부에 따른 얼굴의 시 공간적인 변화를 모델에 반영한다. 그리고, 본 연구에서 제안하는 Video Swin Transformer 기반 모델을 통해 영상 속 사람의 행동을 분류한다. 구체적으로 비디오 데이터로부터 Video Swin Transformer를 통해 생성되는 Feature Map과 Face Alignment를 통해 검출된 얼굴 특징점을 합친 후 Convolution을 거쳐 발화 여부를 탐지하게 된다. 실험 결과, 본 논문에서 제안한 얼굴 특징점을 활용한 영상 편집점 탐지 모델을 사용했을 경우 분류 성능을 89.17% 기록하여, 얼굴 특징점을 사용하지 않았을 때의 성능 87.46% 대비 성능을 향상시키는 것을 확인할 수 있었다.

규칙 기반 캐리커쳐 자동 생성 기법 (Automatic Generation of Rule-based Caricature Image)

  • 이은정;권지용;이인권
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제12권4호
    • /
    • pp.17-22
    • /
    • 2006
  • 본 논문은 주어진 얼굴 사진에 대하여 자동으로 얼굴의 특징을 강조한 캐리커쳐 생성 기법을 제안한다. AAM(Active Appearance Model)을 사용하여 트레이닝 이미지의 특징점과 텍스쳐 정보를 유지하고 이것을 이용하여 평균 얼굴의 정보와 함께 주어진 얼굴에 대한 특징점을 찾아낸다. 캐리커쳐 아티스트들의 제안을 바탕으로 특징적인 부분을 과장하기 위한 룰을 정의하고 이를 입력 얼굴의 특징점에 적용하여 과장된 특징점을 얻는다. 마지막으로 주어진 사진에 대하여 좀 더 만화적인 효과를 내기 위해 얼굴 이미지에 카투닝을 적용한 다음 과장된 특징점으로 와핑한다. 이러한 방법으로 사용자의 조작을 최소로 하는 캐리커처 생성을 할 수 있다.

  • PDF

몽타주 기법과 음영합성 기법을 이용한 벡터기반 얼굴 생성 (Vector-based Face Generation using Montage and Shading Method)

  • 박연출;오해석
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권6호
    • /
    • pp.817-828
    • /
    • 2004
  • 본 논문에서는 몽타주 기법과 음영합성 기법을 이용한, 디자이너(예술가)의 감각을 살린 벡터 기반의 얼굴 생성 시스템을 제안한다. 제안하는 시스템은 사진으로부터 얼굴의 특징정보를 추출하여 사람의 얼굴과 유사한 얼굴을 자동으로 생성해 주는 시스템이며, 윤곽선만을 사용하던 기존의 얼굴 생성 시스템과 달리 컬러 기반이며, 음영을 사진으로부터 추출하여 이를 이목구비 이미지와 합성하여 생성하는 방식이다. 따라서 실사형에 좀 더 근접한 얼굴을 생성할 수 있다는 장점을 갖는다. 또, 벡터를 기반으로 하기 때문에 사이즈에 제한 얼이 자유로운 변형이 가능할 뿐만 아니라 디자이너 또는 그림 작가의 느낌을 결과물에 그대로 유지할 수 있도록 한다는 점에서 타 접근방식과의 차별성을 갖는다. 또, 2D 아바타에 자유로운 표정을 적용하는 데에도 쉽게 적용이 가능하다.

컬러 정보를 이용한 실시간 표정 데이터 추적 시스템 (Realtime Facial Expression Data Tracking System using Color Information)

  • 이윤정;김영봉
    • 한국콘텐츠학회논문지
    • /
    • 제9권7호
    • /
    • pp.159-170
    • /
    • 2009
  • 온라인 기반의 3차원 얼굴 애니메이션을 위해서 실시간으로 얼굴을 캡처하고 표정 데이터를 추출하는 것은 매우 중요한 작업이다. 최근 동영상 입력을 통해 연기자의 표정을 캡처하고 그것을 그대로 3차원 얼굴 모델에 표현하는 비전 기반(vision-based) 방법들에 대한 연구가 활발히 이루어지고 있다. 본 논문 에서는 실시간으로 입력되는 동영상으로부터 얼굴과 얼굴 특징점들을 자동으로 검출하고 이를 추적하는 시스템을 제안한다. 제안 시스템은 얼굴 검출과 얼굴 특징점 추출 및 추적과정으로 구성된다. 얼굴 검출은 3차원 YCbCr 피부 색상 모델을 이용하여 피부 영역을 분리하고 Harr 기반 검출기를 이용해 얼굴 여부를 판단한다. 얼굴 표정에 영향을 주는 눈과 입 영역의 검출은 밝기 정보와 특정 영역의 고유한 색상 정보를 이용한다. 검출된 눈과 입 영역에서 MPEG-4에서 정의한 FAP를 기준으로 10개의 특징점을 추출하고, 컬러 확률 분포의 추적을 통해 연속 프레임에서 특징점들의 변위를 구한다 실험 결과 제안 시스템 은 약 초당 8 프레임으로 표정 데이터를 추적하였다.

Three-dimensional Face Recognition based on Feature Points Compression and Expansion

  • Yoon, Andy Kyung-yong;Park, Ki-cheul;Park, Sang-min;Oh, Duck-kyo;Cho, Hye-young;Jang, Jung-hyuk;Son, Byounghee
    • Journal of Multimedia Information System
    • /
    • 제6권2호
    • /
    • pp.91-98
    • /
    • 2019
  • Many researchers have attempted to recognize three-dimensional faces using feature points extracted from two-dimensional facial photographs. However, due to the limit of flat photographs, it is very difficult to recognize faces rotated more than 15 degrees from original feature points extracted from the photographs. As such, it is difficult to create an algorithm to recognize faces in multiple angles. In this paper, it is proposed a new algorithm to recognize three-dimensional face recognition based on feature points extracted from a flat photograph. This method divides into six feature point vector zones on the face. Then, the vector value is compressed and expanded according to the rotation angle of the face to recognize the feature points of the face in a three-dimensional form. For this purpose, the average of the compressibility and the expansion rate of the face data of 100 persons by angle and face zone were obtained, and the face angle was estimated by calculating the distance between the middle of the forehead and the tail of the eye. As a result, very improved recognition performance was obtained at 30 degrees of rotated face angle.

얼굴 특징점 추적 및 움직임 측정도구 (A Study of Face Feature Tracking and Moving Measure Devices)

  • 이정희;이영희;차의영
    • 대한임베디드공학회논문지
    • /
    • 제6권5호
    • /
    • pp.295-302
    • /
    • 2011
  • This paper proposes facial feature tracking based on modified ART2 neural networks. And we also suggest new measurement devices such as 'Persistence Exponent' and 'Moving Space Exponent' for the criterion of input vector which consists features. The proposed methods have been applied to classify 48 students by 2-class (ADHD positive, ADHD negative). The results of the experiment have shown that the proposed methods are effective for ADHD Behavior Pattern Classification based on the Image Processing.