• 제목/요약/키워드: Facial feature

검색결과 513건 처리시간 0.023초

웹 응용을 위한 MPEC-4 얼굴 애니메이션 파라미터 추출 및 구현 (Extraction and Implementation of MPEG-4 Facial Animation Parameter for Web Application)

  • 박경숙;허영남;김응곤
    • 한국정보통신학회논문지
    • /
    • 제6권8호
    • /
    • pp.1310-1318
    • /
    • 2002
  • 본 연구에서는 기존의 방법에 비하여 값비싼 3차원 스캐너나 카메라를 이용하지 않고 정면과 측면 영상을 이용하여 3차원 모델을 생성하는 3차원 얼굴 모델러와 애니메이터를 개발하였다. 이 시스템은 특정한 플랫폼과 소프트웨어에 독립적으로 웹상에서 애니메이션 서버에 접속함으로써 3차원 얼굴 모델을 애니메이션 할 수 있으며 자바 3D API를 이용하여 구현하였다. 얼굴모델러는 입력 영상으로부터 MPEG-4 FDP(Facial Definition Parameter) 특징점을 추출하여 일반 얼굴모델을 특징점에 따라 변형시켜 3차원 얼굴 모델을 생성한다 애니메이터는 FAP(Facial Animation Parameter)에 따라 얼굴모델을 애니메이션하고 렌더링한다. 본 시스템은 웹 상에서 아바타를 제작하는 데 사용될 수 있다.

근육 모델 기반 3D 얼굴 표정 생성 시스템 설계 및 구현 (A Design and Implementation of 3D Facial Expressions Production System based on Muscle Model)

  • 이혜정;정석태
    • 한국정보통신학회논문지
    • /
    • 제16권5호
    • /
    • pp.932-938
    • /
    • 2012
  • 얼굴 표정은 상호간 의사소통에 있어 중요한 의미를 갖는 것으로, 인간이 사용하는 다양한 언어보다도 수많은 인간 내면의 감정을 표현할 수 있는 유일한 수단이다. 본 논문에서는 쉽고 자연스러운 얼굴 표정 생성을 위한 근육 모델 기반 3D 얼굴 표정 생성 시스템을 제안한다. 3D 얼굴 모델의 표정 생성을 위하여 Waters의 근육 모델을 기반으로 자연스러운 얼굴 표정 생성에 필요한 근육을 추가하여 사용하고, 표정 생성의 핵심적 요소인 눈썹, 눈, 코, 입, 볼 등의 특징요소들을 중심으로 얼굴 근육과 근육벡터를 이용하여 해부학적으로 서로 연결된 얼굴 근육 움직임의 그룹화를 통해 얼굴 표정 변화의 기본 단위인 AU를 단순화하고 재구성함으로써 쉽고 자연스러운 얼굴 표정을 생성할 수 있도록 하였다.

Automatic Face Identification System Using Adaptive Face Region Detection and Facial Feature Vector Classification

  • Kim, Jung-Hoon;Do, Kyeong-Hoon;Lee, Eung-Joo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -2
    • /
    • pp.1252-1255
    • /
    • 2002
  • In this paper, face recognition algorithm, by using skin color information of HSI color coordinate collected from face images, elliptical mask, fratures of face including eyes, nose and mouth, and geometrical feature vectors of face and facial angles, is proposed. The proposed algorithm improved face region extraction efficacy by using HSI information relatively similar to human's visual system along with color tone information about skin colors of face, elliptical mask and intensity information. Moreover, it improved face recognition efficacy with using feature information of eyes, nose and mouth, and Θ1(ACRED), Θ2(AMRED) and Θ 3(ANRED), which are geometrical face angles of face. In the proposed algorithm, it enables exact face reading by using color tone information, elliptical mask, brightness information and structural characteristic angle together, not like using only brightness information in existing algorithm. Moreover, it uses structural related value of characteristics and certain vectors together for the recognition method.

  • PDF

Facial Feature Based Image-to-Image Translation Method

  • Kang, Shinjin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권12호
    • /
    • pp.4835-4848
    • /
    • 2020
  • The recent expansion of the digital content market is increasing the technical demand for various facial image transformations within the virtual environment. The recent image translation technology enables changes between various domains. However, current image-to-image translation techniques do not provide stable performance through unsupervised learning, especially for shape learning in the face transition field. This is because the face is a highly sensitive feature, and the quality of the resulting image is significantly affected, especially if the transitions in the eyes, nose, and mouth are not effectively performed. We herein propose a new unsupervised method that can transform an in-wild face image into another face style through radical transformation. Specifically, the proposed method applies two face-specific feature loss functions for a generative adversarial network. The proposed technique shows that stable domain conversion to other domains is possible while maintaining the image characteristics in the eyes, nose, and mouth.

코 형상 마스크를 이용한 3차원 얼굴 영상의 특징 추출 (Facial Feature Extraction using Nasal Masks from 3D Face Image)

  • 김익동;심재창
    • 대한전자공학회논문지SP
    • /
    • 제41권4호
    • /
    • pp.1-7
    • /
    • 2004
  • 본 논문은 3차원 얼굴 영상을 이용한 얼굴 인식에 있어서, 정규화 과정에 사용될 얼굴의 특징 영역을 추출하는 방법을 제안한다. 3차원 얼굴 영상은 조명의 변화에 상관없이 얼굴의 특징 분석이 가능하고, 이를 이용한 얼굴 인식이 가능하다. 그러나 입력된 형상의 자세에 따라 회전, 기울어진 정도, 그리고 좌우로 움직인 정도가 다르다. 이런 특성을 고려하지 않고 추출된 특징들은 잘못된 인식 결과를 초래할 수 있다. 이런 이유로 입력에서의 오류들을 바로잡는 정규화 과정이 필요하다. 정규화 과정에서는 얼굴의 기하학적인 특징인 눈, 코, 입 등을 이용하는 것이 일반적이다. 이들 중, 코는 3차원 얼굴 영상에서 두드러진 특징이 될 수 있다. 본 연구에서는 코의 실제 형상과 유사한 긴 추출 마스크를 사용하여 입력된 영상으로부터 코를 추출하는 방법을 제안한다.

Gabor 특징과 FSVM 기반의 연령별 얼굴 분류 (Age of Face Classification based on Gabor Feature and Fuzzy Support Vector Machines)

  • 이현직;김윤호;이주신
    • 한국항행학회논문지
    • /
    • 제16권1호
    • /
    • pp.151-157
    • /
    • 2012
  • 최근 영상처리기술과 컴퓨터과학의 발달로 연령변화에 따른 얼굴형상 분류 방법은 일반적인 주제가 되었다. 사람의 연령별 얼굴분류는 생물학적 유전자와 오랜 생활의 식습관으로 인하여 얼굴 형상이 변하기 때문에 통계적 형상만으로 예측하기란 쉽지 않다. 본 논문에서는 Gobor 특징과 fuzzy SVM 기법을 이용하여 연령대별 얼굴분류 기법을 제안하였다. Gabor 웨이블릿 함수는 얼굴의 특징벡터를 구하기 위하여 사용되고 연령대별 얼굴형상 구분이 애매모호한 문제를 해결하기 위해 fuzzy SVM 기법을 이용하여 연령별 소속 함수를 정의하였다. 제안한 방법으로 연령별 소속함수에 따른 얼굴 분류 실험을 수행하였고 제안한 방법의 타당성을 확인하였다.

Gold Nanoshell-Mediated Photothermal Therapy for Facial Pores

  • Lee, Sang Ju;Jung, Jeanne;Seok, Seung Hui;Kim, Dong Hyun
    • Medical Lasers
    • /
    • 제8권2호
    • /
    • pp.97-100
    • /
    • 2019
  • Facial pores are a visible topographic feature of skin surfaces and are generally the enlarged openings of pilosebaceous follicles. Enlarged facial pores can be a significant cosmetic problem, particularly for women. Recently, gold nanoshell-mediated photothermal therapy (PTT) has been reported to be effective in treating recurrent acne. The treatment of enlarged facial pores with gold nanoshell-mediated PTT produced excellent results with no side effects. The two cases reported here demonstrate the possibility of gold nanoshell-mediated PTT as a safe and effective treatment for enlarged facial pores.

다중 얼굴 특징 추적을 이용한 복지형 인터페이스 (Welfare Interface using Multiple Facial Features Tracking)

  • 주진선;신윤희;김은이
    • 대한전자공학회논문지SP
    • /
    • 제45권1호
    • /
    • pp.75-83
    • /
    • 2008
  • 본 논문에서는 얼굴의 다중 특징을 이용하여 마우스의 다양한 동작을 효율적으로 구현할 수 있는 복지형 인터페이스를 제안한다. 제안된 시스템은 5개의 모듈로 구성 된다 : 얼굴의 검출(Face detection), 눈의 검출(eye detection), 입의 검출(mouth detection), 얼굴특징 추적(lariat feature tracking), 마우스의 제어(mouse control). 첫 단계에서는 피부색 모델과 연결 성분 분석을 이용하여 얼굴 영역을 검출한다. 그 후 얼굴영역으로부터 정확히 눈을 검출하기 위하여 신경망 기반의 텍스처 분류기를 사용하여 얼굴 영역에서 눈 영역과 비 눈 영역을 구분한다. 일단 눈 영역이 검출되면 눈의 위치에 기반 하여 에지 검출기(edge detector)를 이용하여 입 영역을 찾는다. 눈 영역과 입 영역을 찾으면 각각 mean shift 알고리즘과 template matching을 사용하여 정확하게 추적되고, 그 결과에 기반 하여 마우스의 움직임 또는 클릭의 기능이 수행된다. 제안된 시스템의 효율성을 검증하기 위하여 제안된 인터페이스 시스템을 다양한 응용분야에 적용 하였다. 장애인과 비장애인으로 나누어 제안된 시스템을 실험한 결과 모두에게 실시간으로 보다 편리하고 친숙한 인터페이스로 활용 될 수 있다는 것이 증명 되었다.

설명가능한 인공지능을 활용한 안면 특징 분석 기반 사상체질 검출 (Sasang Constitution Detection Based on Facial Feature Analysis Using Explainable Artificial Intelligence)

  • 김정균;안일구;이시우
    • 사상체질의학회지
    • /
    • 제36권2호
    • /
    • pp.39-48
    • /
    • 2024
  • Objectives The aim was to develop a method for detecting Sasang constitution based on the ratio of facial landmarks and provide an objective and reliable tool for Sasang constitution classification. Methods Facial images, KS-15 scores, and certainty scores were collected from subjects identified by Korean Medicine Data Center. Facial ratio landmarks were detected, yielding 2279 facial ratio features. Tree-based models were trained to classify Sasang constitution, and Shapley Additive Explanations (SHAP) analysis was employed to identify important facial features. Additionally, Body Mass Index (BMI) and personality questionnaire were incorporated as supplementary information to enhance model performance. Results Using the Tree-based models, the accuracy for classifying Taeeum, Soeum, and Soyang constitutions was 81.90%, 90.49%, and 81.90% respectively. SHAP analysis revealed important facial features, while the inclusion of BMI and personality questionnaire improved model performance. This demonstrates that facial ratio-based Sasang constitution analysis yields effective and accurate classification results. Conclusions Facial ratio-based Sasang constitution analysis provides rapid and objective results compared to traditional methods. This approach holds promise for enhancing personalized medicine in Korean traditional medicine.

gradCam을 사용한 얼굴인식 신경망 (Face Recognition Network using gradCAM)

  • 백찬형;권지훈;정호엽
    • 스마트미디어저널
    • /
    • 제12권2호
    • /
    • pp.9-14
    • /
    • 2023
  • 이 논문에서는 gradCAM를 활용한 적은 데이터로 얼굴 전체 또는 더 다양한 feature을 사용하여 얼굴인식을 할 수 있는 새로운 앙상블 방법론을 제안하였다. 인공지능 모델의 판단 근거는 gradCAM을 통하여 saliency map으로 표현될 수 있다. 따라서 본 논문에서는 학습된 얼굴인식 모델이 어느 부분에 편향적으로 관찰하여 판단했는지 gradCAM으로 시각화한다. 계산된 saliency map에서 일정 수치 이상의 돌출된 부분을 추가 모델이 학습에 사용할 수 없도록 노이즈를 추가해 데이터를 생산한다. 노이즈를 추가해서 만든 데이터로 학습할 경우 노이즈 부분을 활용하여 학습을 할 수 없으므로 새로운 얼굴 부분을 사용하여 얼굴인식 네트워크를 학습하게 된다. 기본 데이터로 학습한 네트워크와 돌출 부분에 노이즈를 추가해서 학습한 모델은 얼굴의 서로 다른 얼굴 feature을 사용할 수밖에 없고, 앙상블로 결합했을 때 얼굴의 좀 더 다양한 부분들을 사용한 임베딩 feature를 만들 수 있다. 이 논문에서 제안하는 앙상블 기법은 일반적인 앙상블 모델보다 정확도는 1.79% 상승하였고 equal error rate (EER)은 0.01788 감소하였다.