• Title/Summary/Keyword: 얼굴 이미지

Search Result 474, Processing Time 0.035 seconds

Using Image Augmentation on Face Shape Classification (얼굴 모양 분류에 대한 Image Augmentation 적용)

  • Park, Jung-Won;Mo, Hyun-Su
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.07a
    • /
    • pp.29-30
    • /
    • 2021
  • 본 논문에서는 이미지 분류에 쓰이는 최신 모델로 CNN과 ImageNet을 기반으로 한 EfficientNet을 활용해서 Square, Oval, Oblong, Round, Heart 총 다섯 가지의 얼굴 모양으로 분류하는 task에 두 가지 데이터로 실험해보고 추가적으로 Image Augmentation 기법을 활용해 성능향상을 보였다.

  • PDF

Feature-Based Deformation of 3D Facial Model Using Radial Basis Function (Radial Basis Function 을 이용한 특징점 기반 3 차원 얼굴 모델의 변형)

  • Kwon Oh-Ryun;Min Kyong-Pil;Chun Jun-Chul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.715-718
    • /
    • 2006
  • 아바타를 이용한 얼굴 애니메이션은 가상 현실이나 엔터테인먼트와 같은 분야에서 많이 적용된다. 얼굴 애니메이션을 생성하는 방법에는 크게 3 차원 모델을 직접 변형시키는 기하학적인 변형 방법과 2 차원 이미지의 워핑이나 모핑방법을 이용한 이미지 변형 방법이 있다. 기하학적인 변형 방법 중 3 차원 모델을 변형시키기 위한 방법으로 RBF(Radial Basis Function)을 이용하는 방법이 있다. RBF 함수를 이용하여 모델의 부드러운 변형을 만들 수 있다. 이 방법은 모델의 임의의 한 점을 이동하게 되면 영향을 받는 정점들을 좀 더 자연스럽게 이동시킴으로써 자연스러운 애니메이션을 생성할 수 있다. 본 연구에서는 RBF 를 이용하여 3 차원 얼굴 메쉬 모델의 기하학적 변형을 통해 모델의 얼굴 표정을 생성하는 방법에 대해 제안하고자 한다. 얼굴 모델 변형을 위해 얼굴의 특징인 눈, 입, 턱 부분에 특징점을 정하고 각 특징점에 따라 영향을 받는 영역을 정하기 위해 얼굴 모델을 지역적으로 클러스터링한다. 각 특징점에 따라 영향을 받는 영역에 대해 클러스터링을 적용하고 RBF 를 이용하여 자연스러운 얼굴 표정을 생성하는 방법을 제안한다.

  • PDF

Face Feature Selection and Face Recognition using GroupMutual-Boost (GroupMutual-Boost를 이용한 얼굴특징 선택 및 얼굴 인식)

  • Choi, Hak-Jin;Lee, Jong-Sik
    • Journal of the Korea Society for Simulation
    • /
    • v.20 no.4
    • /
    • pp.13-20
    • /
    • 2011
  • The face recognition has been used in a variety fields, such as identification and security. The procedure of the face recognition is as follows; extracting face features of face images, learning the extracted face features, and selecting some features among all extracted face features. The selected features have discrimination and are used for face recognition. However, there are numerous face features extracted from face images. If a face recognition system uses all extracted features, a high computing time is required for learning face features and the efficiency of computing resources decreases. To solve this problem, many researchers have proposed various Boosting methods, which improve the performance of learning algorithms. Mutual-Boost is the typical Boosting method and efficiently selects face features by using mutual information between two features. In this paper, we propose a GroupMutual-Boost method for improving Mutual-Boost. Our proposed method can shorten the time required for learning and recognizing face features and use computing resources more effectively since the method does not learn individual features but a feature group.

A Three-Dimensional Facial Modeling and Prediction System (3차원 얼굴 모델링과 예측 시스템)

  • Gu, Bon-Gwan;Jeong, Cheol-Hui;Cho, Sun-Young;Lee, Myeong-Won
    • Journal of the Korea Computer Graphics Society
    • /
    • v.17 no.1
    • /
    • pp.9-16
    • /
    • 2011
  • In this paper, we describe the development of a system for generating a 3-dimensional human face and predicting it's appearance as it ages over subsequent years using 3D scanned facial data and photo images. It is composed of 3-dimensional texture mapping functions, a facial definition parameter input tool, and 3-dimensional facial prediction algorithms. With the texture mapping functions, we can generate a new model of a given face at a specified age using a scanned facial model and photo images. The texture mapping is done using three photo images - a front and two side images of a face. The facial definition parameter input tool is a user interface necessary for texture mapping and used for matching facial feature points between photo images and a 3D scanned facial model in order to obtain material values in high resolution. We have calculated material values for future facial models and predicted future facial models in high resolution with a statistical analysis using 100 scanned facial models.

An ROI Coding Technique of JPEG2000 Image Including Some Arbitrary ROI (임의의 ROI를 포함하는 JPEG2000 이미지의 ROI 코딩 기법)

  • Hong, Seok-Won;Kim, Sang-Bok;Seo, Yeong-Geon
    • Journal of the Korea Society of Computer and Information
    • /
    • v.15 no.11
    • /
    • pp.31-39
    • /
    • 2010
  • In some image processing system or the users who want to see a specific region of image simply, if a part of the image has higher quality than other regions, it would be a nice service. Specifically in mobile environments, preferential service was needed, as the screen size is small. So, JPEG2000 supplies this function. But this doesn't support the process to extract specific regions or service and does the functions to add some techniques. It is called by ROI(Region-of-Interest). In this paper, we use images including human faces, which are processed most preferentially and compressed with high quality. Before an image is served to the users, it is compressed and saved. Here, the face parts are compressed with higher quality than the background which are relatively with lower quality. This technique can offer better service with preferential transferring of the faces, too. Besides, whole regions of the image are compressed with same quality and after searching the faces, they can be preferentially transferred. In this paper, we use a face extraction approach based on neural network and the preferential processing with EBCOT of JPEG2000. For experimentation, we use images having several human faces and evaluate objectively and subjectively, and proved that this approach is a nice one.

Emotion Training: Image Color Transfer with Facial Expression and Emotion Recognition (감정 트레이닝: 얼굴 표정과 감정 인식 분석을 이용한 이미지 색상 변환)

  • Kim, Jong-Hyun
    • Journal of the Korea Computer Graphics Society
    • /
    • v.24 no.4
    • /
    • pp.1-9
    • /
    • 2018
  • We propose an emotional training framework that can determine the initial symptom of schizophrenia by using emotional analysis method through facial expression change. We use Emotion API in Microsoft to obtain facial expressions and emotion values at the present time. We analyzed these values and recognized subtle facial expressions that change with time. The emotion states were classified according to the peak analysis-based variance method in order to measure the emotions appearing in facial expressions according to time. The proposed method analyzes the lack of emotional recognition and expressive ability by using characteristics that are different from the emotional state changes classified according to the six basic emotions proposed by Ekman. As a result, the analyzed values are integrated into the image color transfer framework so that users can easily recognize and train their own emotional changes.

Generic Cube based on Feature Vectors (특징벡터를 기준으로 한 본원적 큐브)

  • Baek, Jong-Tae;Lee, Woo-Key;Lee, Hwa-Ki
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06d
    • /
    • pp.214-215
    • /
    • 2012
  • 본원적 큐브란 사용자의 얼굴을 다각면에서 추출하여 주성분분석(PCA: Principal component analysis)을 통해 다차원 정보를 통합하여 큐브형태로 표현된 것을 의미한다. 두 눈의 연결점과 입의 연결점을 이은 후 그 둘의 법선벡터를 얼굴의 방향으로 표현하는 것으로써 평면 사진에 얼굴방향을 부여한다. 그럴 경우 동일인물의 다양한 사진들을 모았을 경우 각 사진들이 얼굴방향을 달리하는 사진큐브로 표현될 수 있다. 이로써 기존에는 얼굴방향이 다른 동일인물의 사진을 정확하게 구분해 낼 수 없던 한계를 뛰어넘을 수 있다. 또한 큐브는 방향이 조금씩 다른 모든 사진을 저장할 필요가 없으므로 저장공간이 크게 절감되는 장점이 있다. 또한 단체 사진에서 개인의 이미지를 추출한 뒤 본 연구의 큐브와 매칭시켜 인물을 탐색하거나 소유한 이미지를 공유하는 기법을 포함한다. 결과적으로 큐브를 활용하여 효과적으로 인물탐색이 가능 해지는 것이다.

Facial Caricaturing System using Facial Features information (얼굴 특징정보를 이용한 캐리커처 생성 시스템)

  • 이옥경;박연출;오해석
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.404-406
    • /
    • 2000
  • 캐리커처 생성 시스템은 입력된 인물 사진을 세그먼테이션을 통하여 특징(이목구비)을 추출하고, 추출된 특징정보를 이용하여 그와 유사한 특징정보를 가지는 캐리커처 이미지를 검색하여 매핑시키는 시스템이다. 캐리커처 생성 시스템에서는 얼굴의 대칭 구조를 이용하고 색상과 모양에 대한 정보를 이용하여 얼굴 각각의 특징(이목구비)을 캐리커처의 특징을 구분하는 특징정보로써 활용한다. 본 논문은 인물 사진을 세그멘테이션 처리하여 얻은 부분 영역 특징정보를 이용하여 그와 유사한 캐리커처를 자동으로 생성하는데 목적이 있다. 이 때 사용하는 대칭 구조는 씨앗 픽셀(seed pixel)을 추출한다. 특징정보는 색상의 경우 지역적인 색상정보는 이목구비를 더 뚜렷이 해주고, 전체적인 색상정보는 그 이미지의 피부색의 정보를 나타낸다. 모양의 경우 이목구비의 특징정보를 위해 불변모멘트가 주요하게 사용된다. 또한 데이터베이스는 얼굴의 세부사항(이목구비)에 대한 각각의 캐리커처로 구축되어 있고, 각 세부사항은 특징별 분류되어 있어야 한다. 이런 데이터베이스의 캐리커처와 추출된 얼굴 영상에서의 세부사항을 비교하여 유사도를 계산하고 이를 매핑하므로 개인의 특징을 가진 캐리커처를 자동으로 생성한다.

  • PDF

Face Expression Recognition Network for UAV and Mobile Device (UAV 및 모바일 기기를 위한 얼굴 표정 인식 네트워크)

  • Choi, Eunji;Park, Byeongjun;Yoon, Kyoungro
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.348-351
    • /
    • 2021
  • 최근 자동화의 필요성이 증가함에 따라 얼굴 표정 인식 분야(face expression recognition)가 인공지능과 이미지 처리 분야에서 활발히 연구되고 있다. 본 논문에서는 기존 인공신경망에서 요구되었던 고성능 GPU 환경과 높은 연산량을 극복하고자 모델 경량화(Light weighted Model) 기법을 적용하여 드론 및 모바일 기기에서 적용될 수 있는 얼굴 표정 인식 신경망을 제안한다. 제안하는 방법은 미세한 얼굴의 표정 인식을 위한 방법으로, 입력 이미지의 receptive field 를 늘려 특징 맵의 표현력을 높이는 방법을 제안한다. 또한 효과적인 신경망의 경량화를 위하여, 파라미터의 연산량을 줄일 때 발생하는 문제점을 극복하기 위한 방법을 제시한다. 따라서 제안하는 네트워크를 적용하면 많은 연산량과 느린 연산속도로 인해 제한되었던 네트워크 환경을 극복할 수 있을 뿐만 아니라, UAV(Unmanned Aerial Vehicle, 무인항공기) 및 모바일 기기에서 신경망을 이용한 실시간 얼굴 표정 인식을 할 수 있다.

  • PDF

A Study on 3D Face Modelling based on Dynamic Muscle Model for Face Animation (얼굴 애니메이션을 위한 동적인 근육모델에 기반한 3차원 얼굴 모델링에 관한 연구)

  • 김형균;오무송
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.7 no.2
    • /
    • pp.322-327
    • /
    • 2003
  • Based on dynamic muscle model to construct efficient face animation in this paper 30 face modelling techniques propose. Composed face muscle by faceline that connect 256 point and this point based on dynamic muscle model, and constructed wireframe because using this. After compose standard model who use wireframe, because using front side and side 2D picture, enforce texture mapping and created 3D individual face model. Used front side of characteristic points and side part for correct mapping, after make face that have texture coordinates using 2D coordinate of front side image and front side characteristic points, constructed face that have texture coordinates using 2D coordinate of side image and side characteristic points.