• Title/Summary/Keyword: 얼굴 합성

Search Result 140, Processing Time 0.025 seconds

Appearance Information Extraction and Shading for Realistic Caricature Generation (실사형 캐리커처 생성을 위한 형태 정보 추출 및 음영 함성)

  • Park, Yeon-Chool;Oh, Hae-Seok
    • The KIPS Transactions:PartB
    • /
    • v.11B no.3
    • /
    • pp.257-266
    • /
    • 2004
  • This paper proposes caricature generation system that uses shading mechanism that extracts textural features of face. Using this method, we can get more realistic caricature. Since this system If vector-based, the generated character's face has no size limit and constraint. so it is available to transform the shape freely and to apply various facial expressions to 2D face. Moreover, owing to the vector file's advantage, It can be used in mobile environment as small file size This paper presents methods that generate vector-based face, create shade and synthesize the shade with the vector face.

Facial Feature Retraction for Face and Facial Expression Recognition (얼굴인식 및 표정 인식을 위한 얼굴 및 얼굴요소의 윤곽선 추출)

  • 이경희;변혜란;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1998.11a
    • /
    • pp.25-29
    • /
    • 1998
  • 본 논문은 얼굴 인식 또는 표정 인식 분야에 있어서 중요한 특징을 나타내는 얼굴과 얼굴의 주요소인 눈과 입, 눈썹의 영역 추출 및 그의 윤곽선·추출에 관한 방법을 제시한다. 얼굴요소의 영역 추출은 엣지 정보와 이진화 영상을 병합하여 이용한 프로젝션 분석을 통하여 얼굴 및 각 얼굴요소를 포함하는 최소포함사각형(MER: Minimum Enclosing Rectangle)을 추출하였다. 얼굴 영상에 관련된 윤곽선 연구에는 가변 템플릿(Deformable Template), 스네이크(Snakes: Active Contour Model)를 이용하는 연구들이 이루어지고 있는데 가변 템플릿 방법은 수행시간이 느리고 추출된 윤곽선의 모양이 획일 된 모양을 갖는 특성이 있다. 본 논문에서는 사람마다 얼굴요소의 모양의 개인차가 반영되고 빠른 수렴을 할 수 있는 스네이크 모델을 정의하여 눈, 입, 눈썹, 얼굴의 윤곽선 추출 실험을 하였다. 또한 스네이크는 초기 윤곽선의 설정이 윤곽선의 추출 곁과에 큰 영향을 미치므로, 초기 윤곽선의 설정 과정이 매우 중요하다. 본 논문에서는 얼굴 및 각 얼굴요소를 포함하는 각각의 최소 포함 사각형(MER)을 추출하고, 이 추출된 MER 내에서 얼굴 및 각 얼굴요소의 일반적인 모양을 초기 윤곽선으로 설정하는 방법을 사용하였다. 실험결과 눈, 입, 얼굴의 MER의 추출은 모두 성공하였고, 눈썹이 흐린 사람들의 경우에만 눈썹의 MER추출이 졸지 않았다. 추출된 MER을 기반으로 하여 스네이크 모델을 적용한 결과, 눈, 입, 눈썹, 얼굴의 다양한 모양을 반영한 윤곽선 추출 결과를 보였다. 특히 눈의 경우는 1차 유도 엣지 연산자에 의한 엣지 와 2차 유도 연산자를 이용한 영점 교차점(Zero Crossing)과 병합한 에너지 함수를 설정하여 보다 더 나은 윤곽선 추출 결과를 보였다. 얼굴의 윤곽선의 경우도 엣지 값과 명도 값을 병합한 에너지 함수에 의해 비교적 정확한 결과를 얻을 수 있었다.잘 동작하였다.되는 데이타를 입력한후 마우스로 원하는 작업의 메뉴를 선택하면 된다. 방법을 타액과 혈청내 testosterone 농도 측정에 응용하여 RIA의 결과와 비교하여 본 바 상관관계가 타액에서 r=0.969, 혈청에서 r=0.990으로 두 결과가 잘 일치하였다. 본 실험에서 측정된 한국인 여성의 타액내 testosterone농도는 107.7$\pm$12.0 pmol/l이었고, 남성의 타액내 농도는 274.2$\pm$22.1 pmol/l이었다. 이상의 결과로 보아 본 연구에서 정립된 EIA 방법은 RIA를 대신하여 소규모의 실험실에서도 활용할 수 있을 것으로 사려된다.또한 상실기 이후 배아에서 합성되며, 발생시기에 따라 그 영향이 다르고 팽창과 부화에 관여하는 것으로 사료된다. 더욱이, 조선의 ${\ulcorner}$구성교육${\lrcorner}$이 조선총독부의 관리하에서 실행되었다는 것을, 당시의 사범학교를 중심으로 한 교육조직을 기술한 문헌에 의해 규명시켰다.nd of letter design which represents -natural objects and was popular at the time of Yukjo Dynasty, and there are some documents of that period left both in Japan and Korea. "Hyojedo" in Korea is supposed to have been influenced by the letter design. Asite- is also considered to have been "Japanese Letter Jobcheso." Therefore, the purpose of this study is to look into the origin of the letter designs in the Chinese character culture

  • PDF

Development of a lipsync algorithm based on A/V corpus (코퍼스 기반의 립싱크 알고리즘 개발)

  • 하영민;김진영;정수경
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.145-148
    • /
    • 2000
  • 이 논문에서는 2차원 얼굴 좌표데이터를 합성하기 위한 음성과 영상 동기화 알고리즘을 제안한다. 영상변수의 획득을 위해 화자의 얼굴에 부착된 표시를 추적함으로써 영상변수를 획득하였고, 음소정보뿐만 아니라 운율정보들과의 영상과의 상관관계를 분석하였으며 합성단위로 시각소에 기반한 코퍼스를 선택하고, 주변의 음운환경도 함께 고려하여 연음현상을 모델링하였다. 입력된 코퍼스에 해당되는 패턴들을 lookup table에서 선택하여 주변음소에 대해 기준패턴과의 음운거리를 계산하고 음성파일에서 운율정보들을 추출해 운율거리를 계산한 후 가중치를 주어 패턴과의 거리를 얻는다. 이중가장 근접한 다섯개의 패턴들의 연결부분에 대해 Viterbi Search를 수행하여 최적의 경로를 선택하고 주성분분석된 영상정보를 복구하고 시간정보를 조절한다.

  • PDF

The Effect on the Contents of Self-Disclosure Activities using Ubiquitous Home Robots (자기노출 심리를 이용한 유비쿼터스 로봇 컨텐츠의 효과)

  • Lee, Tae-Jun;Kim, Su-Jung;Han, Jeong-Hye
    • 한국정보교육학회:학술대회논문집
    • /
    • 2008.01a
    • /
    • pp.129-135
    • /
    • 2008
  • 본 연구는 인간의 자아표현 욕구와 창조적 욕구로 인해 자신을 대체할 산물들을 끊임없이 만들어 내는 과정에서 중요하게 작용되는 자기노출라는 심리를 이용하여 아바타와 학습자의 얼굴을 합성하는 증강가상을 통하여 가상세계에서의 현실감을 부여함으로써 학습자의 몰입을 유도하여 그 교육적 효과를 증대하고자 하였다. 이를 실증하기 위하여 컴퓨터기반으로 컨텐츠를 개발한 후, 로봇 컨텐츠로써의 활용을 위해 컨버팅하고 자동 로딩을 통한 학습자의 사진을 아바타와 합성시켰다. 실험 결과 자기노출기반 컨텐츠의 효과는 모든 집단의 경우에서 학습에 대한 집중도에는 긍정적인 영향을 주었으며, 학업성취도에는 유의미하지는 않지만 긍정적 효과를 가지는 것으로 나타났다. 이는 교육용 로봇을 활용한 자기노출 개념 적용에 대하여 긍정적인 결과라고 보여지는데, 보다 유의미한 결과를 얻기 위해서는 단순히 사진을 찍어 로딩시키는 증강가상보다는 얼굴검출을 통한 실시간 증강가상과 같이 증강가상 효과의 증대가 필요하다고 하겠다.

  • PDF

3D Facial Modeling and Expression Synthesis using muscle-based model for MPEG-4 SNHC (MPEG-4 SNHC을 위한 3차원 얼굴 모델링 및 근육 모델을 이용한 표정합성)

  • 김선욱;심연숙;변혜란;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.368-372
    • /
    • 1999
  • 새롭게 표준화된 멀티미디어 동영상 파일 포맷인 MPEG-4에는 자연영상과 소리뿐만 아니라 합성된 그래픽과 소리를 포함하고 있다. 특히 화상회의나 가상환경의 아바타를 구성하기 위한 모델링과 에니메이션을 위한 FDP, FAP에 대한 표준안을 포함하고 있다. 본 논문은 MPEG-4에서 정의한 FDP와 FAP를 이용하여 화상회의나 가상환경의 아바타로 자연스럽고 현실감 있게 사용할 수 있는 얼굴 모델 생성을 위해서 보다 정교한 일반모델을 사용하고, 이에 근육 모델을 사용하여 보다 정밀한 표정 생성을 위해서 임의의 위치에 근육을 생성 할 수 있도록 근육 편집기를 작성하여, 표정 에니메이션을 수행할 수 있도록 에니메이션 편집 프로그램을 구현하였다.

  • PDF

Viewpoint interpolation of face images using an ellipsoid model (타원체 MODEL을 사용한 얼굴 영상의 시점합성에 관한 연구)

  • Yoon, Na-Ree;Lee, Byung-Uk
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.32 no.6C
    • /
    • pp.572-578
    • /
    • 2007
  • To establish eye contact in video teleconferencing, it is necessary to synthesize a front view image by viewpoint interpolation. We can find the viewing direction of a user, and interpolate an image seen from that viewpoint, which will result in a face image observed from the front. There are two categories of previous research: image based method and model based method. The former is simple to calculate, however, it shows limited performance for complex objects. And the latter is robust to noise while it is computationally expensive. We propose to approximate face images as ellipses and match them to build an ellipsoid and then synthesize a new image from a given virtual camera position. We show that it is simple and robust from various experiments.

Korean Emotional Speech and Facial Expression Database for Emotional Audio-Visual Speech Generation (대화 영상 생성을 위한 한국어 감정음성 및 얼굴 표정 데이터베이스)

  • Baek, Ji-Young;Kim, Sera;Lee, Seok-Pil
    • Journal of Internet Computing and Services
    • /
    • v.23 no.2
    • /
    • pp.71-77
    • /
    • 2022
  • In this paper, a database is collected for extending the speech synthesis model to a model that synthesizes speech according to emotions and generating facial expressions. The database is divided into male and female data, and consists of emotional speech and facial expressions. Two professional actors of different genders speak sentences in Korean. Sentences are divided into four emotions: happiness, sadness, anger, and neutrality. Each actor plays about 3300 sentences per emotion. A total of 26468 sentences collected by filming this are not overlap and contain expression similar to the corresponding emotion. Since building a high-quality database is important for the performance of future research, the database is assessed on emotional category, intensity, and genuineness. In order to find out the accuracy according to the modality of data, the database is divided into audio-video data, audio data, and video data.

AI Announcer : Information Transfer Software Using Artificial Intelligence Technology (AI 아나운서 : 인공지능 기술을 이용한 정보 전달 소프트웨어)

  • Kim, Hye-Won;Lee, Young-Eun;Lee, Hong-Chang
    • Annual Conference of KIPS
    • /
    • 2020.11a
    • /
    • pp.937-940
    • /
    • 2020
  • 본 논문은 AI 기술을 기반으로 텍스트 스크립트를 자동으로 인식하고 영상 합성 기술을 응용하여 텍스트 정보를 시각화하는 AI 아나운서 소프트웨어 연구에 대하여 기술한다. 기존의 AI 기반 영상 정보 전달 서비스인 AI 앵커는 텍스트를 인식하여 영상을 합성하는데 오랜 시간이 필요하였으며, 특정 인물 이미지로만 영상 합성이 가능했기 때문에 그 용도가 제한적이었다. 본 연구에서 제안하는 방법은 Tacotron 으로 새로운 음성을 학습 및 합성하여, LRW 데이터셋으로 학습된 모델을 사용하여 자연스러운 영상 합성 체계를 구축한다. 단순한 얼굴 이미지의 합성을 개선하고 다채로운 이미지 제작을 위한 과정을 간략화하여 다양한 비대면 영상 정보 제공 환경을 구성할 수 있을 것으로 기대된다.

A DB for facial expression and its user-interface (얼굴표정 DB 및 사용자 인터페이스 개발)

  • 한재현;문수종;김진관;김영아;홍상욱;심연숙;반세범;변혜란;오경자
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.373-378
    • /
    • 1999
  • 얼굴 및 얼굴표정 연구의 기초 자료를 제공하고 실제 표정을 디자인하는 작업의 지침으로 사용되도록 하기 위하여 대규모의 표정 DB를 구축하였다. 이 DB 내에는 여러 가지 방법으로 수집된 배우 24명의 자연스럽고 다양한 표정 영상자료 약 1,500장이 저장되어 있다. 수집된 표정자료 각각에 대하여 내적상태의 범주모형과 차원모형을 모두 고려하여 다수의 사람들이 반응한 내적상태 평정 정보를 포함하도록 하였으며 사진별로 평정의 일치율을 기록함으로써 자료 이용에 참고할 수 있도록 하였다. 표정인식 및 합성 시스템에 사용될 수 있도록 각 표정자료들을 한국인 표준형 상모형에 정합하였을 때 측정된 MPEG-4 FAP 기준 39개 꼭지점들(vertices)의 좌표값들 및 표정추출의 맥락정보를 저장하였다. 실제 DB를 사용할 사람들이 가진 한정된 정보로써 전체 DB의 영상자료들을 용이하게 검색할 수 있도록 사용자 인터페이스를 개발하였다.

  • PDF

Future 2nd generation face prediction web service using StyleGAN (StyleGAN을 이용한 미래 2세대 얼굴 예측 웹 서비스)

  • Hwang Kim;Min-Jeong Kim;JI-Hyeon Lee;Jin-Ah Jung;Dong-Uk Kim;Ho-Young Kwak
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2024.01a
    • /
    • pp.329-330
    • /
    • 2024
  • 최근 생성형 AI에 대한 수요가 상승하고 있으며, MZ세대의 자기애 성향으로 자신의 얼굴을 활용한 미디어 콘텐츠에 대한 호기심이 높아지고 있다. 이에 따라 본 논문에서는 MZ세대의 창의성과 미디어 소비를 고취시키기 위해, StyleGAN 기술을 중심으로 자신과 닮은 2세의 가상 모습을 생성하는 웹 서비스를 설계하고 구현하였다.

  • PDF