• 제목/요약/키워드: Style Synthesis Network

검색결과 6건 처리시간 0.024초

적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구 (Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks)

  • 최희조;박구만
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권11호
    • /
    • pp.465-472
    • /
    • 2022
  • 본 연구에서는 기존의 동영상 합성 네트워크에 스타일 합성 네트워크를 접목시켜 동영상에 대한 스타일 합성의 한계점을 극복하고자 한다. 본 논문의 네트워크에서는 동영상 합성을 위해 스타일갠 학습을 통한 스타일 합성과 동영상 합성 네트워크를 통해 스타일 합성된 비디오를 생성하기 위해 네트워크를 학습시킨다. 인물의 시선이나 표정 등이 안정적으로 전이되기 어려운 점을 개선하기 위해 3차원 얼굴 복원기술을 적용하여 3차원 얼굴 정보를 이용하여 머리의 포즈와 시선, 표정 등의 중요한 특징을 제어한다. 더불어, 헤드투헤드++ 네트워크의 역동성, 입 모양, 이미지, 시선 처리에 대한 판별기를 각각 학습시켜 개연성과 일관성이 더욱 유지되는 안정적인 스타일 합성 비디오를 생성할 수 있다. 페이스 포렌식 데이터셋과 메트로폴리탄 얼굴 데이터셋을 이용하여 대상 얼굴의 일관된 움직임을 유지하면서 대상 비디오로 변환하여, 자기 얼굴에 대한 3차원 얼굴 정보를 이용한 비디오 합성을 통해 자연스러운 데이터를 생성하여 성능을 증가시킴을 확인했다.

Few-Shot Image Synthesis using Noise-Based Deep Conditional Generative Adversarial Nets

  • Msiska, Finlyson Mwadambo;Hassan, Ammar Ul;Choi, Jaeyoung;Yoo, Jaewon
    • 스마트미디어저널
    • /
    • 제10권1호
    • /
    • pp.79-87
    • /
    • 2021
  • In recent years research on automatic font generation with machine learning mainly focus on using transformation-based methods, in comparison, generative model-based methods of font generation have received less attention. Transformation-based methods learn a mapping of the transformations from an existing input to a target. This makes them ambiguous because in some cases a single input reference may correspond to multiple possible outputs. In this work, we focus on font generation using the generative model-based methods which learn the buildup of the characters from noise-to-image. We propose a novel way to train a conditional generative deep neural model so that we can achieve font style control on the generated font images. Our research demonstrates how to generate new font images conditioned on both character class labels and character style labels when using the generative model-based methods. We achieve this by introducing a modified generator network which is given inputs noise, character class, and style, which help us to calculate losses separately for the character class labels and character style labels. We show that adding the character style vector on top of the character class vector separately gives the model rich information about the font and enables us to explicitly specify not only the character class but also the character style that we want the model to generate.

휴대인터넷에 활용 가능한 지능형 캐릭터 제작 시스템 개발에 대한 연구 (An Intelligent Character Manipulation System Suitable for Wireless Broadband Network Environment)

  • 유석호;윤황록;경병표;이동열;이완복;이경재
    • 한국콘텐츠학회논문지
    • /
    • 제8권4호
    • /
    • pp.100-107
    • /
    • 2008
  • 본 논문은 기존 온라인상에서 제공되고 있는 캐릭터의 개념을 벗어나, 와이브로의 높은 전송속도와 소셜 네트워크 서비스(SNS)의 온라인 공간에서 인맥을 형성할 수 있는 비즈니스 모델을 바탕으로 지능형 캐릭터 제작 시스템 설계에 목표를 두고 있다. 제안하는 시스템에서는 메타정보를 이용한 캐릭터의 자동 조합, 기능과 활용이 편리한 플래시 애니메이션을 이용한 사용자별 개성, 취향, 기분에 맞추어 웹 브라우저나 휴대 단말기에서 캐릭터로 표현할 수 있는 것이 주요 특징이다. 표현된 캐릭터의 모션은 사용자의 감정과 스케줄, 패턴 등의 데이터 변형에 따라 패션, 배경, 표정 등이 다양하게 표현할 수 있다. 다양한 사용자의 감성과 생활패턴 등의 정보에 대응하고 인터랙션할 수 있는 진보된 지능형 캐릭터 시스템을 개발하여 본 시스템에 적용함으로서 다양한 콘텐츠에 활용할 수 있도록 발전시켜 나갈 것이다.

GAN을 이용한 동영상 스타일 생성 및 합성 네트워크 구축 (A Video Style Generation and Synthesis Network using GAN)

  • 최희조;박구만;김상준;이유진;상혜준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.727-730
    • /
    • 2021
  • 이미지와 비디오 합성 기술에 대한 수요가 늘어남에 따라, 인간의 손에만 의존하여 이미지나 비디오를 합성하는데에는 시간과 자원이 한정적이며, 전문적인 지식을 요한다. 이러한 문제를 해결하기 위해 최근에는 스타일 변환 네트워크를 통해 이미지를 변환하고, 믹싱하여 생성하는 알고리즘이 등장하고 있다. 이에 본 논문에서는 GAN을 이용한 스타일 변환 네트워크를 통한 자연스러운 스타일 믹싱에 대해 연구했다. 먼저 애니메이션 토이 스토리의 등장인물에 대한 데이터를 구축하고, 모델을 학습하고 두 개의 모델을 블렌딩하는 일련의 과정을 거쳐 모델을 준비한다. 그 다음에 블렌딩된 모델을 통해 타겟 이미지에 대하여 스타일 믹싱을 진행하며, 이 때 이미지 해상도와 projection 반복 값으로 스타일 변환 정도를 조절한다. 최종적으로 스타일 믹싱한 결과 이미지들을 바탕으로 하여 스타일 변형, 스타일 합성이 된 인물에 대한 동영상을 생성한다.

심층 강화 학습을 이용한 Luxo 캐릭터의 제어 (Luxo character control using deep reinforcement learning)

  • 이정민;이윤상
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제26권4호
    • /
    • pp.1-8
    • /
    • 2020
  • 캐릭터로 하여금 시뮬레이션 내에서 사용자가 원하는 동작을 보이도록 물리 기반 제어기를 만들 수 있다면 주변 환경의 변화와 다른 캐릭터와의 상호작용에 대하여 자연스러운 반응을 보이는 캐릭터 애니메이션을 생성할 수 있다. 최근 심층 강화 학습을 이용해 물리 기반 제어기가 더 안정적이고 다양한 동작을 합성하도록 하는 연구가 다수 이루어져 왔다. 본 논문에서는 다리가 하나 달린 픽사 애니메이션 스튜디오의 마스코트 캐릭터 Luxo를 주어진 목적지까지 뛰어 도착하게 하는 심층 강화학습 모델을 제시한다. 효율적으로 뛰는 동작을 학습하도록 하기 위해서 Luxo의 각 관절의 각도값들을 선형 보간법으로 생성하여 참조 모션을 만들었으며, 캐릭터는 이를 모방하면서 균형을 유지하여 목표한 위치까지 도달하도록 하는 제어 정책(control policy)을 학습한다. 참조 동작을 사용하지 않고 Luxo 동작을 제어하도록 학습된 정책과 비교한 실험 결과, 제안된 방법을 사용하면 사용자가 지정한 위치로 Luxo가 점프하며 이동하는 정책을 더 효율적으로 학습할 수 있었다.

얼굴 표정의 자동 인식을 통한 PDA 상에서의 3차원 얼굴 애니메이션 (3-D Facial Animation on the PDA via Automatic Facial Expression Recognition)

  • 이돈수;최수미;김해광;김용국
    • 정보처리학회논문지B
    • /
    • 제12B권7호
    • /
    • pp.795-802
    • /
    • 2005
  • 본 논문에서는 일곱 가지의 기본적인 감정 정보를 자동으로 파악하고 얼굴을 PDA 상에서 렌더링할 수 있는 얼굴 표정의 인식 및 합성 시스템을 제시한다. 얼굴 표정 인식을 위해서 먼저 카메라로부터 획득한 영상으로부터 얼굴 부분을 검출한다. 그리고 나서 기하학적 또는 조명으로 인한 보정을 위해 정규화 과정을 거친다. 얼굴 표정을 분류하기 위해서는 Gabor wavelets 방법을 enhanced Fisher 모델과 결합하여 사용할 때가 가장 좋은 결과를 보였다. 본 표정 분류에서는 일곱 가지 감정 가중치가 결과로 제시되고, 그러한 가중 정보는 모바일 네트웍을 통하여PDA 상으로 전송되어 얼굴 표정 애니메이션에 이용되어진다. 또한 본 논문에서는 고유한 얼굴 캐릭터를 가진 3차워 아바타를 생성하기 위하여 카툰 쉐이딩 기법을 채택하였다. 실험 결과 감정 곡선을 이용한 얼굴 표정 애니메이션은 선형 보간법 보다 감정 변화의 타이밍을 표현하는데 더 효과적인 것으로 나타났다.