• 제목/요약/키워드: Neural Style Transfer

검색결과 17건 처리시간 0.022초

Stylized Image Generation based on Music-image Synesthesia Emotional Style Transfer using CNN Network

  • Xing, Baixi;Dou, Jian;Huang, Qing;Si, Huahao
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권4호
    • /
    • pp.1464-1485
    • /
    • 2021
  • Emotional style of multimedia art works are abstract content information. This study aims to explore emotional style transfer method and find the possible way of matching music with appropriate images in respect to emotional style. DCNNs (Deep Convolutional Neural Networks) can capture style and provide emotional style transfer iterative solution for affective image generation. Here, we learn the image emotion features via DCNNs and map the affective style on the other images. We set image emotion feature as the style target in this style transfer problem, and held experiments to handle affective image generation of eight emotion categories, including dignified, dreaming, sad, vigorous, soothing, exciting, joyous, and graceful. A user study was conducted to test the synesthesia emotional image style transfer result with ground truth user perception triggered by the music-image pairs' stimuli. The transferred affective image result for music-image emotional synesthesia perception was proved effective according to user study result.

동양화의 예술적 스타일 탐구 (Exploring the Artistic Style of the Oriental Paintings)

  • 이소려;이효종
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 춘계학술발표대회
    • /
    • pp.475-478
    • /
    • 2019
  • Although the work of neural style transfer has shown successful applications in transferring the style of a certain type of artistic painting, it is less effective in transferring Oriental paintings. In this paper, we explore three methods which are effective in transferring Oriental paintings. Then, we take a typical network from each method to carry on the experiment, in view of three different methods to Oriental paintings style transfer effect has carried on the discussion.

초-고해상도 영상 스타일 전이 (Super High-Resolution Image Style Transfer)

  • 김용구
    • 방송공학회논문지
    • /
    • 제27권1호
    • /
    • pp.104-123
    • /
    • 2022
  • 신경망 기반 스타일 전이 기법은 영상의 고차원적 구조적 특징을 반영하여 높은 품질의 스타일 전이 결과를 제공함으로써 최근 크게 주목받고 있다. 본 논문은 이러한 신경망 기반 스타일 전이의 GPU 메모리 제한에 따른 해상도 한계에 대한 문제를 다룬다. 신경망 출력이 가진 제한적 수용장 특징을 바탕으로, 부분 영상 기반의 스타일 전이 손실함수 경사도 연산이 전체 영상을 대상으로 구한 경사도 연산과 동일한 결과를 생성할 수 있을 것으로 기대할 수 있다. 이러한 아이디어를 기반으로, 본 논문에서는, 스타일 전이 손실함수의 각 구성 요소에 대한 경사도 연산 구조를 분석하고, 이를 통해 부분 영상의 생성 및 패딩에 대한 필요조건을 구하고, 전체 영상의 신경망 출력에 좌우되는 경사도 연산 요구 데이터를 확인하여 구조화함으로써 재귀적 초고해상도 스타일 전이 알고리즘을 개발하였다. 제안된 기법은, 사용하는 GPU 메모리가 처리할 수 있는 크기로 초고해상도 입력을 분할하여 스타일 전이를 수행함으로써, GPU 메모리 한계에 따른 해상도 제한을 받지 않으며, 초고해상도 스타일 전이에서만 감상할 수 있는 독특한 세부 영역의 전이 스타일 특징을 제공할 수 있다.

문화유산 이미지의 질감과 색상 스타일 전이를 위한 알고리즘 개발 연구 (Algorithm development for texture and color style transfer of cultural heritage images)

  • 백서현;조예은;안상두;최종원
    • 박물관보존과학
    • /
    • 제31권
    • /
    • pp.55-70
    • /
    • 2024
  • 스타일 전이 알고리즘은 현재 활발히 연구되는 분야로 일반 이미지를 고전 회화 스타일로 전이시키는 알고리즘도 개발되었다. 그러나 우리나라의 문화유산 이미지에 적용하였을 때 적절한 성과를 보이지 않으며, 적용 사례도 부족한 실정이다. 이에 본 연구에서는 우리나라 문화유산 스타일로 응용할 수 있는 스타일 전이 알고리즘을 개발하고자 한다. 이는 표현 학습을 통해 유의미한 특성을 학습하여 데이터에 대한 이해도를 높였으며, 대상 이미지 내에서 배경과 문화유산을 분리하고, 스타일 이미지에서 원하는 색상과 질감의 스타일 영역을 추출할 수 있게 제작하였다. 이를 통해 대상 이미지의 형태를 유지하면서 스타일 이미지의 특징을 효과적으로 전이하여 새로운 이미지를 생성할 수 있으며, 다양한 문화유산 스타일을 전이시킬 수 있음을 확인하였다.

자기 정규화를 통한 도메인 불변 특징 학습 (Learning Domain Invariant Representation via Self-Rugularization)

  • 현재국;이찬용;김호성;유현정;고은진
    • 한국군사과학기술학회지
    • /
    • 제24권4호
    • /
    • pp.382-391
    • /
    • 2021
  • Unsupervised domain adaptation often gives impressive solutions to handle domain shift of data. Most of current approaches assume that unlabeled target data to train is abundant. This assumption is not always true in practices. To tackle this issue, we propose a general solution to solve the domain gap minimization problem without any target data. Our method consists of two regularization steps. The first step is a pixel regularization by arbitrary style transfer. Recently, some methods bring style transfer algorithms to domain adaptation and domain generalization process. They use style transfer algorithms to remove texture bias in source domain data. We also use style transfer algorithms for removing texture bias, but our method depends on neither domain adaptation nor domain generalization paradigm. The second regularization step is a feature regularization by feature alignment. Adding a feature alignment loss term to the model loss, the model learns domain invariant representation more efficiently. We evaluate our regularization methods from several experiments both on small dataset and large dataset. From the experiments, we show that our model can learn domain invariant representation as much as unsupervised domain adaptation methods.

Applications of a Deep Neural Network to Illustration Art Style Design of City Architectural

  • Yue Wang;Jia-Wei Zhao;Ming-Yue Zheng;Ming-Yu Li;Xue Sun;Hao Liu;Zhen Liu
    • Journal of Information Processing Systems
    • /
    • 제20권1호
    • /
    • pp.53-66
    • /
    • 2024
  • With the continuous advancement of computer technology, deep learning models have emerged as innovative tools in shaping various aspects of architectural design. Recognizing the distinctive perspective of children, which differs significantly from that of adults, this paper contends that conventional standards may not always be the most suitable approach in designing urban structures tailored for children. The primary objective of this study is to leverage neural style networks within the design process, specifically adopting the artistic viewpoint found in children's illustrations. By combining the aesthetic paradigm of urban architecture with inspiration drawn from children's aesthetic preferences, the aim is to unearth more creative and subversive aesthetics that challenge traditional norms. The selected context for exploration is the landmark buildings in Qingdao City, Shandong Province, China. Employing the neural style network, the study uses architectural elements of the chosen buildings as content images while preserving their inherent characteristics. The process involves artistic stylization inspired by classic children's illustrations and images from children's picture books. Acting as a conduit for deep learning technology, the research delves into the prospect of seamlessly integrating architectural design styles with the imaginative world of children's illustrations. The outcomes aim to provide fresh perspectives and effective support for the artistic design of contemporary urban buildings.

과거와 현재를 연결하는 민속화 스타일 미디어아트 콘텐츠의 기획 및 제작 (Design and Implementation of Media Art Contents with Folk Painting Style connecting the Past and the Present)

  • 김수정;최수영;김미진;김동호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.724-725
    • /
    • 2023
  • 본 논문에서는 Unity3D 엔진을 이용하여 과거와 현재를 연결하는 내용에 기반한 미디어아트 콘텐츠를 구현하였다. Super Zoom Neural Filters를 사용하여 이미지의 화질을 개선하였으며 Neural Style Transfer를 사용하여 현대 건물을 민속화 스타일로 변환시켰다. 이 작품은 과거와 현재가 연결되는 미디어아트 작품으로서의 의의를 찾을 수 있으며 민속화 활용 미디어아트의 사례로 평가받을 수 있다고 생각한다.

Re-Destyle: 개선된 Facial Destylization 을 활용한 예시 기반 신경망 스타일 전이 연구 (Re-Destyle: Exemplar-Based Neural Style Transfer using Improved Facial Destylization)

  • 유주원
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.1339-1342
    • /
    • 2022
  • 예술적 스타일 전이는 예술 작품이 지닌 특징을 다른 이미지에 적용하는 이미지 처리의 오랜 화두 중 하나로, 최근에는 StyleGAN 과 같이 미리 학습된 GAN(생성적 적대 신경망)을 통해 제한된 데이터로도 고해상도의 예술적 초상화를 생성하도록 학습하는 연구가 다양한 방면에서 성과를 내고 있다. 본 논문에서는 2 가지 경로의 StyleGAN과 Facial Destylization 을 통해 고해상도의 예시 기반 스타일 전이를 달성한 DualStyleGAN 연구에 대해 소개하고, 기존 연구에서 사용된 Facial Destylization 방법이 지닌 한계점을 분석한 뒤, 이를 개선한 새로운 방법, Re-Destyle을 제안한다. 새로운 Re-Destyle 방법으로 Facial Destylization 을 적용할 경우 학습 시간을 기존 연구의 방법보다 20 배 이상 개선할 수 있으며 그 결과 1000 개 이하의 적은 데이터와 1~2 시간의 추가 학습만으로도 원하는 타겟 초상화 스타일에 대해 1024×1024 수준의 고해상도의 예시 기반 초상화 스타일 전이 및 이미지 생성 모델을 학습할 수 있다.

  • PDF

적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구 (Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks)

  • 최희조;박구만
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권11호
    • /
    • pp.465-472
    • /
    • 2022
  • 본 연구에서는 기존의 동영상 합성 네트워크에 스타일 합성 네트워크를 접목시켜 동영상에 대한 스타일 합성의 한계점을 극복하고자 한다. 본 논문의 네트워크에서는 동영상 합성을 위해 스타일갠 학습을 통한 스타일 합성과 동영상 합성 네트워크를 통해 스타일 합성된 비디오를 생성하기 위해 네트워크를 학습시킨다. 인물의 시선이나 표정 등이 안정적으로 전이되기 어려운 점을 개선하기 위해 3차원 얼굴 복원기술을 적용하여 3차원 얼굴 정보를 이용하여 머리의 포즈와 시선, 표정 등의 중요한 특징을 제어한다. 더불어, 헤드투헤드++ 네트워크의 역동성, 입 모양, 이미지, 시선 처리에 대한 판별기를 각각 학습시켜 개연성과 일관성이 더욱 유지되는 안정적인 스타일 합성 비디오를 생성할 수 있다. 페이스 포렌식 데이터셋과 메트로폴리탄 얼굴 데이터셋을 이용하여 대상 얼굴의 일관된 움직임을 유지하면서 대상 비디오로 변환하여, 자기 얼굴에 대한 3차원 얼굴 정보를 이용한 비디오 합성을 통해 자연스러운 데이터를 생성하여 성능을 증가시킴을 확인했다.

생성적 적대 신경망을 활용한 부분 위변조 이미지 생성에 관한 연구 (A Study on Image Creation and Modification Techniques Using Generative Adversarial Neural Networks)

  • 송성헌;최봉준;문미경
    • 한국전자통신학회논문지
    • /
    • 제17권2호
    • /
    • pp.291-298
    • /
    • 2022
  • 생성적 적대 신경망(Generative Adversarial Networks, GAN)은 내부의 두 신경망(생성망, 판별망)이 상호 경쟁하면서 학습하는 네트워크이다. 생성자는 현실과 가까운 이미지를 만들고, 구분자는 생성자의 이미지를 더 잘 감별하도록 프로그래밍 되어있다. 이 기술은 전체 이미지 X를 다른 이미지 Y로 생성, 변환 및 복원하기 위해 다양하게 활용되고 있다. 본 논문에서는 원본 이미지에서 부분 이미지만 추출한 후, 이를 자연스럽게 다른 객체로 위변조할 수 있는 방법에 관해 기술한다. 먼저 원본 이미지에서 부분 이미지만 추출한 후, 기존에 학습시켜놓은 DCGAN 모델을 통해 새로운 이미지를 생성하고, 이를 전체적 스타일 전이(overall style transfer) 기술을 사용하여 원본 이미지의 질감과 크기에 어울리도록 리스타일링(re-styling) 한 후, 원본 이미지에 자연스럽게 결합하는 과정을 거친다. 본 연구를 통해 원본 이미지의 특정 부분에 사용자가 원하는 객체 이미지를 자연스럽게 추가/변형할 수 있음으로써 가짜 이미지 생성의 또 다른 활용 분야로 사용될 수 있을 것이다.