• Title/Summary/Keyword: 스타일 전이

Search Result 206, Processing Time 0.03 seconds

A Normalized Loss Function of Style Transfer Network for More Diverse and More Stable Transfer Results (다양성 및 안정성 확보를 위한 스타일 전이 네트워크 손실 함수 정규화 기법)

  • Choi, Insung;Kim, Yong-Goo
    • Journal of Broadcast Engineering
    • /
    • v.25 no.6
    • /
    • pp.980-993
    • /
    • 2020
  • Deep-learning based style transfer has recently attracted great attention, because it provides high quality transfer results by appropriately reflecting the high level structural characteristics of images. This paper deals with the problem of providing more stable and more diverse style transfer results of such deep-learning based style transfer method. Based on the investigation of the experimental results from the wide range of hyper-parameter settings, this paper defines the problem of the stability and the diversity of the style transfer, and proposes a partial loss normalization method to solve the problem. The style transfer using the proposed normalization method not only gives the stability on the control of the degree of style reflection, regardless of the input image characteristics, but also presents the diversity of style transfer results, unlike the existing method, at controlling the weight of the partial style loss, and provides the stability on the difference in resolution of the input image.

Optimization of attention map based model for improving the usability of style transfer techniques

  • Junghye Min
    • Journal of the Korea Society of Computer and Information
    • /
    • v.28 no.8
    • /
    • pp.31-38
    • /
    • 2023
  • Style transfer is one of deep learning-based image processing techniques that has been actively researched recently. These research efforts have led to significant improvements in the quality of result images. Style transfer is a technology that takes a content image and a style image as inputs and generates a transformed result image by applying the characteristics of the style image to the content image. It is becoming increasingly important in exploiting the diversity of digital content. To improve the usability of style transfer technology, ensuring stable performance is crucial. Recently, in the field of natural language processing, the concept of Transformers has been actively utilized. Attention maps, which forms the basis of Transformers, is also being actively applied and researched in the development of style transfer techniques. In this paper, we analyze the representative techniques SANet and AdaAttN and propose a novel attention map-based structure which can generate improved style transfer results. The results demonstrate that the proposed technique effectively preserves the structure of the content image while applying the characteristics of the style image.

Super High-Resolution Image Style Transfer (초-고해상도 영상 스타일 전이)

  • Kim, Yong-Goo
    • Journal of Broadcast Engineering
    • /
    • v.27 no.1
    • /
    • pp.104-123
    • /
    • 2022
  • Style transfer based on neural network provides very high quality results by reflecting the high level structural characteristics of images, and thereby has recently attracted great attention. This paper deals with the problem of resolution limitation due to GPU memory in performing such neural style transfer. We can expect that the gradient operation for style transfer based on partial image, with the aid of the fixed size of receptive field, can produce the same result as the gradient operation using the entire image. Based on this idea, each component of the style transfer loss function is analyzed in this paper to obtain the necessary conditions for partitioning and padding, and to identify, among the information required for gradient calculation, the one that depends on the entire input. By structuring such information for using it as auxiliary constant input for partition-based gradient calculation, this paper develops a recursive algorithm for super high-resolution image style transfer. Since the proposed method performs style transfer by partitioning input image into the size that a GPU can handle, it can perform style transfer without the limit of the input image resolution accompanied by the GPU memory size. With the aid of such super high-resolution support, the proposed method can provide a unique style characteristics of detailed area which can only be appreciated in super high-resolution style transfer.

Fashion Search Service Using Transfer Learning (전이 학습을 이용한 패션 스타일 검색 서비스)

  • Lee, Byeong-Jun;Sim, Ju-Yong;Lee, Jun-Yeong;Lee, Songwook
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.432-434
    • /
    • 2022
  • 우리는 전이 학습을 이용하여 원하는 특정 패션 스타일 분류기를 학습하였다. 패션 스타일 검색 결과물을 온라인 쇼핑몰과 연결하는 웹 서비스를 사용자에게 제공한다. 패션 스타일 분류기는 구글에서 이미지 검색을 통해 수집된 데이터를 이용하여 ResNet34[1]에 전이 학습하였다. 학습된 분류 모델을 이용하여 사용자 이미지로부터 패션 스타일을 17가지 클래스로 분류하였고 F1 스코어는 평균 65.5%를 얻었다. 패션 스타일 분류 결과를 네이버 쇼핑몰과 연결하여 사용자가 원하는 패션 상품을 구매할 수 있는 서비스를 제공한다.

Re-Destyle: Exemplar-Based Neural Style Transfer using Improved Facial Destylization (Re-Destyle: 개선된 Facial Destylization 을 활용한 예시 기반 신경망 스타일 전이 연구)

  • Yoo, Joowon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.1339-1342
    • /
    • 2022
  • 예술적 스타일 전이는 예술 작품이 지닌 특징을 다른 이미지에 적용하는 이미지 처리의 오랜 화두 중 하나로, 최근에는 StyleGAN 과 같이 미리 학습된 GAN(생성적 적대 신경망)을 통해 제한된 데이터로도 고해상도의 예술적 초상화를 생성하도록 학습하는 연구가 다양한 방면에서 성과를 내고 있다. 본 논문에서는 2 가지 경로의 StyleGAN과 Facial Destylization 을 통해 고해상도의 예시 기반 스타일 전이를 달성한 DualStyleGAN 연구에 대해 소개하고, 기존 연구에서 사용된 Facial Destylization 방법이 지닌 한계점을 분석한 뒤, 이를 개선한 새로운 방법, Re-Destyle을 제안한다. 새로운 Re-Destyle 방법으로 Facial Destylization 을 적용할 경우 학습 시간을 기존 연구의 방법보다 20 배 이상 개선할 수 있으며 그 결과 1000 개 이하의 적은 데이터와 1~2 시간의 추가 학습만으로도 원하는 타겟 초상화 스타일에 대해 1024×1024 수준의 고해상도의 예시 기반 초상화 스타일 전이 및 이미지 생성 모델을 학습할 수 있다.

  • PDF

Algorithm development for texture and color style transfer of cultural heritage images (문화유산 이미지의 질감과 색상 스타일 전이를 위한 알고리즘 개발 연구)

  • Baek Seohyun;Cho Yeeun;Ahn Sangdoo;Choi Jongwon
    • Conservation Science in Museum
    • /
    • v.31
    • /
    • pp.55-70
    • /
    • 2024
  • Style transfer algorithms are currently undergoing active research and are used, for example, to convert ordinary images into classical painting styles. However, such algorithms have yet to produce appropriate results when applied to Korean cultural heritage images, while the number of cases for such applications also remains insufficient. Accordingly, this study attempts to develop a style transfer algorithm that can be applied to styles found among Korean cultural heritage. The algorithm was produced by improving data comprehension by enabling it to learn meaningful characteristics of the styles through representation learning and to separate the cultural heritage from the background in the target images, allowing it to extract the style-relevant areas with the desired color and texture from the style images. This study confirmed that, by doing so, a new image can be created by effectively transferring the characteristics of the style image while maintaining the form of the target image, which thereby enables the transfer of a variety of cultural heritage styles.

Color Transfer Based on Image Segmentation (영상 분할 기반의 색상 전이)

  • Heo, Jun-Young;Lee, Yun-Jin;Lee, Seung-Yong
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.786-791
    • /
    • 2006
  • 색상 전이는 스타일 전이, 색이 바랜 사진의 복원, 색상화, 색상의 보정에 사용될 수 있는 기법이다. 본 연구에서는 기존 색상 전이의 문제점을 해결하기 위해서 영상 분할 기반의 색상전이 기법을 제시한다. 영상에서 색상의 가장 의미있는 최소 단위를 픽셀로 보고 있는 기존 연구에 반해서, 본 연구에서는 영상 조각을 영상에서 가장 의미 있는 최소 단위로 보고 색상 전이를 수행한다. 영상 분할 기반의 색상 전이를 통해서 기존 연구에서 발생할 수 있었던 픽셀간의 코헤런스 문제를 해결한다. 또한 영상 분할 기반으로 했을 때에 생길 수 있는 경계 문제를 해결하기 위한 새로운 방법을 제시한다. 제시된 기법을 이용해서 색상 전이의 응용인 스타일 전이에 적용한다.

  • PDF

Real-time Style Transfer for Video (실시간 비디오 스타일 전이 기법에 관한 연구)

  • Seo, Sang Hyun
    • Smart Media Journal
    • /
    • v.5 no.4
    • /
    • pp.63-68
    • /
    • 2016
  • Texture transfer is a method to transfer the texture of an input image into a target image, and is also used for transferring artistic style of the input image. This study presents a real-time texture transfer for generating artistic style video. In order to enhance performance, this paper proposes a parallel framework using T-shape kernel used in general texture transfer on GPU. To accelerate motion computation time which is necessarily required for maintaining temporal coherence, a multi-scaled motion field is proposed in parallel concept. Through these approach, an artistic texture transfer for video with a real-time performance is archived.

Engineering a deep-generative model for lyric writing based upon a style transfer of song writers (심층생성모델 기반 가수 스타일 전이형 작사 모델 구현)

  • Hong, Hye-Jin;Kim, So-Hyeon;Lee, Jee Hang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.741-744
    • /
    • 2021
  • 본 논문은 사전 학습된 심층생성모델을 기반으로 가수 별 가사의 특성을 반영하여 새로운 가사를 생성하는 모델을 소개한다. 베이스 모델로 한국어 사전 학습 모델 KoGPT-2 를 사용하였으며, 총 가수 10 명의 노래 823 곡을 수집하여 미세조정 기법을 바탕으로 학습하였다. 특히, 가수 별로 구분한 가사를 학습 데이터로 구축하여, 가수 별로 독특하게 나타나는 가사 스타일이 전이되도록 하였다. 가수의 이름과 시작 단어를 입력으로 주고 작사를 수행한 실험 결과, (i) 가수 별로 생성되는 가사의 어휘와 스타일이 그 가수의 기존 곡들의 가사와 유사함을 확인하였고, (ii) 작사 결과 가수 별 차이를 확인하였다. 추후 설문을 통해, 개별 가수들의 가사와 생성된 가사의 어휘와 스타일 유사성을 확인하고, 가수 별 차이 또한 확인하고자 한다.

Enhancement of English-to-Korean Translation Quality by Korean Style Generation Patterns (한국어 스타일 생성 패턴에 의한 영한 번역 품질 개선)

  • Choi, Sung-Kwon;Hong, Mun-Pyo;Park, Sang-Kyu
    • Annual Conference on Human and Language Technology
    • /
    • 2003.10d
    • /
    • pp.235-240
    • /
    • 2003
  • 본 논문에서는 영한 자동번역 시스템에 한국어 스타일 생성 패턴을 적용함으로써 영한 번역 품질을 향상하고자 하는 것이 목표이다. 이러한 목표는 기존의 원문에 대한 번역문의 정보 전달 정확성을 측정하는 1차원적인 번역률 평가 방법에서 벗어나 번역문의 정보 정확성뿐만 아니라 자연스러움도 평가할 수 있는 2차원적인 번역률 평가방법으로써 정확성과 스타일을 동시에 평가하는 방법을 제안한다. 2차원적인 번역률 평가 방법에 따라 스타일 생성 패턴이 적용되기 전과 적용된 후의 평가 결과는 100문자의 샘플문을 대상으로 하였을 때, 스타일 생성 패턴에 의해서만 0.5%의 번역률이 향상되는 것을 관찰하였다. 본 논문에서의 스타일 생성 패턴은 단순히 언어간 스타일 차이만 적용한 것이며 향후에는 신문, 일기예보, 기술 매뉴얼과 같은 특정 그룹을 위한 스타일 생성 패턴을 적용할 계획이다.

  • PDF