• 제목/요약/키워드: 스타일변환

Search Result 77, Processing Time 0.031 seconds

Improving Performance of Sentiment Classification using Korean Style Transfer based Data Augmentation (한국어 스타일 변환 기반 데이터 증강을 이용한 감성 분류 성능 향상)

  • Eunwoo Go;Eunchan Lee;Sangtae Ahn
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.480-484
    • /
    • 2022
  • 텍스트 분류는 입력받은 텍스트가 어느 종류의 범주에 속하는지 구분하는 것이다. 분류 모델에 있어서 좋은 성능을 나타내기 위해서는 충분한 양의 데이터 셋이 필요함을 많은 연구에서 보이고 있다. 이에 따라 데이터 증강기법을 소개하는 많은 연구가 진행되었지만, 실제로 사용하기 위한 모델에 곧바로 적용하기에는 여러 가지 문제점들이 존재한다. 본 논문에서는 데이터 증강을 위해 스타일 변환 기법을 이용하였고, 그 결과 기존 방법 대비 한국어 감성 분류의 성능을 높였다.

  • PDF

Image Recomposition System Using Segmentation and Style-transfer (세그먼테이션과 스타일 변환을 활용한 영상 재구성 시스템)

  • Bang, Yeonjun;Lee, Yeejin;Park, Juhyeong;Kang, Byeongkeun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.19-22
    • /
    • 2021
  • 기존 영상 콘텐츠에 새로운 물체를 삽입하는 등의 영상 재구성 기술은 새로운 게임, 가상현실, 증강현실 콘텐츠를 생성하거나 인공신경망 학습을 위한 데이터 증대를 위해 사용될 수 있다. 하지만, 기존 기술은 컴퓨터 그래픽스, 사람에 의한 수동적인 영상 편집에 의존하고 있어 금전적/시간적 비용이 높다. 이에 본 연구에서는 인공지능 신경망을 활용하여 낮은 비용으로 영상을 재구성하는 기술을 소개하고자 한다. 제안하는 방법은 기존 콘텐츠와 삽입하고자 하는 객체를 포함하는 영상이 주어졌을 때, 객체 세그먼테이션 네트워크를 활용하여 입력 영상에서 객체를 분리하고, 스타일 변환 네트워크를 활용하여 입력 영상을 스타일 변환한 후, 사용자 입력과 두 네트워크의 결과를 활용하여 기존 콘텐츠에 새로운 객체를 삽입하는 것이다. 실험에서는 기존 콘텐츠는 온라인 영상을 활용하였으며 삽입 객체를 포함한 영상은 ImageNet 영상 분류 데이터 세트를 활용하였다. 실험을 통해 제안한 방법을 활용하면 기존 콘텐츠와 잘 어우러지게끔 객체를 삽입할 수 있음을 보인다.

  • PDF

Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks (적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구)

  • Choi, Hee Jo;Park, Goo Man
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.11
    • /
    • pp.465-472
    • /
    • 2022
  • In this paper, the style synthesis network is trained to generate style-synthesized video through the style synthesis through training Stylegan and the video synthesis network for video synthesis. In order to improve the point that the gaze or expression does not transfer stably, 3D face restoration technology is applied to control important features such as the pose, gaze, and expression of the head using 3D face information. In addition, by training the discriminators for the dynamics, mouth shape, image, and gaze of the Head2head network, it is possible to create a stable style synthesis video that maintains more probabilities and consistency. Using the FaceForensic dataset and the MetFace dataset, it was confirmed that the performance was increased by converting one video into another video while maintaining the consistent movement of the target face, and generating natural data through video synthesis using 3D face information from the source video's face.

Biological sequence file format transfer based on xml technique (XML기반의 생물학적 서열 파일 포맷 변환 메카니즘)

  • 이영화;박성희;김진수;류근호
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10c
    • /
    • pp.157-159
    • /
    • 2002
  • 현재 생명 정보는 웹 상에서 다양한 포맷으로 배포되고 있다. 이러한 생명 정보 분석을 위한 데이터베이스나 시스템마다 이질적인 포맷을 지원하고 있기 때문에 각 시스템에서 이용되는 포맷들간의 변환이 필요하다. 이러한 생명 정보의 포맷 변환은 1대1의 파서를 구현하여 진행하고 있으며 1:1 파서의 구현에는 많은 시간과 비용이 소모된다. 따라서, 이 논문에서는 생명 정보를 XML로 표현하고 이질적인 포맷간의 매핑 정보를 데이터베이스에 저장한다. 이러한 매핑 정보를 XML의 스타일 시트로 나타내어 최종적으로 원하는 포맷으로 변환한다. 이렇게 포맷 변환에 XML기술을 이용함으로써 파서를 구현할 필요가 없이 매핑 정보를 스타일 시트로 기술하면 되기 때문에 구현이 용이하며, 원시 소스가 변경되었을 때 소스 전체를 수정할 필요가 없이 수정한 필드의 매핑 정보만 수정하고 그에 따라서 XSL을 수정하면 되기 때문에 원시 소스 변경의 영향을 많이 받지 않는다.

  • PDF

GAN-based Image-to-image Translation using Multi-scale Images (다중 스케일 영상을 이용한 GAN 기반 영상 간 변환 기법)

  • Chung, Soyoung;Chung, Min Gyo
    • The Journal of the Convergence on Culture Technology
    • /
    • v.6 no.4
    • /
    • pp.767-776
    • /
    • 2020
  • GcGAN is a deep learning model to translate styles between images under geometric consistency constraint. However, GcGAN has a disadvantage that it does not properly maintain detailed content of an image, since it preserves the content of the image through limited geometric transformation such as rotation or flip. Therefore, in this study, we propose a new image-to-image translation method, MSGcGAN(Multi-Scale GcGAN), which improves this disadvantage. MSGcGAN, an extended model of GcGAN, performs style translation between images in a direction to reduce semantic distortion of images and maintain detailed content by learning multi-scale images simultaneously and extracting scale-invariant features. The experimental results showed that MSGcGAN was better than GcGAN in both quantitative and qualitative aspects, and it translated the style more naturally while maintaining the overall content of the image.

Few-Shot Korean Font Generation based on Hangul Composability (한글 조합성에 기반한 최소 글자를 사용하는 한글 폰트 생성 모델)

  • Park, Jangkyoung;Ul Hassan, Ammar;Choi, Jaeyoung
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.10 no.11
    • /
    • pp.473-482
    • /
    • 2021
  • Although several Hangul generation models using deep learning have been introduced, they require a lot of data, have a complex structure, requires considerable time and resources, and often fail in style conversion. This paper proposes a model CKFont using the components of the initial, middle, and final components of Hangul as a way to compensate for these problems. The CKFont model is an end-to-end Hangul generation model based on GAN, and it can generate all Hangul in various styles with 28 characters and components of first, middle, and final components of Hangul characters. By acquiring local style information from components, the information is more accurate than global information acquisition, and the result of style conversion improves as it can reduce information loss. This is a model that uses the minimum number of characters among known models, and it is an efficient model that reduces style conversion failures, has a concise structure, and saves time and resources. The concept using components can be used for various image transformations and compositing as well as transformations of other languages.

Makeup transfer by applying a loss function based on facial segmentation combining edge with color information (에지와 컬러 정보를 결합한 안면 분할 기반의 손실 함수를 적용한 메이크업 변환)

  • Lim, So-hyun;Chun, Jun-chul
    • Journal of Internet Computing and Services
    • /
    • v.23 no.4
    • /
    • pp.35-43
    • /
    • 2022
  • Makeup is the most common way to improve a person's appearance. However, since makeup styles are very diverse, there are many time and cost problems for an individual to apply makeup directly to himself/herself.. Accordingly, the need for makeup automation is increasing. Makeup transfer is being studied for makeup automation. Makeup transfer is a field of applying makeup style to a face image without makeup. Makeup transfer can be divided into a traditional image processing-based method and a deep learning-based method. In particular, in deep learning-based methods, many studies based on Generative Adversarial Networks have been performed. However, both methods have disadvantages in that the resulting image is unnatural, the result of makeup conversion is not clear, and it is smeared or heavily influenced by the makeup style face image. In order to express the clear boundary of makeup and to alleviate the influence of makeup style facial images, this study divides the makeup area and calculates the loss function using HoG (Histogram of Gradient). HoG is a method of extracting image features through the size and directionality of edges present in the image. Through this, we propose a makeup transfer network that performs robust learning on edges.By comparing the image generated through the proposed model with the image generated through BeautyGAN used as the base model, it was confirmed that the performance of the model proposed in this study was superior, and the method of using facial information that can be additionally presented as a future study.

Optimization of attention map based model for improving the usability of style transfer techniques

  • Junghye Min
    • Journal of the Korea Society of Computer and Information
    • /
    • v.28 no.8
    • /
    • pp.31-38
    • /
    • 2023
  • Style transfer is one of deep learning-based image processing techniques that has been actively researched recently. These research efforts have led to significant improvements in the quality of result images. Style transfer is a technology that takes a content image and a style image as inputs and generates a transformed result image by applying the characteristics of the style image to the content image. It is becoming increasingly important in exploiting the diversity of digital content. To improve the usability of style transfer technology, ensuring stable performance is crucial. Recently, in the field of natural language processing, the concept of Transformers has been actively utilized. Attention maps, which forms the basis of Transformers, is also being actively applied and researched in the development of style transfer techniques. In this paper, we analyze the representative techniques SANet and AdaAttN and propose a novel attention map-based structure which can generate improved style transfer results. The results demonstrate that the proposed technique effectively preserves the structure of the content image while applying the characteristics of the style image.

An Data Transmission Between Databases Using Intelligent Transformation of XML Documents (XML 문서 변환 지능형 시스템을 이용한 데이터베이스 간의 자료 전송)

  • Kim, Ho-Yoon;Lee, Jae-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11c
    • /
    • pp.1785-1788
    • /
    • 2002
  • 웹상의 데이터베이스 간의 서로 다른 속성 이름이 동일한 속성 값을 가진 경우에, 속성값의 전송이 필요한 경우가 있다. 본 논문은 이를 위해 XSL 스타일시트를 자동 생성하여 이용하며, XSL 스타일시트의 생성은 규칙 기반의 지능형 방법을 이용한다. 이 방법을 통하여 서로 다른 속성 이름을 갖는 다양한 데이터베이스 간의 데이터 전송이 유연하게 처리될 수 있다.

  • PDF

Cartoon Style Video Generation Using Physical Motion Analysis (물리적 운동 분석을 이용한 만화 스타일의 비디오 생성)

  • Lee, Sun-Young;Yoon, Jong-Chul;Lee, In-Kwon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.10a
    • /
    • pp.195-196
    • /
    • 2007
  • 우리는 비디오의 모션을 전통적인 애니메이션과 같은 스타일로 변환하는 시스템을 제안한다. 우리의 시스템은 비디오의 물리적인 상황에 맞게 자연스러운 변형을 손쉽게 적용할 수 있는 새로운 비디오의 만화화 방법이다. 선택된 비디오 오브젝트의 운동량, 운동방향, 힘과 같은 물리적인 요인들을 분석하여 물리적으로 타당한 변형을 적용함으로써 자연스러운 효과를 적용한다는 것이 장점이다.

  • PDF