• 제목/요약/키워드: StyleGAN

검색결과 44건 처리시간 0.035초

GAN을 활용한 인테리어 스타일 변환 모델에 관한 연구 (A study of interior style transformation with GAN model)

  • 최준혁;이제승
    • 한국BIM학회 논문집
    • /
    • 제12권1호
    • /
    • pp.55-61
    • /
    • 2022
  • Recently, demand for designing own space is increasing as the rapid growth of home furnishing market. However, there is a limitation that it is not easy to compare the style between before construction view and after view. This study aims to translate real image into another style with GAN model learned with interior images. To implement this, first we established style criteria and collected modern, natural, and classic style images, and experimented with ResNet, UNet, Gradient penalty concept to CycleGAN algorithm. As a result of training, model recognize common indoor image elements, such as floor, wall, and furniture, and suitable color, material was converted according to interior style. On the other hand, the form of furniture, ornaments, and detailed pattern expressions are difficult to be recognized by CycleGAN model, and the accuracy lacked. Although UNet converted images more radically than ResNet, it was more stained. The GAN algorithm allowed us to represent results within 2 seconds. Through this, it is possible to quickly and easily visualize and compare the front and after the interior space style to be constructed. Furthermore, this GAN will be available to use in the design rendering include interior.

A Study on GAN Algorithm for Restoration of Cultural Property (pagoda)

  • Yoon, Jin-Hyun;Lee, Byong-Kwon;Kim, Byung-Wan
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권1호
    • /
    • pp.77-84
    • /
    • 2021
  • 오늘날 문화재 복원은, 기존 자료와 전문가에 의존하는 것과 더불어 최신 IT 기술을 적용하여 복원하고 있다. 하지만 새로운 자료가 나와서 기존 복원이 틀리게 되는 경우, 복원하는데 너무 오랜 시간이 걸릴 때도 있다. 그리고 예상과 다른 결과가 나올 가능성도 있다. 이에 우리는 중요 문화재의 복원을 인공지능을 이용하여 빠르게 복원을 해 보고자 한다. 최근에 Generative Adversarial Networks(GANs) 알고리즘에서 DcGAN[2] 알고리즘이 나오면서 이미지 생성, 복원 분야가 지속해서 발전하고 있다. 이에 본 연구에서는 다양한 GAN 알고리즘을 문화재 복원에 GAN 알고리즘을 적용해 보았다. DcGAN과 StyleGAN을 적용하였으며, 유의미한 결과를 얻었다. GAN 알고리즘 중 DCGAN과 Style GAN 알고리즘을 실험한 결과 DCGAN 알고리즘은 학습이 진행되었으며, 낮은 해상도로 탑 이미지가 생성되는 것을 확인했다. 그리고 Style GAN 알고리즘에서도 역시 학습이 진행 되었으며, 탑 이미지가 생성되었다. 결론적으로 GAN 알고리즘을 사용하여 높은 해상도의 탑 이미지를 구할 수 있게 되었다.

Med-StyleGAN2: 의료 영상 생성을 위한 GAN 기반의 합성 데이터 생성 (Med-StyleGAN2: A GAN-Based Synthetic Data Generation for Medical Image Generation)

  • 최재하;김성연;변해린;이세연;이정수
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.904-905
    • /
    • 2023
  • 본 논문에서는 의료 영상 생성을 위한 Med-StyleGAN2를 제안한다. 생성적 적대 신경망은 이미지 생성에는 효과적이지만, 의료 영상 생성에는 한계점을 가지고 있다. 따라서 본 연구에서는 의료 영상 생성에 특화된 StyleGAN 기반 학습 모델을 제안한다. 이는 다양한 의료 영상 어플리케이션에 활용할 수 있으며, 생성된 의료 영상에 대한 정량적, 정성적 평가를 수행함으로써 의료 영상 생성 분야의 발전 가능성에 대해 연구한다.

합성곱신경망 기반의 StyleGAN 이미지 탐지모델 (A StyleGAN Image Detection Model Based on Convolutional Neural Network)

  • 김지연;홍승아;김하민
    • 한국멀티미디어학회논문지
    • /
    • 제22권12호
    • /
    • pp.1447-1456
    • /
    • 2019
  • As artificial intelligence technology is actively used in image processing, it is possible to generate high-quality fake images based on deep learning. Fake images generated using GAN(Generative Adversarial Network), one of unsupervised learning algorithms, have reached levels that are hard to discriminate from the naked eye. Detecting these fake images is required as they can be abused for crimes such as illegal content production, identity fraud and defamation. In this paper, we develop a deep-learning model based on CNN(Convolutional Neural Network) for the detection of StyleGAN fake images. StyleGAN is one of GAN algorithms and has an excellent performance in generating face images. We experiment with 48 number of experimental scenarios developed by combining parameters of the proposed model. We train and test each scenario with 300,000 number of real and fake face images in order to present a model parameter that improves performance in the detection of fake faces.

Re-Destyle: 개선된 Facial Destylization 을 활용한 예시 기반 신경망 스타일 전이 연구 (Re-Destyle: Exemplar-Based Neural Style Transfer using Improved Facial Destylization)

  • 유주원
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.1339-1342
    • /
    • 2022
  • 예술적 스타일 전이는 예술 작품이 지닌 특징을 다른 이미지에 적용하는 이미지 처리의 오랜 화두 중 하나로, 최근에는 StyleGAN 과 같이 미리 학습된 GAN(생성적 적대 신경망)을 통해 제한된 데이터로도 고해상도의 예술적 초상화를 생성하도록 학습하는 연구가 다양한 방면에서 성과를 내고 있다. 본 논문에서는 2 가지 경로의 StyleGAN과 Facial Destylization 을 통해 고해상도의 예시 기반 스타일 전이를 달성한 DualStyleGAN 연구에 대해 소개하고, 기존 연구에서 사용된 Facial Destylization 방법이 지닌 한계점을 분석한 뒤, 이를 개선한 새로운 방법, Re-Destyle을 제안한다. 새로운 Re-Destyle 방법으로 Facial Destylization 을 적용할 경우 학습 시간을 기존 연구의 방법보다 20 배 이상 개선할 수 있으며 그 결과 1000 개 이하의 적은 데이터와 1~2 시간의 추가 학습만으로도 원하는 타겟 초상화 스타일에 대해 1024×1024 수준의 고해상도의 예시 기반 초상화 스타일 전이 및 이미지 생성 모델을 학습할 수 있다.

  • PDF

StyleGAN을 이용한 미래 2세대 얼굴 예측 웹 서비스 (Future 2nd generation face prediction web service using StyleGAN)

  • 김황;김민정;이지현;정진아;김동욱;곽호영
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.329-330
    • /
    • 2024
  • 최근 생성형 AI에 대한 수요가 상승하고 있으며, MZ세대의 자기애 성향으로 자신의 얼굴을 활용한 미디어 콘텐츠에 대한 호기심이 높아지고 있다. 이에 따라 본 논문에서는 MZ세대의 창의성과 미디어 소비를 고취시키기 위해, StyleGAN 기술을 중심으로 자신과 닮은 2세의 가상 모습을 생성하는 웹 서비스를 설계하고 구현하였다.

  • PDF

A Multi-domain Style Transfer by Modified Generator of GAN

  • Lee, Geum-Boon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권7호
    • /
    • pp.27-33
    • /
    • 2022
  • 본 논문은 콘텐츠 이미지에 스타일 이미지를 입혀 스타일이 적용된 이미지를 생성하고자 기존의 이미지 대 이미지 방법이 아닌 다중 도메인 스타일 트랜스퍼(style transfer) 방법을 적용한다. 도메인별로 데이터 분포에 대한 다양한 특성을 고려하고, 콘텐츠 데이터의 특징을 잘 보존하면서 높은 품질의 이미지가 생성되도록 잠재 벡터(latent vector)와 가우시안 노이즈를 추가하는 새로운 GAN의 생성자(generator) 아키텍처를 제안한다. 콘텐츠 이미지가 도메인별 스타일을 잘 학습할 수 있도록 네트워크를 구성하고 사계절 이미지로 구성된 도메인에 적용하여 고해상도의 스타일 트랜스퍼 결과를 보여준다.

StyleGAN Encoder를 활용한 표정 이미지 생성에서의 연령 왜곡 감소에 대한 연구 (A study on age distortion reduction in facial expression image generation using StyleGAN Encoder)

  • 이희열;이승호
    • 전기전자학회논문지
    • /
    • 제27권4호
    • /
    • pp.464-471
    • /
    • 2023
  • 본 논문에서는 StyleGAN Encoder를 활용한 표정 이미지 생성에서의 연령 왜곡을 감소시키는 방법을 제안한다. 표정 이미지 생성 과정은 StyleGAN Encoder를 사용하여 얼굴 이미지를 생성하고, SVM을 이용하여 학습된 boundary를 잠재 벡터에 적용하여 표정을 변화시킨다. 그러나 웃는 표정의 boundary를 학습할 때 표정 변화에 따른 연령 왜곡이 발생한다. 웃는 표정에 대한 SVM 학습에서 생성된 smile boundary는 표정 변화로 인해 생긴 주름이 학습 요소로 포함되어 있으며 연령에 대한 특성도 함께 학습된 것으로 판단한다. 이를 해결하기 위해, 제안된 방법에서는 smile boundary와 age boundary의 상관계수를 계산하고, 이를 이용하여 smile boundary에서 age boundary를 상관계수에 비례하여 조절하는 방식을 도입한다. 제안된 방법의 효과를 확인하기 위해 공개된 표준 얼굴 데이터셋인 FFHQ 데이터셋을 사용하고 FID score를 측정하여 실험한 결과는 다음과 같다. Smile 이미지에서는 기존 방법에 비하여, Ground Truth와 제안된 방법으로 생성된 smile 이미지의 FID score가 약 0.46 향상되었다. 또한, Smile 이미지에서 기존 방법에 비하여, StyleGAN Encoder로 생성된 이미지와 제안된 방법으로 생성된 smile 이미지의 FID score가 약 1.031 향상되었다. Non-smile 이미지에서는 기존 방법에 비하여, Ground Truth와 본 논문에서 제안된 방법으로 생성된 non-smile 이미지의 FID score가 약 2.25 향상되었다. 또한, Non-smile 이미지에서 기존 방법에 비하여, StyleGAN Encoder로 생성된 이미지와 제안된 방법으로 생성된 non-smile 이미지의 FID score가 약 약 1.908 향상됨을 확인하였다. 한편, 각 생성된 표정 이미지의 연령을 추정하여 StyleGAN Encoder로 생성된 이미지의 추정된 연령과 MSE를 측정한 결과, 기존방법 대비 제안하는 방법이 smile 이미지에서 약 1.5, non-smile 이미지에서 약 1.63의 성능 향상되어 제안한 방법에 대한 성능의 효율성이 입증되었다.

다중 스케일 영상을 이용한 GAN 기반 영상 간 변환 기법 (GAN-based Image-to-image Translation using Multi-scale Images)

  • 정소영;정민교
    • 문화기술의 융합
    • /
    • 제6권4호
    • /
    • pp.767-776
    • /
    • 2020
  • GcGAN은 기하학적 일관성을 유지하며 영상 간 스타일을 변환하는 딥러닝 모델이다. 그러나 GcGAN은 회전이나 반전(flip) 등의 한정적인 기하 변환으로 영상의 형태를 보존하기 때문에 영상의 세밀한 형태 정보를 제대로 유지하지 못하는 단점을 가지고 있다. 그래서 본 연구에서는 이런 단점을 개선한 새로운 영상 간 변환 기법인 MSGcGAN(Multi-Scale GcGAN)을 제안한다. MSGcGAN은 GcGAN을 확장한 모델로서, 다중 스케일의 영상을 동시에 학습하여 스케일 불변 특징을 추출함으로써, 영상의 의미적 왜곡을 줄이고 세밀한 정보를 유지하는 방향으로 영상 간 스타일 변환을 수행한다. 실험 결과에 의하면 MSGcGAN은 GcGAN보다 정량적 정성적 측면에서 모두 우수하였고, 영상의 전체적인 형태 정보를 잘 유지하면서 스타일을 자연스럽게 변환함을 확인할 수 있었다.

Frontal Face Generation Algorithm from Multi-view Images Based on Generative Adversarial Network

  • Heo, Young- Jin;Kim, Byung-Gyu;Roy, Partha Pratim
    • Journal of Multimedia Information System
    • /
    • 제8권2호
    • /
    • pp.85-92
    • /
    • 2021
  • In a face, there is much information of person's identity. Because of this property, various tasks such as expression recognition, identity recognition and deepfake have been actively conducted. Most of them use the exact frontal view of the given face. However, various directions of the face can be observed rather than the exact frontal image in real situation. The profile (side view) lacks information when comparing with the frontal view image. Therefore, if we can generate the frontal face from other directions, we can obtain more information on the given face. In this paper, we propose a combined style model based the conditional generative adversarial network (cGAN) for generating the frontal face from multi-view images that consist of characteristics that not only includes the style around the face (hair and beard) but also detailed areas (eye, nose, and mouth).