• Title/Summary/Keyword: DCGAN

Search Result 32, Processing Time 0.032 seconds

Colorization of gray image Using DCGAN (DCGAN기반의 흑백 이미지의 색상화)

  • Kim, Do-Hyoung;Song, Kwan-Dong;Wi, Seung-Ok;Kim, Ji-Hee;Jeon, Gwang-Gil
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.1016-1018
    • /
    • 2019
  • 흑백 1채널 이미지를 3 채널 이미지로 색상화하고 Super-Resolution하여 의미 있는 정보 얻도록 한다. CCTV, 군사용 카메라, 차량용 블랙박스 등 많은 분야에서 주간에 촬영된 영상은 컬러 이미지로 많은 정보를 얻을 수 있다. 하지만 야간에 촬영된 영상은 빛이 없어서 영상에서 정보를 얻기가 원활하지 않다. 따라서 DCGAN을 통해 단일 채널의 흑백 이미지를 3채널의 색상화 이미지로 만들고, Super-Resolution 기술을 적용해서 해상도를 높여 가시광선이 없는 야간이나 어두운 공간에서도 의미있는 영상을 얻을 수 있도록 한다.

An XAI approach based on Grad-CAM to analyze learning criteria for DCGANS (DCGAN의 학습 기준을 분석하기 위한 Grad-CAM 기반의 XAI 접근 방법)

  • Jin-Ju Ok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.479-480
    • /
    • 2023
  • 생성형 인공지능은 학습의 기준을 파악하기 어려운 모델이다. 그 중 DCGAN을 분석하여 판별자를 통해 생성자의 학습 기준을 판단할 수 있는 하나의 방법을 제안하고자 한다. 그 과정에서 XAI 기법인 Grad-CAM을 활용하여 학습 시에 모델이 중요시하는 부분을 분석하여 적합한 학습과 학습에 적합하지 않은 데이터를 분석하는 방법을 소개하고자 한다.

Depth Image Restoration Using Generative Adversarial Network (Generative Adversarial Network를 이용한 손실된 깊이 영상 복원)

  • Nah, John Junyeop;Sim, Chang Hun;Park, In Kyu
    • Journal of Broadcast Engineering
    • /
    • v.23 no.5
    • /
    • pp.614-621
    • /
    • 2018
  • This paper proposes a method of restoring corrupted depth image captured by depth camera through unsupervised learning using generative adversarial network (GAN). The proposed method generates restored face depth images using 3D morphable model convolutional neural network (3DMM CNN) with large-scale CelebFaces Attribute (CelebA) and FaceWarehouse dataset for training deep convolutional generative adversarial network (DCGAN). The generator and discriminator equip with Wasserstein distance for loss function by utilizing minimax game. Then the DCGAN restore the loss of captured facial depth images by performing another learning procedure using trained generator and new loss function.

Color Noise Detection and Image Restoration for Low Illumination Environment (저조도 환경 기반 색상 잡음 검출 및 영상 복원)

  • Oh, Gyoheak;Lee, Jaelin;Jeon, Byeungwoo
    • Journal of Broadcast Engineering
    • /
    • v.26 no.1
    • /
    • pp.88-98
    • /
    • 2021
  • Recently, the crime prevention and culprit identification even in a low illuminated environment by CCTV is becoming ever more important. In a low lighting situation, CCTV applications capture images under infrared lighting since it is unobtrusive to human eye. Although the infrared lighting leads to advantage of capturing an image with abundant fine texture information, it is hard to capture the color information which is very essential in identifying certain objects or persons in CCTV images. In this paper, we propose a method to acquire color information through DCGAN from an image captured by CCTV in a low lighting environment with infrared lighting and a method to remove color noise in the acquired color image.

DCGAN-based Emoji Generation exploiting Adjustment of Latent vector Representation (Latent vector 분포 조정을 활용한 DCGAN 기반 이모지 생성 기법)

  • Yun-Gyeong Song;Yu-Jin Ha;A-Yeong Seong;Gun-Woo Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.603-605
    • /
    • 2023
  • 최근 SNS 의 발달로 인해 자신의 감정을 빠르고 효과적으로 전달할 수 있는 이모지의 중요성이 커지고 있다. 하지만 이모지를 수동으로 생성하기 위해서 시간과 비용이 많이 들고 자신의 감정에 맞는 이모지를 찾아야 하며 해당 이모지가 없을 수 있다. 기존 DCGAN 을 활용한 이모지 자동 생성연구에서는 부족한 데이터셋으로 인해 G(Generator)와 D(Discriminator)가 동등하게 학습하지 못해서 두 모델 간 성능 차이가 발생한다. D 가 G 보다 최적해에 빠르게 수렴하여 G 가 학습이 되지 않아 낮은 품질의 이모지를 생성하는 불안정 문제가 발생한다. 이 문제를 해결하기 위해 본 논문에서는 Latent vector 분포를 데이터셋에 맞게 조정하여 적은 데이터로 G 에서 안정적으로 학습할 수 있게 하는 G 구조와 다양한 이모지 생성을 위한 Latent vector 평균 조정 기법을 제안한다. 비교 실험 결과 불안정 문제를 개선하였고 FID 와 IS 수치를 통해 성능 개선 효과를 검증했다.

Context-Sensitive Spelling Error Correction Techniques in Korean Documents using Generative Adversarial Network (생성적 적대 신경망(GAN)을 이용한 한국어 문서에서의 문맥의존 철자오류 교정)

  • Lee, Jung-Hun;Kwon, Hyuk-Chul
    • Journal of Korea Multimedia Society
    • /
    • v.24 no.10
    • /
    • pp.1391-1402
    • /
    • 2021
  • This paper focuses use context-sensitive spelling error correction using generative adversarial network. Generative adversarial network[1] are attracting attention as they solve data generation problems that have been a challenge in the field of deep learning. In this paper, sentences are generated using word embedding information and reflected in word distribution representation. We experiment with DCGAN[2] used for the stability of learning in the existing image processing and D2GAN[3] with double discriminator. In this paper, we experimented with how the composition of generative adversarial networks and the change of learning corpus influence the context-sensitive spelling error correction In the experiment, we correction the generated word embedding information and compare the performance with the actual word embedding information.

High-performance of Deep learning Colorization With Wavelet fusion (웨이블릿 퓨전에 의한 딥러닝 색상화의 성능 향상)

  • Kim, Young-Back;Choi, Hyun;Cho, Joong-Hwee
    • IEMEK Journal of Embedded Systems and Applications
    • /
    • v.13 no.6
    • /
    • pp.313-319
    • /
    • 2018
  • We propose a post-processing algorithm to improve the quality of the RGB image generated by deep learning based colorization from the gray-scale image of an infrared camera. Wavelet fusion is used to generate a new luminance component of the RGB image luminance component from the deep learning model and the luminance component of the infrared camera. PSNR is increased for all experimental images by applying the proposed algorithm to RGB images generated by two deep learning models of SegNet and DCGAN. For the SegNet model, the average PSNR is improved by 1.3906dB at level 1 of the Haar wavelet method. For the DCGAN model, PSNR is improved 0.0759dB on the average at level 5 of the Daubechies wavelet method. It is also confirmed that the edge components are emphasized by the post-processing and the visibility is improved.

A Study on the Method of Tower Generation Using AI Technology (AI 기술을 이용한 탑 생성에 대한 방법에 대한 연구)

  • Ko, Byeongguk;Kang, Eunsu;Lee, JoSun;Choi, Hajin;Kim, Jun O;Lee, Byongkwon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.343-345
    • /
    • 2020
  • 본 논문에서는 AI 기술을 이용한 객체 생성을 위해 윈도우 환경에서 DCGAN 알고리즘을 사용한 객체 생성에 대한 방법을 제안한다. 이 방법은 아나콘다, 리눅스 등의 가상환경을 요구하지 않기 때문에 사전 환경구성시간을 최소화한다. 또한 이 방법은 Python을 기반으로 구현됐기 때문에 이해 및 추가개발 및 수정이 편리하다. 따라서 빠른 시간 내에 자신이 원하는 객체를 생성해낼 수 있는 시스템을 구축하는 방법을 제안한다.

  • PDF

Optimization function analysis for tower AI learning (탑 AI학습을 위한 최적화 기법 분석)

  • Choi, Hajin;Ko, Byeongguk;Lee, JoSun;Kang, Eunsu;Kim, Jun O;Lee, Byongkwon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.351-353
    • /
    • 2020
  • 본 논문에서는 우리나라에 있는 탑들이 손실된 경우가 많은데 탑의 손실된 부분을 복원하기 위한 방법을 제안한다. 우리나라에 존재하는 탑들은 보존이 잘 돼있는 것보다 안 돼있는 것이 많다. 손실된 탑들을 이미지 객체로 인식시킬 시에 GAN, DCGAN, SDADE등의 알고리즘과 기존의 연구 결과들을 적용시켜 보다 효과적인 방법을 찾는 것을 제안한다.

  • PDF

A Study on Image Creation and Modification Techniques Using Generative Adversarial Neural Networks (생성적 적대 신경망을 활용한 부분 위변조 이미지 생성에 관한 연구)

  • Song, Seong-Heon;Choi, Bong-Jun;Moon, M-Ikyeong
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.17 no.2
    • /
    • pp.291-298
    • /
    • 2022
  • A generative adversarial network (GAN) is a network in which two internal neural networks (generative network and discriminant network) learn while competing with each other. The generator creates an image close to reality, and the delimiter is programmed to better discriminate the image of the constructor. This technology is being used in various ways to create, transform, and restore the entire image X into another image Y. This paper describes a method that can be forged into another object naturally, after extracting only a partial image from the original image. First, a new image is created through the previously trained DCGAN model, after extracting only a partial image from the original image. The original image goes through a process of naturally combining with, after re-styling it to match the texture and size of the original image using the overall style transfer technique. Through this study, the user can naturally add/transform the desired object image to a specific part of the original image, so it can be used as another field of application for creating fake images.