• 제목/요약/키워드: dual discriminator GAN

검색결과 3건 처리시간 0.018초

생성적 적대 신경망(GAN)을 이용한 한국어 문서에서의 문맥의존 철자오류 교정 (Context-Sensitive Spelling Error Correction Techniques in Korean Documents using Generative Adversarial Network)

  • 이정훈;권혁철
    • 한국멀티미디어학회논문지
    • /
    • 제24권10호
    • /
    • pp.1391-1402
    • /
    • 2021
  • This paper focuses use context-sensitive spelling error correction using generative adversarial network. Generative adversarial network[1] are attracting attention as they solve data generation problems that have been a challenge in the field of deep learning. In this paper, sentences are generated using word embedding information and reflected in word distribution representation. We experiment with DCGAN[2] used for the stability of learning in the existing image processing and D2GAN[3] with double discriminator. In this paper, we experimented with how the composition of generative adversarial networks and the change of learning corpus influence the context-sensitive spelling error correction In the experiment, we correction the generated word embedding information and compare the performance with the actual word embedding information.

신제품 개발을 위한 GAN 기반 생성모델 성능 비교 (Performance Comparisons of GAN-Based Generative Models for New Product Development)

  • 이동훈;이세훈;강재모
    • 문화기술의 융합
    • /
    • 제8권6호
    • /
    • pp.867-871
    • /
    • 2022
  • 최근 빠른 유행의 변화 속에서 디자인의 변화는 패션기업의 매출에 큰 영향을 미치기 때문에 기업들은 신제품디자인 선택에 신중할 수밖에 없다. 최근 인공지능 분야의 발달에 따라 패션시장에서도 소비자들의 선호도를 높이기 위해 다양한 기계학습을 많이 활용하고 있다. 우리는 선호도와 같은 추상적인 개념을 수치화함으로써 신제품 개발에 신뢰성을 높이는 부분에 기여하고자 한다. 이를 위해 3가지 적대적 생성 신경망(Generative adversial netwrok, GAN)을 통하여 기존에 없는 새로운 이미지를 생성하고, 미리 훈련된 합성곱 신경망(Convolution neural networkm, CNN)을 이용하여 선호도라는 추상적인 개념을 수치화시켜 비교하였다. 심층 컨볼루션 적대적 생성 신경망(Deep convolutional generative adversial netwrok, DCGAN), 점진적 성장 적대적 생성 신경망(Progressive growing generative adversial netwrok, PGGAN), 이중 판별기 적대적 생성 신경망(Dual Discriminator generative adversial netwrok, D2GAN)의 3가지 방법을 통해 새로운 이미지를 생성하였고, 판매량이 높았던 제품으로 훈련된 합성곱 신경망으로 유사도를 비교, 측정하였다. 측정된 유사도의 정도를 선호도로 간주하였으며 실험 결과 D2GAN이 DCGAN, PGGAN에 비해 상대적으로 높은 유사도를 보여주었다.

Multiple Mixed Modes: Single-Channel Blind Image Separation

  • Tiantian Yin;Yina Guo;Ningning Zhang
    • Journal of Information Processing Systems
    • /
    • 제19권6호
    • /
    • pp.858-869
    • /
    • 2023
  • As one of the pivotal techniques of image restoration, single-channel blind source separation (SCBSS) is capable of converting a visual-only image into multi-source images. However, image degradation often results from multiple mixing methods. Therefore, this paper introduces an innovative SCBSS algorithm to effectively separate source images from a composite image in various mixed modes. The cornerstone of this approach is a novel triple generative adversarial network (TriGAN), designed based on dual learning principles. The TriGAN redefines the discriminator's function to optimize the separation process. Extensive experiments have demonstrated the algorithm's capability to distinctly separate source images from a composite image in diverse mixed modes and to facilitate effective image restoration. The effectiveness of the proposed method is quantitatively supported by achieving an average peak signal-to-noise ratio exceeding 30 dB, and the average structural similarity index surpassing 0.95 across multiple datasets.