• 제목/요약/키워드: DCGAN

검색결과 32건 처리시간 0.025초

얼굴인식 시스템의 소프트에러에 대한 DCGSN 기반의 크로스 레이어 보상 방법 (DCGAN-based Compensation for Soft Errors in Face Recognition systems based on a Cross-layer Approach)

  • 조영환;김도연;이승현;정구민
    • 한국정보전자통신기술학회논문지
    • /
    • 제14권5호
    • /
    • pp.430-437
    • /
    • 2021
  • 본 논문에서는 DCGAN 기반의 크로스 레이어 보상 방법을 이용하여 소프트에러의 영향을 줄이는 얼굴인식 기법을 제안한다. JPEG 파일의 데이터 블록에서 소프트에러가 발생할 때, 이 블록들은 제대로 복호화되지 않을 수 있다. 이전 연구에서 해당 블록들은 얼굴 사진들의 평균 이미지를 이용해 대체하였으며, 인식률을 어느 정도 향상하였다. 본 논문에서는 이전 연구의 확장으로 DCGAN 기반의 보상 기법을 다룬다. 패리티 비트 검사기를 이용하는 임베디드 시스템 레이어에서 소프트에러가 발생할 때, 이 에러는 애플리케이션 레이어에서 DCGAN을 이용하여 보상된다. 얼굴 이미지의 소프트에러를 보상하기 위해서 DCGAN 구조를 이용하여 블록 데이터의 손실을 보상한다. 시뮬레이션 결과를 통하여, 제안된 방식이 소프트에러로 인한 성능 악화를 효율적으로 보상한다는 것을 보인다.

DCGAN을 이용한 홀로그램 생성 방법 (Hologram Generation Method using DCGAN)

  • 이윤혁;김동욱;서영호
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 하계학술대회
    • /
    • pp.209-210
    • /
    • 2018
  • 본 논문에서는 머신 러닝 분야 중 하나인 딥 러닝에서 DCGAN모델을 이용하여 홀로그램을 생성하는 방법을 제안하였다. 제안한 방법은 홀로그램을 모델링 하는 식에서 객체의 깊이 정보에 따른 코사인 항을 DCGAN을 이용하여 하나의 객체정보에 대한 중간 홀로그램을 생성하였고, 나머지 객체 정보를 이용하여 홀로그램을 이동 및 증폭한 뒤 누적하여 최종 홀로그램을 획득한다.

  • PDF

Design of Image Generation System for DCGAN-Based Kids' Book Text

  • Cho, Jaehyeon;Moon, Nammee
    • Journal of Information Processing Systems
    • /
    • 제16권6호
    • /
    • pp.1437-1446
    • /
    • 2020
  • For the last few years, smart devices have begun to occupy an essential place in the life of children, by allowing them to access a variety of language activities and books. Various studies are being conducted on using smart devices for education. Our study extracts images and texts from kids' book with smart devices and matches the extracted images and texts to create new images that are not represented in these books. The proposed system will enable the use of smart devices as educational media for children. A deep convolutional generative adversarial network (DCGAN) is used for generating a new image. Three steps are involved in training DCGAN. Firstly, images with 11 titles and 1,164 images on ImageNet are learned. Secondly, Tesseract, an optical character recognition engine, is used to extract images and text from kids' book and classify the text using a morpheme analyzer. Thirdly, the classified word class is matched with the latent vector of the image. The learned DCGAN creates an image associated with the text.

Enhancement of durability of tall buildings by using deep-learning-based predictions of wind-induced pressure

  • K.R. Sri Preethaa;N. Yuvaraj;Gitanjali Wadhwa;Sujeen Song;Se-Woon Choi;Bubryur Kim
    • Wind and Structures
    • /
    • 제36권4호
    • /
    • pp.237-247
    • /
    • 2023
  • The emergence of high-rise buildings has necessitated frequent structural health monitoring and maintenance for safety reasons. Wind causes damage and structural changes on tall structures; thus, safe structures should be designed. The pressure developed on tall buildings has been utilized in previous research studies to assess the impacts of wind on structures. The wind tunnel test is a primary research method commonly used to quantify the aerodynamic characteristics of high-rise buildings. Wind pressure is measured by placing pressure sensor taps at different locations on tall buildings, and the collected data are used for analysis. However, sensors may malfunction and produce erroneous data; these data losses make it difficult to analyze aerodynamic properties. Therefore, it is essential to generate missing data relative to the original data obtained from neighboring pressure sensor taps at various intervals. This study proposes a deep learning-based, deep convolutional generative adversarial network (DCGAN) to restore missing data associated with faulty pressure sensors installed on high-rise buildings. The performance of the proposed DCGAN is validated by using a standard imputation model known as the generative adversarial imputation network (GAIN). The average mean-square error (AMSE) and average R-squared (ARSE) are used as performance metrics. The calculated ARSE values by DCGAN on the building model's front, backside, left, and right sides are 0.970, 0.972, 0.984 and 0.978, respectively. The AMSE produced by DCGAN on four sides of the building model is 0.008, 0.010, 0.015 and 0.014. The average standard deviation of the actual measures of the pressure sensors on four sides of the model were 0.1738, 0.1758, 0.2234 and 0.2278. The average standard deviation of the pressure values generated by the proposed DCGAN imputation model was closer to that of the measured actual with values of 0.1736,0.1746,0.2191, and 0.2239 on four sides, respectively. In comparison, the standard deviation of the values predicted by GAIN are 0.1726,0.1735,0.2161, and 0.2209, which is far from actual values. The results demonstrate that DCGAN model fits better for data imputation than the GAIN model with improved accuracy and fewer error rates. Additionally, the DCGAN is utilized to estimate the wind pressure in regions of buildings where no pressure sensor taps are available; the model yielded greater prediction accuracy than GAIN.

DCGAN을 이용한 잡육에서의 바늘 검출 (Detection of Needle in trimmings or meat offals using DCGAN)

  • 장원재;차윤석;금예은;이예진;김정도
    • 센서학회지
    • /
    • 제30권5호
    • /
    • pp.300-308
    • /
    • 2021
  • Usually, during slaughter, the meat is divided into large chunks by part after deboning. The meat chunks are inspected for the presence of needles with an X-ray scanner. Although needles in the meat chunks are easily detectable, they can also be found in trimmings and meat offals, where meat skins, fat chunks, and pieces of meat from different parts get agglomerated. Detection of needles in trimmings and meat offals becomes challenging because of many needle-like patterns that are detected by the X-ray scanner. This problem can be solved by learning the trimmings or meat offals using deep learning. However, it is not easy to collect a large number of learning patterns in trimmings or meat offals. In this study, we demonstrate the use of deep convolutional generative adversarial network (DCGAN) to create fake images of trimmings or meat offals and train them using a convolution neural network (CNN).

비디오 월 컨트롤러의 블랙 스크린 감지를 위한 데이터셋 생성 (Generation of Dataset for Detection of Black Screen in Video Wall Controller)

  • 김성진
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.521-523
    • /
    • 2021
  • 데이터 증강은 데이터셋의 양이 충분하지 않을 때 소량의 데이터를 활용하여 데이터의 양을 늘리는 기법이다. 인터넷의 보급으로 인해 손쉽게 얻을 수 있는 데이터는 많아졌지만 의학과 같이 데이터의 수집이 곤란한 분야도 여전히 남아 있다. 블랙 스크린 감지 모델에서 사용하는 비디오 월 컨트롤러에서 블랙 스크린이 발생한 이미지도 수집하기 어려운 데이터인데, 이는 비디오 월 컨트롤러를 운용하고 있는 중에 블랙 스크린이 발생하는 빈도가 낮기 때문이다. 따라서 본 논문에서는 비디오 월 컨트롤러에서 수집한 소량의 블랙 스크린 이미지를 활용하여 DCGAN을 훈련한 후 DCGAN의 생성자로 대량의 데이터셋을 생성하는 모델을 제안한다.

  • PDF

A Study on GAN Algorithm for Restoration of Cultural Property (pagoda)

  • Yoon, Jin-Hyun;Lee, Byong-Kwon;Kim, Byung-Wan
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권1호
    • /
    • pp.77-84
    • /
    • 2021
  • 오늘날 문화재 복원은, 기존 자료와 전문가에 의존하는 것과 더불어 최신 IT 기술을 적용하여 복원하고 있다. 하지만 새로운 자료가 나와서 기존 복원이 틀리게 되는 경우, 복원하는데 너무 오랜 시간이 걸릴 때도 있다. 그리고 예상과 다른 결과가 나올 가능성도 있다. 이에 우리는 중요 문화재의 복원을 인공지능을 이용하여 빠르게 복원을 해 보고자 한다. 최근에 Generative Adversarial Networks(GANs) 알고리즘에서 DcGAN[2] 알고리즘이 나오면서 이미지 생성, 복원 분야가 지속해서 발전하고 있다. 이에 본 연구에서는 다양한 GAN 알고리즘을 문화재 복원에 GAN 알고리즘을 적용해 보았다. DcGAN과 StyleGAN을 적용하였으며, 유의미한 결과를 얻었다. GAN 알고리즘 중 DCGAN과 Style GAN 알고리즘을 실험한 결과 DCGAN 알고리즘은 학습이 진행되었으며, 낮은 해상도로 탑 이미지가 생성되는 것을 확인했다. 그리고 Style GAN 알고리즘에서도 역시 학습이 진행 되었으며, 탑 이미지가 생성되었다. 결론적으로 GAN 알고리즘을 사용하여 높은 해상도의 탑 이미지를 구할 수 있게 되었다.

신제품 개발을 위한 GAN 기반 생성모델 성능 비교 (Performance Comparisons of GAN-Based Generative Models for New Product Development)

  • 이동훈;이세훈;강재모
    • 문화기술의 융합
    • /
    • 제8권6호
    • /
    • pp.867-871
    • /
    • 2022
  • 최근 빠른 유행의 변화 속에서 디자인의 변화는 패션기업의 매출에 큰 영향을 미치기 때문에 기업들은 신제품디자인 선택에 신중할 수밖에 없다. 최근 인공지능 분야의 발달에 따라 패션시장에서도 소비자들의 선호도를 높이기 위해 다양한 기계학습을 많이 활용하고 있다. 우리는 선호도와 같은 추상적인 개념을 수치화함으로써 신제품 개발에 신뢰성을 높이는 부분에 기여하고자 한다. 이를 위해 3가지 적대적 생성 신경망(Generative adversial netwrok, GAN)을 통하여 기존에 없는 새로운 이미지를 생성하고, 미리 훈련된 합성곱 신경망(Convolution neural networkm, CNN)을 이용하여 선호도라는 추상적인 개념을 수치화시켜 비교하였다. 심층 컨볼루션 적대적 생성 신경망(Deep convolutional generative adversial netwrok, DCGAN), 점진적 성장 적대적 생성 신경망(Progressive growing generative adversial netwrok, PGGAN), 이중 판별기 적대적 생성 신경망(Dual Discriminator generative adversial netwrok, D2GAN)의 3가지 방법을 통해 새로운 이미지를 생성하였고, 판매량이 높았던 제품으로 훈련된 합성곱 신경망으로 유사도를 비교, 측정하였다. 측정된 유사도의 정도를 선호도로 간주하였으며 실험 결과 D2GAN이 DCGAN, PGGAN에 비해 상대적으로 높은 유사도를 보여주었다.

다양한 데이터 전처리 기법과 데이터 오버샘플링을 적용한 GRU 모델 기반 이상 탐지 성능 비교 (Comparison of Anomaly Detection Performance Based on GRU Model Applying Various Data Preprocessing Techniques and Data Oversampling)

  • 유승태;김강석
    • 정보보호학회논문지
    • /
    • 제32권2호
    • /
    • pp.201-211
    • /
    • 2022
  • 최근 사이버보안 패러다임의 변화에 따라, 인공지능 구현 기술인 기계학습과 딥러닝 기법을 적용한 이상탐지 방법의 연구가 증가하고 있다. 본 연구에서는 공개 데이터셋인 NGIDS-DS(Next Generation IDS Dataset)를 이용하여 GRU(Gated Recurrent Unit) 신경망 기반 침입 탐지 모델의 이상(anomaly) 탐지 성능을 향상시킬 수 있는 데이터 전처리 기술에 관한 비교 연구를 수행하였다. 또한 정상 데이터와 공격 데이터 비율에 따른 클래스 불균형 문제를 해결하기 위해 DCGAN(Deep Convolutional Generative Adversarial Networks)을 적용한 오버샘플링 기법 등을 사용하여 오버샘플링 비율에 따른 탐지 성능을 비교 및 분석하였다. 실험 결과, 시스템 콜(system call) 특성과 프로세스 실행패스 특성에 Doc2Vec 알고리즘을 사용하여 전처리한 방법이 좋은 성능을 보였고, 오버샘플링별 성능의 경우 DCGAN을 사용하였을 때, 향상된 탐지 성능을 보였다.

DCGAN을 활용한 디모자이킹에 관한 연구 (A Study on demosaicking using DCGAN)

  • 장영채;;전광길
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 추계학술발표대회
    • /
    • pp.792-794
    • /
    • 2018
  • 본 연구에서는 일반적으로 R,G,B 색 평면의 높은 상관관계를 이용하여 컬러 복원을 시도하던 기존의 방법의 문제점을 정의하고, DCGAN을 활용한 디모자이킹에 관한 연구를 소개한다. 약 2000장의 $256{\times}256$ 이미지를 학습데이터를 이용하였다. 보다 나은 결과를 위하여 R,G,B 색상 채널에 따라 각각의 네트워크를 구성하고 학습하였다. 제안 방법은 Intel Core i7-7770 CPU(3.60GHz), 16GB Memory,NVIDIA GeForce GTX1080Ti 구성의 Laptop에서 진행하였고, 평균 PSNR 22.5dB 정도의 성능을 보인다.