• 제목/요약/키워드: Pix2pix

검색결과 59건 처리시간 0.023초

인공 신경망 기반의 지문 영상 복원 알고리즘 (An Algorithm of Fingerprint Image Restoration Based on an Artificial Neural Network)

  • 장석우;이사무엘;김계영
    • 한국산학기술학회논문지
    • /
    • 제21권8호
    • /
    • pp.530-536
    • /
    • 2020
  • 일반적인 지문 인식기에서 이용되는 미뉴셔 특징은 표현 공격에는 강건하지만 오 정합률이 상대적으로 높다는 약점이 있다. 따라서 미뉴셔 특징은 스켈리톤 영상과 함께 이용되는 경향이 있다. 보통 지문의 미뉴셔 특징에 대한 보안 취약성 연구는 많이 진행되어 있으나 스켈리톤에 대한 취약성 연구는 미약한 형편이므로 본 연구에서는 스켈리톤에 대한 표현 공격의 취약성을 분석하고자 한다. 이를 위해, 본 연구에서는 지문의 스켈리톤으로부터 학습 알고리즘을 사용해 원래의 지문을 복구하는 방법을 제시한다. 본 논문에서 제시된 방법은 기존의 Pix2Pix 모델에 잠재 벡터를 추가한 새로운 학습 모델인 Pix2Pix을 제안하여, 보다 자연스러운 지문을 생성한다. 본 논문의 실험 결과에서는 제시된 학습 알고리즘을 이용해 원래의 지문을 복원한 다음, 복원된 지문을 지문 인식기에 입력시켜 높은 인식률을 달성하였다. 그러므로 본 연구는 스켈리톤을 함께 이용하는 지문 인식기는 표현 공격에 취약함을 검증하였다. 본 논문에서 제시된 접근방법은 지문 인식 및 복원, 비디오 보안, 생체 인식 등과 연관된 많은 실제적인 응용 분야에서 유용하게 사용될 것으로 기대된다.

적대적생성신경망을 이용한 연안 파랑 비디오 영상에서의 빗방울 제거 및 배경 정보 복원 (Raindrop Removal and Background Information Recovery in Coastal Wave Video Imagery using Generative Adversarial Networks)

  • 허동;김재일;김진아
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제25권5호
    • /
    • pp.1-9
    • /
    • 2019
  • 본 논문에서는 강우시 빗방울로 인해 왜곡된 연안 파랑 비디오 영상에서 빗방울 제거와 제거된 영역에 대한 배경 정보를 복원하기 위한 적대적생성신경망을 이용한 영상 강화 방법을 제안하고자 한다. 영상 변환에 널리 사용되는 Pix2Pix 네트워크와 현재 단일 이미지에 대한 빗방울 제거에 좋은 성능을 보여주고 있는 Attentive GAN을 실험 대상 모델로 구현하고, 빗방울 제거를 위한 공개 데이터 셋을 이용하여 두 모델을 학습한 후 빗방울 왜곡 연안 파랑 영상의 빗방울 제거 및 배경 정보 복원 성능을 평가하였다. 연안 파랑 비디오에 영상에 대한 빗방울 왜곡 보정 성능을 향상시키기 위해 실제 연안에서 빗방울 유무가 짝을 이룬 데이터 셋을 직접 획득한 후 사전 학습된 모델에 대하여 전이 학습에 사용하여 빗방울 왜곡 보정에 대한 성능 향상을 확인하였다. 모델의 성능은 빗방울 왜곡 영상으로부터 파랑 정보 복원 성능을 최대 신호 대 잡음비와 구조적 유사도를 이용하여 평가하였으며, 전이 학습을 통해 파인 튜닝된 Pix2Pix 모델이 연안 파랑 비디오 영상의 빗방울 왜곡에 대한 가장 우수한 복원 성능을 보였다.

Ship Number Recognition Method Based on An improved CRNN Model

  • Wenqi Xu;Yuesheng Liu;Ziyang Zhong;Yang Chen;Jinfeng Xia;Yunjie Chen
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권3호
    • /
    • pp.740-753
    • /
    • 2023
  • Text recognition in natural scene images is a challenging problem in computer vision. The accurate identification of ship number characters can effectively improve the level of ship traffic management. However, due to the blurring caused by motion and text occlusion, the accuracy of ship number recognition is difficult to meet the actual requirements. To solve these problems, this paper proposes a dual-branch network based on the CRNN identification network. The network couples image restoration and character recognition. The CycleGAN module is used for blur restoration branch, and the Pix2pix module is used for character occlusion branch. The two are coupled to reduce the impact of image blur and occlusion. Input the recovered image into the text recognition branch to improve the recognition accuracy. After a lot of experiments, the model is robust and easy to train. Experiments on CTW datasets and real ship maps illustrate that our method can get more accurate results.

픽셀내 다수의 박막트랜지스터로 구성된 듀오픽스TM 엑스선 영상센서 제작 (duoPIXTM X-ray Imaging Sensor Composing of Multiple Thin Film Transistors in a Pixel for Digital X-ray Detector)

  • 전승익;이봉구
    • 한국방사선학회논문지
    • /
    • 제16권7호
    • /
    • pp.969-974
    • /
    • 2022
  • 디지털 엑스레이 디텍터 영상 취득에 있어 동적 범위를 최대화하고 영상지연을 최소화하기 위해서는 엑스레이 영상센서의 픽셀내 포토다이오드에 존재하는 잔류 정전기생용량을 빠르고 완전하기 제거하는 것이 매우 중요하다. 이러한 요구사항은 특히 고속 프레임과 낮은 영상지연이 필요한 산업용 2D/3D 자동화 엑스레이 검사와 의료용 CT 엑스레이 디텍터에 특별히 요구된다. 본 연구는 리셋 박막트랜지스터, 리드아웃 박막트랜지스터 그리고 포토다이오드로 픽셀이 구성된 듀오픽스TM 엑스레이 영상센서를 처음으로 제안한다. 듀오픽스TM 엑스레이 영상센서의 구동을 검증하기 위해 105 ㎛의 픽셀 사이즈, 347 mm × 430 mm의 영상영역 그리고 3300 × 4096의 픽셀 (13.5M pixels)을 갖는 듀오픽스TM 엑스레이 영상센서를 설계, 제작하여 모듈테스터와 영상취득 프로그램을 통해 영상을 취득하였다.

그라운드-롤 제거를 위한 CNN과 GAN 기반 딥러닝 모델 비교 분석 (Comparison of CNN and GAN-based Deep Learning Models for Ground Roll Suppression)

  • 조상인;편석준
    • 지구물리와물리탐사
    • /
    • 제26권2호
    • /
    • pp.37-51
    • /
    • 2023
  • 그라운드-롤(ground roll)은 육상 탄성파 탐사 자료에서 가장 흔하게 나타나는 일관성 잡음(coherent noise)이며 탐사를 통해 얻고자 하는 반사 이벤트 신호보다 훨씬 큰 진폭을 가지고 있다. 따라서 탄성파 자료 처리에서 그라운드-롤 제거는 매우 중요하고 필수적인 과정이다. 그라운드-롤 제거를 위해 주파수-파수 필터링, 커브릿(curvelet) 변환 등 여러 제거 기술이 개발되어 왔으나 제거 성능과 효율성을 개선하기 위한 방법에 대한 수요는 여전히 존재한다. 최근에는 영상처리 분야에서 개발된 딥러닝 기법들을 활용하여 탄성파 자료의 그라운드-롤을 제거하고자 하는 연구도 다양하게 수행되고 있다. 이 논문에서는 그라운드-롤 제거를 위해 CNN (convolutional neural network) 또는 cGAN (conditional generative adversarial network)을 기반으로 하는 세가지 모델(DnCNN (De-noiseCNN), pix2pix, CycleGAN)을 적용한 연구들을 소개하고 수치 예제를 통해 상세히 설명하였다. 알고리듬 비교를 위해 동일한 현장에서 취득한 송신원 모음을 훈련 자료와 테스트 자료로 나누어 모델을 학습하고, 모델 성능을 평가하였다. 이러한 딥러닝 모델은 현장자료를 사용하여 훈련할 때, 그라운드-롤이 제거된 자료가 필요하므로 주파수-파수 필터링으로 그라운드-롤을 제거하여 정답자료로 사용하였다. 딥러닝 모델의 성능 평가 및 훈련 결과 비교는 정답 자료와의 유사성을 기본으로 상관계수와 SSIM (structural similarity index measure)과 같은 정량적 지표를 활용하였다. 결과적으로 DnCNN 모델이 가장 좋은 성능을 보였으며, 다른 모델들도 그라운드-롤 제거에 활용될 수 있음을 확인하였다.

18F-FDG PET 지연영상 생성에 대한 딥러닝 이미지 생성 방법론 비교 (Comparison of Paired and Unpaired Image-to-image Translation for 18F-FDG Delayed PET Generation)

  • 알마슬라마니 모아스;김강산;변병현;우상근
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.179-181
    • /
    • 2023
  • 본 논문에서는 GAN 기반의 영상 생성 방법론을 이용해 delayed PET 영상을 생성하는 연구를 수행하였다. PET은 양전자를 방출하는 방사성 동위원소를 표지한 방사성의약품의 체내 분포를 시각화함으로서 암 세포 진단에 이용되는 의료영상 기법이다. 하지만 PET의 스캔 과정에서 방사성의약품이 체내에 분포하는 데에 걸리는 시간이 오래 걸린다는 문제점이 존재한다. 따라서 본 연구에서는 방사성의약품이 충분히 분포되지 않은 상태에서 얻은 PET 영상을 통해 목표로 하는 충분히 시간이 지난 후에 얻은 PET 영상을 생성하는 모델을 GAN (generative adversarial network)에 기반한 image-to-image translation(I2I)를 통해 수행했다. 특히, 생성 전후의 영상 간의 영상 쌍을 고려한 paired I2I인 Pix2pix와 이를 고려하지 않은 unpaired I2I인 CycleGAN 두 가지의 방법론을 비교하였다. 연구 결과, Pix2pix에 기반해 생성한 delayed PET 영상이 CycleGAN을 통해 생성한 영상에 비해 영상 품질이 좋음을 확인했으며, 또한 실제 획득한 ground-truth delayed PET 영상과의 유사도 또한 더 높음을 확인할 수 있었다. 결과적으로, 딥러닝에 기반해 early PET을 통해 delayed PET을 생성할 수 있었으며, paired I2I를 적용할 경우 보다 높은 성능을 기대할 수 있었다. 이를 통해 PET 영상 획득 과정에서 방사성의약품의 체내 분포에 소요되는 시간을 딥러닝 모델을 통해 줄여 PET 이미징 과정의 시간적 비용을 절감하는 데에 크게 기여할 수 있을 것으로 기대된다.

  • PDF

잔차 연결의 조건부 생성적 적대 신경망을 사용한 시맨틱 객체 분할 (Semantic Object Segmentation Using Conditional Generative Adversarial Network with Residual Connections)

  • ;;;강현수;서재원
    • 한국정보통신학회논문지
    • /
    • 제26권12호
    • /
    • pp.1919-1925
    • /
    • 2022
  • 본 논문에서는 시맨틱 분할을 위한 조건부 생성적 적대 신경망 기반의 이미지 대 이미지 변환 접근법을 제안한다. 시맨틱 분할은 동일한 개체 클래스에 속하는 이미지 부분을 함께 클러스터링하는 작업이다. 기존의 픽셀별 분류 방식과 달리 제안하는 방식은 픽셀 회귀 방식을 사용하여 입력 RGB 이미지를 해당 시맨틱 분할 마스크로 구문 분석한다. 제안하는 방법은 Pix2Pix 이미지 합성 방식을 기반으로 하였다. 잔차 연결이 훈련 프로세스를 가속화하고 더 정확한 결과를 생성하므로 생성기 및 판별기 아키텍처 모두에 대해 잔여 연결 기반 컨볼루션 신경망 아키텍처를 사용하였다. 제안하는 방법은 NYU-depthV2 데이터셋를 이용하여 학습 및 테스트 되었으며 우수한 mIOU 값(49.5%)을 달성할 수 있었다. 또한 시맨틱 객체분할 실험에서 제안한 방법과 현재 방법을 비교하여 제안한 방법이 기존의 대부분의 방법들보다 성능이 우수함을 보였다.

메타버스를 위한 가상 휴먼의 3차원 의상 모델링 (3D Clothes Modeling of Virtual Human for Metaverse)

  • 김현우;김동언;김유진;박인규
    • 방송공학회논문지
    • /
    • 제27권5호
    • /
    • pp.638-653
    • /
    • 2022
  • 본 논문은 고화질 2차원 전신 영상을 입력으로 받아 영상 속 인물이 입고 있는 의상 패턴과 체형 정보를 추정한 후, 이를 반영한 3차원 가상 휴먼의 생성 기법을 제안한다. 의상의 패턴을 얻기 위해서 Cascade Mask R-CNN을 이용하여 의상 분할을 진행한다. 이후 Pix2Pix로 경계를 블러 및 배경색을 추정하고, UV-Map 기반으로 변환하여 3차원 의상 메쉬의 UV-Map을 얻을 수 있다. 또한, SMPL-X를 이용하여 체형 정보를 얻고 이를 기반으로 의상과 신체의 기본 메쉬를 변형한다. 앞서 얻은 의상 UV-Map, 체형이 반영된 의상과 신체의 메쉬를 이용해 최근 각광받고 있는 게임 엔진인 언리얼 엔진에서 렌더링하여 최종적으로 사용자가 그의 외형이 반영된 3차원 가상 휴먼의 애니메이션을 볼 수 있도록 한다.

피부 미세요소 조절을 통한 얼굴 영상 합성 (Facial Image Synthesis by Controlling Skin Microelements)

  • 김유진;박인규
    • 방송공학회논문지
    • /
    • 제27권3호
    • /
    • pp.369-377
    • /
    • 2022
  • 최근 딥러닝 기반의 얼굴 합성 연구는 전체적인 스타일이나 헤어, 안경, 화장과 같은 요소를 포함하는 매우 사실적인 얼굴을 생성하는 결과를 보인다. 그러나 피부의 미세 구조와 같은 매우 세부적인 수준의 얼굴은 생성하지 못한다. 본 논문에서는 이러한 한계점을 극복하고자 한 장의 얼굴 라벨 영상으로부터 피부 미세 요소의 종류와 강도 조절을 통해 더욱 사실적인 얼굴 영상을 합성하는 기법을 제안한다. 제안하는 기법은 Image-to-Image Translation 방법인 Pix2PixHD를 이용해 얼굴 영역과 피부 요소인 주름, 모공, 홍조가 표시된 라벨 영상을 변환하여 미세 요소가 추가된 얼굴 영상을 생성한다. 피부 요소 영역을 조절한 라벨 영상을 다양하게 생성함으로써 이에 대응하는 미세한 피부 요소가 반영된 다양한 사실적인 얼굴 영상을 생성할 수 있음을 실험을 통해 보인다.