• 제목/요약/키워드: Image synthesis

검색결과 445건 처리시간 0.022초

실안개를 이용한 단일 영상으로부터의 깊이정보 획득 및 뷰 생성 알고리듬 (Depth estimation and View Synthesis using Haze Information)

  • 소용석;현대영;이상욱
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2010년도 하계학술대회
    • /
    • pp.241-243
    • /
    • 2010
  • Previous approaches to the 2D to 3D conversion problem require heavy computation or considerable amount of user input. In this paper, we propose a rather simple method in estimating the depth map from a single image using a monocular depth cue: haze. Using the haze imaging model, we obtain the distance information and estimate a reliable depth map from a single scenery image. Using the depth map, we also suggest an algorithm that converts the single image to 3D stereoscopic images. We determine a disparity value for each pixel from the original 'left' image and generate a corresponding 'right' image. Results show that the algorithm gives well refined depth maps despite the simplicity of the approach.

  • PDF

효율적인 실시간 영상처리용 2-D 컨볼루션 필터 칩 (An Efficient 2-D Conveolver Chip for Real-Time Image Processing)

  • 은세영;선우명
    • 전자공학회논문지C
    • /
    • 제34C권10호
    • /
    • pp.1-7
    • /
    • 1997
  • This paper proposes a new real-time 2-D convolver filter architecture wihtout using any multiplier. To meet the massive amount of computations for real-time image processing, several commercial 2-D convolver chips have many multipliers occupying large VLSI area. Te proposed architecture using only one shift-and-accumulator can reduce the chip size by more than 70% of commercial 2-D convolver filter chips and can meet the real-time image processing srequirement, i.e., the standard of CCIR601. In addition, the proposed chip can be used for not only 2-D image processing but also 1-D signal processing and has bood scalability for higher speed applications. We have simulated the architecture by using VHDL models and have performed logic synthesis. We used the samsung SOG cell library (KG60K) and verified completely function and timing simulations. The implemented filter chip consists of only 3,893 gates, operates at 125 MHz and can meet the real-time image processing requirement, that is, 720*480 pixels per frame and 30 frames per second (10.4 mpixels/second).

  • PDF

Injection of Cultural-based Subjects into Stable Diffusion Image Generative Model

  • Amirah Alharbi;Reem Alluhibi;Maryam Saif;Nada Altalhi;Yara Alharthi
    • International Journal of Computer Science & Network Security
    • /
    • 제24권2호
    • /
    • pp.1-14
    • /
    • 2024
  • While text-to-image models have made remarkable progress in image synthesis, certain models, particularly generative diffusion models, have exhibited a noticeable bias to- wards generating images related to the culture of some developing countries. This paper introduces an empirical investigation aimed at mitigating the bias of image generative model. We achieve this by incorporating symbols representing Saudi culture into a stable diffusion model using the Dreambooth technique. CLIP score metric is used to assess the outcomes in this study. This paper also explores the impact of varying parameters for instance the quantity of training images and the learning rate. The findings reveal a substantial reduction in bias-related concerns and propose an innovative metric for evaluating cultural relevance.

패치 외삽을 이용한 효과적인 예제기반 영상 인페인팅 (Effective Exemplar-Based Image Inpainting Using Patch Extrapolation)

  • 김진주;이시웅
    • 한국콘텐츠학회논문지
    • /
    • 제14권2호
    • /
    • pp.1-9
    • /
    • 2014
  • 영상 인페인팅(image inpainting)은 영상에서 훼손된 부분을 복원하거나 영상 내의 불필요한 문자나 특정 물체를 제거한 후 삭제된 영역을 자연스럽게 채우기 위해 널리 사용되는 기법이다. 예제기반 인페인팅은 비어있는 영역에서 어떤 부분부터 채울 것인지를 결정하는 패치 우선순위 결정과 결정된 패치를 어떤 패치로 채울 것인지 결정하는 패치탐색의 두 부분으로 구성되어 있다. 기존 예제기반 인페인팅에서는 패치 내의 알고 있는 영역의 화소 값만을 이용하여 유사패치를 탐색한다. 이는 패치의 일부분만 이용하여 비교하게 되므로 비교 대상이 아닌 영역에 상관성이 없는 화소 값을 갖는 패치가 선택될 수 있다. 이를 개선하기 위해 본 논문에서는 패치외삽을 이용한 예제기반 인페인팅 방식을 제안한다. 제안 방식은 우선순위가 결정된 패치에 대해 패치 내 이미 알고 있는 영역의 화소 값을 이용하여 패치 내 비어있는 영역의 화소 값을 외삽 방식으로 예측치를 구하여 채운 후 유사 패치를 탐색한다. 실험 결과를 통해 제안방식이 기존 예제기반 인페인팅 방식에 비해 자연스러운 결과 영상을 얻을 수 있음을 보여준다.

모바일 환경에서 실시간 영상 전경 추출 연구 (Real-time Video Matting for Mobile Device)

  • 윤종철
    • 한국정보전자통신기술학회논문지
    • /
    • 제11권5호
    • /
    • pp.487-492
    • /
    • 2018
  • 최근 모바일 기기의 영상 촬영 기능의 확대에 따라, 영상처리를 위한 다양한 어플리케이션들이 모바일 환경으로 이식되고 있다. 또한 모바일 기기의 컴퓨팅 능력또한 상승으로 기존에 컴퓨터에서만 가능하였던 다양한 영상처리기술들이 모바일 환경으로 이식되고 있다. 이러한 영상처리 기술 중, 사용자가 촬영한 영상에서 전경만을 추출하여 원하는 새로운 배경에 합성하는 문제는 다양한 어플리케이션에서 사용이 가능하나 계산이 복잡하다는 문제점으로 모바일환경 이식에 어려움을 가지고 있었다. 본 연구에서는 모바일 기기로 촬영된 영상을 전경/배경으로 구분하여 목표 영상에 실시간으로 합성할 수 있는 영상합성 기술을 제안한다. 사용자가 촬영한 영상에서 배경이 움직이지 않는다는 가정하에 자동으로 전경을 추출하며 이를 새로운 배경에 합성하는 기법을 소개한다. 모바일 촬영의 특성을 고려하여 촬영시 약한 움직임을 포함하는 영상에서의 자동 전경 추출 알고리즘을 개발하며 이를 SIMD 및 GPGPU기반의 가속화 알고리즘을 사용하여 SD급 화질의 영상에 대해 모바일 상에서 실시간 처리가 가능한 결과를 보인다. 본 논문의 기술을 사용하여 상용화 가능한 영상처리 어플리케이션의 개발이 가능하다.

불균일 안개 영상 합성을 이용한 딥러닝 기반 안개 영상 깊이 추정 (Non-Homogeneous Haze Synthesis for Hazy Image Depth Estimation Using Deep Learning)

  • 최영철;백지현;주광진;이동건;황경하;이승용
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제28권3호
    • /
    • pp.45-54
    • /
    • 2022
  • 영상의 깊이 추정은 다양한 영상 분석의 기반이 되는 기술이다. 딥러닝 모델을 활용한 분석 방법이 대두되면서, 영상의 깊이 추정 분야 또한 딥러닝을 활용하는 연구가 활발하게 이루어지고 있다. 현재 대부분의 딥러닝 영상 깊이 추정 모델들은 깨끗하고 이상적인 환경에서 학습되고 있다. 하지만 연무, 안개가 낀 열악한 환경에서도 깊이 추정 기술이 잘 동작할 수 있으려면 이러한 환경의 데이터를 포함하여야 한다. 하지만 열악한 환경의 영상을 충분히 확보하는 것이 어려운 실정이며, 불균일한 안개 데이터를 얻는 것은 특히 어려운 문제이다. 이를 해결하기 위해, 본 연구에서는 불균일 안개 영상 합성 방법과 이를 활용한 단안 기반의 깊이 추정 딥러닝 모델의 학습을 제안한다. 안개가 주로 실외에서 발생하는 것을 고려하여, 실외 위주의 데이터 세트를 구축한다. 그리고 실험을 통해 제안된 방법으로 학습된 모델이 합성 데이터와 실제 데이터에서 깊이를 잘 추정하는 것을 보인다.

적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구 (Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks)

  • 최희조;박구만
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권11호
    • /
    • pp.465-472
    • /
    • 2022
  • 본 연구에서는 기존의 동영상 합성 네트워크에 스타일 합성 네트워크를 접목시켜 동영상에 대한 스타일 합성의 한계점을 극복하고자 한다. 본 논문의 네트워크에서는 동영상 합성을 위해 스타일갠 학습을 통한 스타일 합성과 동영상 합성 네트워크를 통해 스타일 합성된 비디오를 생성하기 위해 네트워크를 학습시킨다. 인물의 시선이나 표정 등이 안정적으로 전이되기 어려운 점을 개선하기 위해 3차원 얼굴 복원기술을 적용하여 3차원 얼굴 정보를 이용하여 머리의 포즈와 시선, 표정 등의 중요한 특징을 제어한다. 더불어, 헤드투헤드++ 네트워크의 역동성, 입 모양, 이미지, 시선 처리에 대한 판별기를 각각 학습시켜 개연성과 일관성이 더욱 유지되는 안정적인 스타일 합성 비디오를 생성할 수 있다. 페이스 포렌식 데이터셋과 메트로폴리탄 얼굴 데이터셋을 이용하여 대상 얼굴의 일관된 움직임을 유지하면서 대상 비디오로 변환하여, 자기 얼굴에 대한 3차원 얼굴 정보를 이용한 비디오 합성을 통해 자연스러운 데이터를 생성하여 성능을 증가시킴을 확인했다.

적응적 2차원 FIR 필터를 이용한 부화소 렌더링 기법 (Sub-Pixel Rendering Algorithm Using Adaptive 2D FIR Filters)

  • 남연오;최익현;송병철
    • 전자공학회논문지
    • /
    • 제50권3호
    • /
    • pp.113-121
    • /
    • 2013
  • 본 논문은 학습 기반의 2D-FIR필터를 이용한 부화소 렌더링 기법을 제안한다. 제안 기법은 크게 학습 단계와 합성 단계로 나뉜다. 학습 단계에서는 충분히 많은 수의 저해상도/고해상도의 영상 블록 쌍들을 이용하여 고해상도/저해상도 블록의 관계에 따른 합성 정보를 계산하고, 그 합성 정보를 담은 소위 사전을 생성한다. 합성 단계에서는 각 입력 영상에 대응하는 후보 블록을 상기 학습된 사전에서 찾는다. 탐색된 사전 내 합성 정보를 이용하여 부화소 레벨의 축소된 블록을 합성함으로써 최종 축소 영상을 얻는다. 한편, 영상 합성 시 디스플레이 장치의 RGB 패턴을 고려한 필터링을 통해 선명도를 향상시킨다. 모의 실험을 통해 제안 기법이 일반적인 영상축소 기법에 비해 흐림 효과, 엘리어싱 등의 화질 열화없이 고화질의 축소 영상을 생성함을 확인하였다.

전용 PLD를 가진 새로운 SoC 플랫폼 (A New SoC Platform with an Application-Specific PLD)

  • 이재진;송기용
    • 융합신호처리학회논문지
    • /
    • 제8권4호
    • /
    • pp.285-292
    • /
    • 2007
  • SoC는 소프트웨어와 하드웨어가 통합 설계되는 시스템 수준 설계 플랫폼이며 상위 수준 합성은 SoC 설계방법론의 중요한 과정이다. 최근 SPARK라 불리는 병렬 상위 수준 합성 툴이 개발되었다. SPARK는 C코드를 입력받아 코드 이동과 다양한 변형 기술을 이용해서 스케줄하고 최종적으로 합성 가능한 RTL VHDL를 생성한다. 기본 적인 디지털 신호 및 영상처리 알고리즘은 반복 순환문으로 표현되며, 합성을 동해 SPARK는 다양한 루프 변형 알고리즘을 적용한다. 그러나 이 기법에 의한 합성 결과는 디자이너가 수동으로 직접 설계한 최적구현과 비교했을 때 성능 면에서 만족할 만한 결과를 생성하지 못한다. 본 논문에서는 전용 프로그램 논리소자를 가지는 새로운 SoC 플랫폼을 제안하고, C로 기술된 행위 수준 반복 순환문을 2차원 시스톨릭 어레이로 매핑하는 과정을 기술한다. 최종적으로 유도된 시스톨릭 어레이는 제안된 SoC 플랫폼 상의 전용 프로그램 논리소자 상에 구현된다.

  • PDF

딥러닝 기반 가창 음성합성(Singing Voice Synthesis) 모델링 (Deep Learning based Singing Voice Synthesis Modeling)

  • 김민애;김소민;박지현;허가빈;최윤정
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.127-130
    • /
    • 2022
  • 본 논문은 생성자 손실함수를 이용한 가창 음성합성 모델링에 대한 연구로서 기존 이미지 생성에 최적화된 딥러닝 알고리즘 중 BEGAN모델을 오디오 생성모델(SVS모델)에 적용시킬 때 발생할 수 있는 여러 요인에 대해 분석하고 최적의 품질을 도출하기 위한 실험을 수행하였다. 특히 BEGAN 기반 모델에서 제안된 L1 loss가 어느 시점에서 감마(𝛾)파라미터의 역할을 상실하게 한다는 점을 개선하고자 알파(𝛼)파라미터를 추가한 후 각 파라미터 값들의 구간별 실험을 통해 최적의 값을 찾아냄으로써 가창합성 생성물의 품질향상에 기여할 수 있음을 확인하였다.

  • PDF