• 제목/요약/키워드: Texture synthesis

검색결과 92건 처리시간 0.019초

A 3D TEXTURE SYNTHESIS APPROACH

  • Su, Ya-Lin;Chang, Chin-Chen;Shih, Zen-Chung
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.28-31
    • /
    • 2009
  • In this paper, a new approach for solid texture synthesis from input volume data is presented. In the pre-process, feature vectors and a similarity set were constructed for input volume data. The feature vectors were used to construct neighboring vectors for more accurate neighborhood matching. The similarity set which recorded 3 candidates for each voxel helped more effective neighborhood matching. In the synthesis process, the pyramid synthesis method was used to synthesize solid textures from coarse to fine level. The results of the proposed approach were satisfactory.

  • PDF

Texture synthesis for model-based coding

  • Sohn, Young-Wook;Kim, In-Kwon;Park, Rae-Hong
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1996년도 Proceedings International Workshop on New Video Media Technology
    • /
    • pp.23-28
    • /
    • 1996
  • Model-based coding is one of several approaches to very low bit rate image coding and it can be used in many applications such as image creation and virtual reality. However, its analysis and synthesis processes remain difficult, especially in the sense that the resulting synthesized image reveals some degradation in detailed facial components such as furrows around eyes and mouth. To solve the problem, a large number of methods have been proposed and the texture update method is one of them. In this paper, we investigate texture synthesis for model-based coding. In the update process of the proposed texture synthesis algorithm, texture information is stored in a memory and the decoder reuses it. With this method, the transmission bit rate for texture data can be reduced compared with the conventional method updating texture periodically.

  • PDF

Voxel-wise UV parameterization and view-dependent texture synthesis for immersive rendering of truncated signed distance field scene model

  • Kim, Soowoong;Kang, Jungwon
    • ETRI Journal
    • /
    • 제44권1호
    • /
    • pp.51-61
    • /
    • 2022
  • In this paper, we introduced a novel voxel-wise UV parameterization and view-dependent texture synthesis for the immersive rendering of a truncated signed distance field (TSDF) scene model. The proposed UV parameterization delegates a precomputed UV map to each voxel using the UV map lookup table and consequently, enabling efficient and high-quality texture mapping without a complex process. By leveraging the convenient UV parameterization, our view-dependent texture synthesis method extracts a set of local texture maps for each voxel from the multiview color images and separates them into a single view-independent diffuse map and a set of weight coefficients for an orthogonal specular map basis. Furthermore, the view-dependent specular maps for an arbitrary view are estimated by combining the specular weights of each source view using the location of the arbitrary and source viewpoints to generate the view-dependent textures for arbitrary views. The experimental results demonstrate that the proposed method effectively synthesizes texture for an arbitrary view, thereby enabling the visualization of view-dependent effects, such as specularity and mirror reflection.

계층적 Pyramid구조와 MAP 추정 기법을 이용한 Texture 영상 합성 기법 (An Image Synthesis Technique Based on the Pyramidal Structure and MAP Estimation Technique)

  • 정석윤;이상욱
    • 대한전자공학회논문지
    • /
    • 제26권8호
    • /
    • pp.1238-1246
    • /
    • 1989
  • In this paper, a texture synthesis technique based on the NCAR(non-causal auto-regressive) model and the pyramid structure is proposed. In order to estimate the NCAR model parameters accurately from a noisy texture, the MAP(maximum a posteriori) estimation technique is also employed. In our approach, since the input texture is decomposed into the Laplacian oyramid planes first and then the NCAR model is applied to each plane, we are able to obtain a good synthesized texture even if the texture exhibits some non-random local structure or non-homogenity. The usrfulness of the proposed method is demonstrated with seveal real textures in the Brodatz album. Finally, the 2-dimensional MAP estimation technique can be used to the image restoration for noisy images as well as a texture image synthesis.

  • PDF

병렬 회전 예제 기반 텍스처 합성 (Parallel Rotated Exemplar-based Texture Synthesis)

  • 박한욱;김창헌
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제15권1호
    • /
    • pp.17-23
    • /
    • 2009
  • 본 논문에서는 다수의 회전 이미지를 생성, 이용해 결과의 다양성을 추구하고 기존 기법들의 문제인 예제 가장자리 경계면의 Neighborhood를 이용해 생기는 경계선을 완화한 합성 결과물을 생성하는 새 예제 기반 텍스처 합성 방법을 제안한다. 논문에서 제안하는 방법은 구현하기에 따라 공간 결정적인 형태로 구축할 수 있으며 병렬 처리가 가능한 하드웨어를 이용한 병렬 연산처리로 합성 속도 가속을 하는데도 유리한 구조를 가지고 있다.

  • PDF

명암효과와 질감매핑을 이용한 얼굴영상 합성에 관한 연구 (A Study on the Facial Image Synthesis Using Texture Mapping and Shading Effect)

  • 김상현;정성환;김신환;김남철
    • 한국통신학회논문지
    • /
    • 제18권7호
    • /
    • pp.913-921
    • /
    • 1993
  • 질감매핑은 대부분의 모델기반 부호화 시스템에서 영상합성 방식으로 사용 되어진다. 이 영상합성 방법은 정면 얼굴영상의 질감정보로만 영상을 합성한다. 따라서, 모델이 회전 되었을 때, 질감매핑은 명암측면에서 어색한 영상을 합성할 수 있다. 본 논문에서는 명암효과를 고려한 새로운 질감매핑이 연구되었다. 또한 회전에 대비하여 귀의 철선프레임과 머리카락의 변화를 부가하였다. 제안된 방식을 이용하여 실험한 결과, 자연스러운 영상합성이 가능하였다.

  • PDF

다중 스케일 텍스처 합성 (Multi-scale Texture Synthesis)

  • 이성호;박한욱;이정;김창헌
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제14권2호
    • /
    • pp.19-25
    • /
    • 2008
  • 이 논문에서는 각기 다른 스케일에서 각각의 구조를 띤 텍스처를 합성하는 기법을 제안한다. 우리의 기법은 GPU로 실시간으로 수행되는 병렬 텍스처 합성 기법에 기반을 두었다. 새로 도입된 좌표 변환 연산자를 이용하면 이미 합성된 좌표 맵을 다른 스케일의 입력 텍스처로의 좌표 공간으로 변환할 수 있다. 이 연산자는 작은 룩업 테이블로 미리 연산될 수 있기 때문에 본 기법을 도입함으로써 생기는 오버헤드는 매우 적다. 우리의 업샘플 기법은 텍스처가 두드러전 이미지의 해상도를 높일 때 특히 유용하다. 그리고, 우리의 기법을 이용하여 저해상도 컨트롤 이미지를 이용한 텍스처 디자인도 가능하다. 이 디자인 툴은 지형을 특정한 스타일로 디자인하는 데에 유용하며 일반적인 높낮이 조절 브러시를 이용할 수 있으므로 직관적이다.

  • PDF

Flowing Water Editing and Synthesis Based on a Dynamic Texture Model

  • Zhang, Qian;Lee, Ki-Jung;WhangBo, Taeg-Keun
    • 한국멀티미디어학회논문지
    • /
    • 제11권6호
    • /
    • pp.729-736
    • /
    • 2008
  • Using video synthesis to depict flowing water is useful in virtual reality, computer games, digital movies and scientific computing. This paper presents a novel algorithm for synthesizing dynamic water scenes through a sample video based on a dynamic texture model. In the paper, we treat the video sample as a 2-D texture image. In order to obtain textons, we analyze the video sample automatically based on dynamic texture model. Then, we utilize a linear dynamic system (LDS) to describe the characteristics of each texton. Using these textons, we synthesize a new video for dynamic flowing water which is prolonged and non-fuzzy in vision. Compared with other classical methods, our method was tested to demonstrate the effectiveness and efficiency with several video samples.

  • PDF

방향을 고려한 효율적이고 디테일한 텍스처 합성 (Efficient and Detailed Texture Synthesis with Orientation Considerations)

  • 추연희;김종현
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.575-576
    • /
    • 2023
  • 본 논문에서는 텍스처 합성할 때 방향을 고려하여 합성의 품질의 개선시킬 수 있는 방법을 제안한다. 또한 고정된 회전 각도가 아닌, 다양한 각도를 자동으로 샘플링하여 효율적으로 예제 이미지를 생성할 수 있도록 하였고, 이를 통해 합성 경계간의 차이를 자연스럽게 완화시킬 수 있는 결과를 실험을 통해 보여준다.

  • PDF

예제기반 영상 인페인팅을 위한 텍스쳐 가비지 제거 알고리즘 (Texture Garbage Elimination Algorithm for Exemplar-based Image Inpainting)

  • 공영일;이시웅
    • 방송공학회논문지
    • /
    • 제24권1호
    • /
    • pp.186-189
    • /
    • 2019
  • 영상 인페인팅(image inpainting)이란 입력 영상에 훼손되거나 빈 영영이 존재할 경우 이 영역을 자연스럽게 채워 영상을 복원해내는 영상처리 기법이다. 본 논문에서는 기존의 예제 기반(exemplar-based) 영상 인페인팅의 단점 중 하나인 텍스쳐 가비지(texture garbage)의 생성을 억제할 수 있는 새로운 영상 인페인팅 기법을 제시한다. 기존 기법과 달리 영상의 텍스쳐는 통계적으로 정적(stationary)이라는 가정 하에 정적인 소스 패치만을 후보 패치로 샘플링 한다. 이를 통해 주변 신호와 일치하지 않는 신호인 텍스쳐 가비지가 타겟 영역에 복사되는 것을 방지할 수 있다. 실험을 통해 제안 기법을 이용한 텍스쳐 합성이 기존 기법에 비해 더욱 자연스러운 영상 인페인팅 결과를 생성함을 확인한다.