• 제목/요약/키워드: Virtual texture image

검색결과 56건 처리시간 0.038초

3D 가상도시 구축을 위한 건물 텍스쳐 이미지의 왜곡보정 (Adjustment of texture image for construction of a 3D virtual city)

  • 김성수;김병국
    • 대한공간정보학회지
    • /
    • 제10권2호
    • /
    • pp.49-56
    • /
    • 2002
  • 3D 가상도시 구축에 있어 사용자로 하여금 공간 객체 중심으로 지형 지물을 인식할 수 있게 해 줄 수 있는 요소로서 Texture Image를 들 수 있다. 본 연구에서는 디지틀 카메라를 통하여 건물 측면 Texture Image를 획득하고 이렇게 획득한 이미지가 가지고 있는 왜곡을 2D Projective Transformation방법을 사용하여 보정하였다. 보정이 끝난 Texture Image는 OpenGL을 이용하여 3D 건물 모델에 Mapping을 실시하였다. 본 연구를 통해 개발한 응용 프로그램은 가상도시를 구축하는 과정상에 자동화된 방법을 제공할 수 있다.

  • PDF

Design and Implementation of Virtual Aquarium

  • Bak, Seon-Hui;Lee, Heeman
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권12호
    • /
    • pp.43-49
    • /
    • 2016
  • This paper presents the design and implementation of virtual aquarium by generating 3D models of fishes that are colored by viewers in an aim to create interaction among viewers and aquarium. The virtual aquarium system is composed of multiple texture extraction modules, a single interface module and a single display module. The texture extraction module recognize the QR code on the canvas to get information of the predefined mapping table and then extract the texture data for the corresponding 3D model. The scanned image is segmented and warp transformed onto the texture image by using the mapping information. The extracted texture is transferred to the interface module to save on the server computer and the interface module sends the fish code and texture information to the display module. The display module generates a fish on the virtual aquarium by using predefined 3D model with the transmitted texture. The fishes on the virtual aquarium have three different swimming methods: self-swimming, autonomous swimming, and leader-following swimming. The three different swimming methods are discussed in this paper. The future study will be the implementation of virtual aquarium based on storytelling to further increase interactions with the viewer.

Disparity Refinement near the Object Boundaries for Virtual-View Quality Enhancement

  • Lee, Gyu-cheol;Yoo, Jisang
    • Journal of Electrical Engineering and Technology
    • /
    • 제10권5호
    • /
    • pp.2189-2196
    • /
    • 2015
  • Stereo matching algorithm is usually used to obtain a disparity map from a pair of images. However, the disparity map obtained by using stereo matching contains lots of noise and error regions. In this paper, we propose a virtual-view synthesis algorithm using disparity refinement in order to improve the quality of the synthesized image. First, the error region is detected by examining the consistency of the disparity maps. Then, motion information is acquired by applying optical flow to texture component of the image in order to improve the performance. Then, the occlusion region is found using optical flow on the texture component of the image in order to improve the performance of the optical flow. The refined disparity map is finally used for the synthesis of the virtual view image. The experimental results show that the proposed algorithm improves the quality of the generated virtual-view.

Relief Texture 매핑을 이용한 가상공간 구축 (Construction of Visual Space using Relief Texture Mapping)

  • 이은경;정영기
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅳ
    • /
    • pp.1899-1902
    • /
    • 2003
  • Recently several methods have been developed for the virtual space construction. Generally, most of the methods are geometric-based rendering technic, but they are difficult to construct real-time rendering because of large data. In this paper, we present a three dimension image-based rendering method that enable a constant speed of real-time rendering regardless of object complexity in virtual space. The Proposed method shows good performance for the virtual space construction with high complexity.

  • PDF

가상 텍스쳐 영상과 실촬영 영상간 매칭을 위한 특징점 기반 알고리즘 성능 비교 연구 (Study of Feature Based Algorithm Performance Comparison for Image Matching between Virtual Texture Image and Real Image)

  • 이유진;이수암
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1057-1068
    • /
    • 2022
  • 본 논문은 모바일 기반의 실시간 영상 측위 기술 개발을 목표로 사용자가 촬영한 사진과 가상의 텍스쳐 영상 간의 매칭 가능성 확인 연구로 특징점 기반의 매칭 알고리즘의 조합 성능을 비교했다. 특징점 기반의 매칭 알고리즘은 특징점(feature)을 추출하는 과정과 추출된 특징점을 설명하는 서술자(descriptor)를 계산하는 과정, 최종적으로 서로 다른 영상에서 추출된 서술자를 매칭하고, 잘못 매칭된 특징점을 제거하는 과정으로 이루어진다. 이때 매칭 알고리즘 조합을 위해, 특징점을 추출하는 과정과 서술자를 계산하는 과정을 각각 같거나 다르게 조합하여 매칭 성능을 비교하였다. 가상 실내 텍스쳐 영상을 위해 V-World 3D 데스크탑을 활용하였다. 현재 V-World 3D 데스크톱에서는 수직·수평적 돌출부 및 함몰부와 같은 디테일이 보강되었다. 또한, 실제 영상 텍스쳐가 입혀진 레벨로 구축되어 있어, 이를 활용하여 가상 실내 텍스쳐 데이터를 기준영상으로 구성하고, 동일한 위치에서 직접 촬영하여 실험 데이터셋을 구성하였다. 데이터셋 구축 후, 매칭 알고리즘들로 매칭 성공률과 처리 시간을 측정하였고, 이를 바탕으로 매칭 성능 향상을 위해 매칭 알고리즘 조합을 결정하였다. 본 연구에서는 매칭 기법마다 가진 특장점을 기반으로 매칭 알고리즘을 조합하여 구축한 데이터셋에 적용해 적용 가능성을 확인하였고, 추가적으로 회전요소가 고려되었을 때의 성능 비교도 함께 수행하였다. 연구 결과, Scale Invariant Feature Transform (SIFT)의 feature와 descriptor 조합이 가장 매칭 성공률이 좋았지만 처리 소요 시간이 가장 큰 것을 확인할 수 있었고, Features from Accelerated Segment Test (FAST)의 feature와 Oriented FAST and Rotated BRIEF (ORB)의 descriptor 조합의 경우, SIFT-SIFT 조합과 유사한 매칭 성공률을 가지면서 처리 소요 시간도 우수하였다. 나아가, FAST-ORB의 경우, 10°의 회전이 데이터셋에 적용되었을 때에도 매칭 성능이 우세함을 확인하였다. 따라서 종합적으로 가상 텍스쳐 영상과 실영상간 매칭을 위해서 FAST-ORB 조합의 매칭 알고리즘이 적합한 것을 확인할 수 있었다.

Keypoints-Based 2D Virtual Try-on Network System

  • Pham, Duy Lai;Ngyuen, Nhat Tan;Chung, Sun-Tae
    • 한국멀티미디어학회논문지
    • /
    • 제23권2호
    • /
    • pp.186-203
    • /
    • 2020
  • Image-based Virtual Try-On Systems are among the most potential solution for virtual fitting which tries on a target clothes into a model person image and thus have attracted considerable research efforts. In many cases, current solutions for those fails in achieving naturally looking virtual fitted image where a target clothes is transferred into the body area of a model person of any shape and pose while keeping clothes context like texture, text, logo without distortion and artifacts. In this paper, we propose a new improved image-based virtual try-on network system based on keypoints, which we name as KP-VTON. The proposed KP-VTON first detects keypoints in the target clothes and reliably predicts keypoints in the clothes of a model person image by utilizing a dense human pose estimation. Then, through TPS transformation calculated by utilizing the keypoints as control points, the warped target clothes image, which is matched into the body area for wearing the target clothes, is obtained. Finally, a new try-on module adopting Attention U-Net is applied to handle more detailed synthesis of virtual fitted image. Extensive experiments on a well-known dataset show that the proposed KP-VTON performs better the state-of-the-art virtual try-on systems.

Texture synthesis for model-based coding

  • Sohn, Young-Wook;Kim, In-Kwon;Park, Rae-Hong
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1996년도 Proceedings International Workshop on New Video Media Technology
    • /
    • pp.23-28
    • /
    • 1996
  • Model-based coding is one of several approaches to very low bit rate image coding and it can be used in many applications such as image creation and virtual reality. However, its analysis and synthesis processes remain difficult, especially in the sense that the resulting synthesized image reveals some degradation in detailed facial components such as furrows around eyes and mouth. To solve the problem, a large number of methods have been proposed and the texture update method is one of them. In this paper, we investigate texture synthesis for model-based coding. In the update process of the proposed texture synthesis algorithm, texture information is stored in a memory and the decoder reuses it. With this method, the transmission bit rate for texture data can be reduced compared with the conventional method updating texture periodically.

  • PDF

3D 디지털 기술을 활용한 패션 갤러리 제작에 관한 연구 (A Study on the Application of 3D Digital Technology to Producing Cyber Fashion Gallery)

  • 김지언
    • 복식문화연구
    • /
    • 제15권3호
    • /
    • pp.446-460
    • /
    • 2007
  • This study shows that digital technology is adapted practical method in fashion design process and virtual simulation and cyber fashion gallery based on virtual reality are researched. This study is proposed the 3D fashion design simulation in the virtual space used on 3D studio max, poser, photoshop program according to fashion design process. The main design concept is "temporary bridge" from rainbow. This study is supposed six fashion design in accordance with three sub-theme under main concept by changing color and texture used on 3D simulation. The results of this study are as follows: 1. This study produced Cyber Fashion Gallery in virtual space to the form of CD Rom title and web title by Macromedia Director 8.5, Macromedia Flash, Sound Forge. And it is enlarged the field of expression in aspect of Fashion Exhibition, beyond restriction of time and space. 2. Clothes modelling tools is able to easily adapt to various textiles and patterns in 3D dynamic virtual mannequin before making clothes. Digital technology is able to express image changed color and texture, especially new material, multi-finishing material and brilliant material and so on. So this study is able to develop tools for study of fashion coordination. 3. Cyber Fashion Gallery consists of gallery, story, painting, symbolism, example, image, quit. This study is enlarged the range of clothing expression by digital technology and open to possibility customized-manufacture.

  • PDF

깊이 정보를 이용한 실시간 다시점 스테레오 영상 합성 (Real-time Multiple Stereo Image Synthesis using Depth Information)

  • 장세훈;한충신;배진우;유지상
    • 한국통신학회논문지
    • /
    • 제30권4C호
    • /
    • pp.239-246
    • /
    • 2005
  • 본 논문에서는 영상의 RGB 정보와 화소단위의 8비트 깊이 정보를 이용하여 현재의 영상과 스테레오 쌍이 되는 가상의 우 영상을 생성한다. 이 과정에서 깊이 정보를 시차 정보로 변환하고, 생성된 시차정보를 이용하여 우 영상을 생성하게 된다. 또한 스테레오 영상을 합성한 후 회전(rotation)과 이동(translation) 등의 기하학적 변환을 이용하여 관찰자의 위치를 고려한 다시점 스테레오 영상을 합성하는 기법을 제안하고, 깊이 정보와 시차 정보와의 관계를 분석하여 화소 단위의 실시간 처리를 위한 LUT(look-up table) 방식의 고속 기법도 제안한다. 실험 결과 SD급 영상의 경우 8비트 깊이 정보만을 가지고 11시점의 스테레오 영상을 실시간으로 합성할 수 있다.

가상 시점 영상 합성을 위한 방향성 고려 홀 채움 방법 (Consider the directional hole filling method for virtual view point synthesis)

  • 문지훈;호요성
    • 스마트미디어저널
    • /
    • 제3권4호
    • /
    • pp.28-34
    • /
    • 2014
  • 최근 깊이 영상 기반 합성 방법을 이용한 가상시점 합성 방법이 3차원 영상의 적용 분야에서 많이 사용되고 있다. 가상 시점 영상은 기존에 알고 있는 영상과 이와 관련된 깊이 영상 정보를 이용하여 카메라로 촬영 하지 않은 가상시점 영상을 생성하게 된다. 하지만 깊이 영상 기반 합성 방법을 이용해 가상시점 영상을 생성할 경우, 깊이 영상을 기반으로 합성하기 때문에 이미지 워핑 과정에서 폐색 영역이 발생하게 된다. 이러한 폐색 영역을 제거하기 위해 지금까지 다양한 홀 채움 방법들이 제안되어 왔다. 동일 색상영역 검색, 수평방향 보간 방법, 수평방향 보외 방법 그리고 다양한 인페인팅 방법들이 홀 채움 방법들로 제안되었다. 하지만 이러한 방법들을 사용하여 텍스쳐 영역의 홀을 제거할 경우 다른 종류의 간섭 현상이 발생하는 문제가 있다. 본 논문에서는 이러한 문제점을 해결하기 위해 다양한 방향성을 고려한 홀 채움 방법을 새롭게 제안하여 확장된 홀 영역을 효율적으로 채우는 방법을 설명한다. 제안된 방법들은 복잡한 텍스쳐들이 있는 배경부분에서 발생하는 홀 영역을 채울 때 성능 효율성을 나타낸다. 방향성을 고려한 홀 채움 방법은 픽셀 단위로 홀 채움 영역 값을 측정하는 과정에서 홀 영역의 주변 텍스쳐 픽셀 값들을 사용하게 된다. 제안한 방법을 이용해 가상시점 영상 합성 결과 발생하는 홀 영역을 기존의 홀 채움 방법보다 보다 더 효율적으로 채울 수 있는 것을 확인할 수 있었다.