• Title/Summary/Keyword: 3D 텍스처

Search Result 95, Processing Time 0.05 seconds

Construction of the Facial 3D Textures for Generating Virtual Characters (가상 캐릭터 제작을 위한 얼굴 3D 텍스처의 구성)

  • 최창석;박상운
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2001.06a
    • /
    • pp.197-200
    • /
    • 2001
  • 본 논문에서는 가상 캐릭터 제작을 위해 표정변화가 가능한 얼굴의 3D텍스처를 구성하는 방법을 2가지로 제안한다. 하나는 3D 스캐너에서 입력한 얼굴 3D 텍스처에 얼굴의 3D 표준 모델을 정합하여 표정변화가 가능하게 하는 방법이다. 이 경우는 얼굴의 3D 텍스처와 함께 정확한 3D 형상 모델을 얻을수는 있으나, 스캐닝 비용이 고가이고, 장비의 이동이 불편하다. 또 하나의 방법은 전후좌우 4매의 2D영상을 통합하여 얼굴의 3D 텍스처를 구성하는 방법이다. 이 방법은 4매의 2D 영상에 3D 형상모델을 정합한 후, 4개의 모델의 높이, 넓이, 깊이를 통합하여, 대체적인 3D 형상모델을 얻고, 4매의 영상을 통합하여 개인 얼굴의 3D 텍스처를 얻게 된다. 이 경우는 2D 얼굴영상을 이용하기 때문에 저가로 널리 이용할 수 있는 방법이다.

  • PDF

Dynamic Texture Mapping for Cumulative 3D Terrain Modeling (점증적 3D 지형 모델링을 위한 동적 텍스처 매핑)

  • Cho, Seongjae;Song, Wei;Cho, Kyungeun;Um, Kyhyun;Sim, Sungdae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.05a
    • /
    • pp.315-316
    • /
    • 2013
  • 무인 원격 로봇이 감지한 주변 장면에 대한 정보는 텍스처를 매핑한 3D 지형 모델을 통해 현실감 있게 재현할 수 있다. 무인 원격 로봇에는 2D 및 3D 데이터셋을 획득할 수 있는 이종의 센서가 탑재된다. 무인 원격 로봇은 지속적으로 이동하므로 고정된 텍스처를 매핑하는 3D 지형 모델과 달리, 서로 다른 위치와 다양한 시점에서 촬영된 카메라 영상 텍스처를 3D 지형 모델에 매핑하는 기법이 필요하다. 이러한 점증적 3D 지형 모델링을 위한 동적 텍스처 매핑 기법을 설명한다.

Three-dimensional Texture Coordinate Coding Using Texture Image Rearrangement (텍스처 영상 재배열을 이용한 삼차원 텍스처 좌표 부호화)

  • Kim, Sung-Yeol;Ho, Yo-Sung
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.43 no.6 s.312
    • /
    • pp.36-45
    • /
    • 2006
  • Three-dimensional (3-D) texture coordinates mean the position information of torture segments that are mapped into polygons in a 3-D mesh model. In order to compress texture coordinates, previous works reused the same linear predictor that had already been employed to code geometry data. However, the previous approaches could not carry out linear prediction efficiently since texture coordinates were discontinuous along a coding order. Especially, discontinuities of texture coordinates became more serious in the 3-D mesh model including a non-atlas texture. In this paper, we propose a new scheme to code 3-D texture coordinates using as a texture image rearrangement. The proposed coding scheme first extracts texture segments from a texture. Then, we rearrange the texture segments consecutively along the coding order, and apply a linear prediction to compress texture coordinates. Since the proposed scheme minimizes discontinuities of texture coordinates, we can improve coding efficiency of texture coordinates. Experiment results show that the proposed scheme outperforms the MPEG-4 3DMC standard in terms of coding efficiency.

Texture Mapping of a Bridge Deck Using UAV Images (무인항공영상을 이용한 교량 상판의 텍스처 매핑)

  • Nguyen, Truong Linh;Han, Dongyeob
    • Journal of Digital Contents Society
    • /
    • v.18 no.6
    • /
    • pp.1041-1047
    • /
    • 2017
  • There are many methods for surveying the status of a road, and the use of unmanned aerial vehicle (UAV) photo is one such method. When the UAV images are too large to be processed and suspected to be redundant, a texture extraction technique is used to transform the data into a reduced set of feature representations. This is an important task in 3D simulation using UAV images because a huge amount of data can be inputted. This paper presents a texture extraction method from UAV images to obtain high-resolution images of bridges. The proposed method is in three steps: firstly, we use the 3D bridge model from the V-World database; secondly, textures are extracted from oriented UAV images; and finally, the extracted textures from each image are blended. The result of our study can be used to update V-World textures to a high-resolution image.

GPU-based dynamic point light particles rendering using 3D textures for real-time rendering (실시간 렌더링 환경에서의 3D 텍스처를 활용한 GPU 기반 동적 포인트 라이트 파티클 구현)

  • Kim, Byeong Jin;Lee, Taek Hee
    • Journal of the Korea Computer Graphics Society
    • /
    • v.26 no.3
    • /
    • pp.123-131
    • /
    • 2020
  • This study proposes a real-time rendering algorithm for lighting when each of more than 100,000 moving particles exists as a light source. Two 3D textures are used to dynamically determine the range of influence of each light, and the first 3D texture has light color and the second 3D texture has light direction information. Each frame goes through two steps. The first step is to update the particle information required for 3D texture initialization and rendering based on the Compute shader. Convert the particle position to the sampling coordinates of the 3D texture, and based on this coordinate, update the colour sum of the particle lights affecting the corresponding voxels for the first 3D texture and the sum of the directional vectors from the corresponding voxels to the particle lights for the second 3D texture. The second stage operates on a general rendering pipeline. Based on the polygon world position to be rendered first, the exact sampling coordinates of the 3D texture updated in the first step are calculated. Since the sample coordinates correspond 1:1 to the size of the 3D texture and the size of the game world, use the world coordinates of the pixel as the sampling coordinates. Lighting process is carried out based on the color of the sampled pixel and the direction vector of the light. The 3D texture corresponds 1:1 to the actual game world and assumes a minimum unit of 1m, but in areas smaller than 1m, problems such as stairs caused by resolution restrictions occur. Interpolation and super sampling are performed during texture sampling to improve these problems. Measurements of the time taken to render a frame showed that 146 ms was spent on the forward lighting pipeline, 46 ms on the defered lighting pipeline when the number of particles was 262144, and 214 ms on the forward lighting pipeline and 104 ms on the deferred lighting pipeline when the number of particle lights was 1,024766.

Texture Cache with Automatical Index Splitting Based on Texture Size (텍스처의 크기에 따라 인덱스를 자동 분할하는 텍스처 캐시)

  • Kim, Jin-Woo;Park, Young-Jin;Kim, Young-Sik;Han, Tack-Don
    • Journal of Korea Game Society
    • /
    • v.8 no.2
    • /
    • pp.57-68
    • /
    • 2008
  • Texture Mapping is a technique for adding realism to an image in 3D graphics Chip. Bilinear filtering mode of this technique needs accesses of 4 texels to process one pixel. In this paper we analyzed the access pattern of texture, and proposed the high performance texture cache which can access 4 texels simultaneously. We evaluated using simulation results of 3D game(Quake 3, Unreal Tournament 2004). Simulation results show that proposed texture cache has high performance on the case where physical size is less then or equal 8KBytes.

  • PDF

Automatic Depth Generation Using Laws' Texture Filter (로스 텍스처 필터 기반 영상의 자동 깊이 생성 기법)

  • Jo, Cheol-Yong;Kim, Je-Dong;Jang, Sung-Eun;Choi, Chang-Yeol;Kim, Man-Bae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.87-90
    • /
    • 2009
  • 영상의 깊이 정보를 추출하는 것은 매우 어려운 연구이다. 다양한 유형의 영상 구조의 분석이 필요하지만 많은 경우에 주관적인 판단의 도움이 필요하다. 본 논문에서는 로스 텍스처 필터를 기반으로 정지 영상의 깊이를 자동으로 생성하는 방법을 제안한다. 로스 텍스처 필터는 단안 비전에서 3D 깊이를 얻기 위한 방법으로 활용되었는데, 실제 2D 영상에서 깊이를 예측하기 위해 텍스처 편차, 텍스처 기울기, 색상 등을 활용한다. 로스 필터는 $1{\times}5$ 벡터로부터 콘볼루션을 이용하여, 20여개의 $5{\times}5$ 콘볼루션 필터가 구해지는데, 영상에 필터를 적용하여 로스 에너지를 계산한다. 구해진 에너지를 깊이 맵으로 변환하고, 깊이 맵에서 특징 점을 구하고, 특징 점들로부터 델러노이 삼각화를 이용하여 삼각형 깊이 메쉬를 얻는다. 구해진 깊이 맵의 성능을 측정하기 위해 카메라 시점을 변경하면서 영상의 3D 구조를 분석하였으며, 입체영상을 생성하여 3D 입체 시청 결과를 분석하였다. 실험에서는 로스 텍스처 필터를 이용하는 깊이 생성 방법이 좋은 효과를 얻는 것을 확인하였다.

  • PDF

Texture Mapping of 3D Scan Face Models (3차원 스캔 얼굴 모델의 텍스처 매핑)

  • Jung, Chul-Hee;Cho, Sun-Young;Lee, Myeong-Won
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.10b
    • /
    • pp.212-216
    • /
    • 2007
  • 3D 스캐너의 보급으로 3차원 모델 생성이 가능하게 되었으나 결과로 얻은 형상이 아직 사진에서와 같은 사실적 묘사에 미치지 못하고 있다. 본 논문에서는 얼굴의 3D 스캔 데이터에 효율적인 텍스처 매핑을 통해 사실적 렌더링 결과를 얻을 수 있는 방법을 기술한다. 3D 얼굴 스캔 데이터와 얼굴의 사진 이미지의 좌표를 정확하게 맞추어 3D 스캔 데이터와 얼굴 이미지의 버덱스를 매치시켜주고, 얼굴 이미지의 해당 버텍스에 들어 있는 칼라 값을 3D 스캔 데이터의 버텍스에 넘겨주는 텍스처 매핑을 구현한다. 본 논문에서는 정면, 좌측, 우측 3장의 이미지를 이용하여 간단히 멀티텍스처 매핑을 수행하는 방법과 이 때 발생하는 사진 간의 경계선에서 발생하는 문제 해결에 대해 기술한다.

  • PDF

Automatic 3D Map-Object Generation Using Texture Analysis Table (텍스처 분석 테이블을 이용한 3D 지형 객체 자동 생성)

  • 선영범;김태용;이원형
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2003.11b
    • /
    • pp.634-637
    • /
    • 2003
  • 본 논문은 지형중심 게임에서 깊이레벨에 기반한 텍스처 분석 테이블(TAT)을 이용하여 높이에 따라 정의된 지형 객체들을 효율적으로 생성 시킬 수 있는 알고리즘을 제안한다. 기존의 방법에서는 맵에디터 상에서 지형의 텍스처와 지형의 사실적 표현을 위해 나무나 바위 등의 지형 객체를 수작업으로 편집하였는데 제안한 알고리즘을 적용하면 깊이 단계별 최소의 지형 텍스처만을 사용하여 매우 다양한 종류의 지형 텍스처를 생성해 낼 수 있으며, TAT로부터 깊이 정보값을 활용하여 자연-객체들(Natural Object)을 자동으로 생성시킬 수 있다. 이로써 게임 지형을 제작하는데 불필요한 작업량을 줄일 수 있으며, 그만큼 인공-객체들(Artificial Obejct)을 생성하는데 많은 시간을 투입할 수 있다.

  • PDF

Texture replacement technique using 3D information (3 차원 정보를 활용한 물체의 텍스처 교체 기법)

  • Kim, Joohyeon;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2017.06a
    • /
    • pp.229-232
    • /
    • 2017
  • AR 기술과 장비가 발전하며 다양한 분야에 이를 접목한 콘텐츠들이 생겨나고 있다. 가상광고는 기존의 광고 방법으로는 적용될 수 없는 영역에도 광고가 가능함으로써 광고분야에 새로운 패러다임으로 떠오르고 있다. 본 논문에서는 AR 환경의 가상 광고에 활용할 수 있는 기법을 제안함으로써 관련 기술의 상용화에 기여하고자 한다. 제안하는 기법은 RGB-D 카메라를 사용하여 물체의 3 차원 정보를 복원하고, 선택된 영역의 텍스처를 교체하는 기법과 모델 기반의 카메라 추적기술을 활용하여 실시간으로 물체의 텍스처가 교체될 수 있음을 보일 것이다.

  • PDF