• 제목/요약/키워드: Texture encoding

검색결과 26건 처리시간 0.023초

실시간 3차원 텍스춰 매핑을 위한 압축기법의 성능 비교 (Comparison of Compression Schemes for Real-Time 3D Texture Mapping)

  • 박기주;임인성
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제6권4호
    • /
    • pp.35-42
    • /
    • 2000
  • 3차원 텍스춰 매핑은 얇은 종이를 부자연스럽게 물체에 붙이는 것과는 달리 마치 원래의 재료로부터 조각을 한 것과 같은 매우 자연스러운 시각적 효과를 내는 장점이 있다. 하지만 빠른 텍스춰 매핑을 위하여 샘플링을 통하여 생성한 3차원 텍스춰를 실시간 계산을 위하여 메모리에 올리는 것은 일반적으로 텍스춰의 방대한 크기 때문에 실용적이지 못하다. 최근 [11]에서는 실용적인 실시간 3차원 텍스춰 매핑 기법을 제안하였는데 여기서는 웨이블릿에 기반한 압축 기법을 사용하여 메모리 문제를 해결하려 하였다. 이 논문에서는 이러한 압축 기반 실시간 3D 텍스춰 매핑에 사용될 수 있는 또 다른 압축 기법에 대하여 살펴보았다. 특히 벡터양자화 방법과 FXT1 방법을 3차원 텍스춰 압축에 적합하도록 확장을 하고 그 성능을 비교 분석을 하였다.

  • PDF

FCM을 이용한 3차원 영상 정보의 패턴 분할 (The Pattern Segmentation of 3D Image Information Using FCM)

  • 김은석;주기세
    • 한국정보통신학회논문지
    • /
    • 제10권5호
    • /
    • pp.871-876
    • /
    • 2006
  • 본 논문은 공간 부호화 패턴들을 이용하여 3차원 얼굴 정보를 정확하게 측정하기 위하여 초기 얼굴 패턴 영상으로부터 이미지 패턴을 검출하기 위한 새로운 알고리즘을 제안한다. 획득된 영상이 불균일하거나 패턴의 경계가 명확하지 않으면 패턴을 분할하기가 어렵다. 그리고 누적된 오류로 인하여 코드화가 되지 않는 영역이 발생한다. 본 논문에서는 이러한 요인에 강하고 코드화가 잘 될 수 있도록 FCM 클러스터링 방법을 이용하였다. 패턴 분할을 위하여 클러스터는 2개, 최대 반복횟수는 100, 임계값은 0.00001로 설정하여 실험하였다. 제안된 패턴 분할 방법은 기존 방법들(Otsu, uniform error, standard deviation, Rioter and Calvard, minimum error, Lloyd)에 비해 8-20%의 분할 효율을 향상시켰다.

3D-AVC에서 색상 영상 정보를 이용한 깊이 영상의 빠른 화면 내 예측 모드 결정 기법 (Fast Intra Mode Decision Algorithm for Depth Map Coding using Texture Information in 3D-AVC)

  • 강진미;정기동
    • 한국멀티미디어학회논문지
    • /
    • 제18권2호
    • /
    • pp.149-157
    • /
    • 2015
  • The 3D-AVC standard aims at improving coding efficiency by applying new techniques for utilizing intra, inter and view predictions. 3D video scenes are rendered with existing texture video and additional depth map. The depth map comes at the expense of increased computational complexity of the encoding process. For real-time applications, reducing the complexity of 3D-AVC is very important. In this paper, we present a fast intra mode decision algorithm to reduce the complexity burden in the 3D video system. The proposed algorithm uses similarity between texture video and depth map. The best intra prediction mode of the depth map is similar to that of the corresponding texture video. The early decision algorithm can be made on the intra prediction of depth map coding by using the coded intra mode of texture video. Adaptive threshold for early termination is also proposed. Experimental results show that the proposed algorithm saves the encoding time on average 29.7% without any significant loss in terms of the bit rate or PSNR value.

Low-Complexity MPEG-4 Shape Encoding towards Realtime Object-Based Applications

  • Jang, Euee-Seon
    • ETRI Journal
    • /
    • 제26권2호
    • /
    • pp.122-135
    • /
    • 2004
  • Although frame-based MPEG-4 video services have been successfully deployed since 2000, MPEG-4 video coding is now facing great competition in becoming a dominant player in the market. Object-based coding is one of the key functionalities of MPEG-4 video coding. Real-time object-based video encoding is also important for multimedia broadcasting for the near future. Object-based video services using MPEG-4 have not yet made a successful debut due to several reasons. One of the critical problems is the coding complexity of object-based video coding over frame-based video coding. Since a video object is described with an arbitrary shape, the bitstream contains not only motion and texture data but also shape data. This has introduced additional complexity to the decoder side as well as to the encoder side. In this paper, we have analyzed the current MPEG-4 video encoding tools and proposed efficient coding technologies that reduce the complexity of the encoder. Using the proposed coding schemes, we have obtained a 56 percent reduction in shape-coding complexity over the MPEG-4 video reference software (Microsoft version, 2000 edition).

  • PDF

Rotation Invariant Local Directional Pattern을 이용한 텍스처 분류 방법 (Texture Classification Using Rotation Invariant Local Directional Pattern)

  • 이태환;채옥삼
    • 융합보안논문지
    • /
    • 제17권3호
    • /
    • pp.21-29
    • /
    • 2017
  • 지역 패턴을 정확하게 부호화 하는 방법은 텍스처 분류 연구에 매우 중요한 요소다. 하지만 기존 널리 연구된 LBP기반 방법들은 잡음에 취약한 근본적인 문제점이 있다. 최근 표정인식 분야에서 에지반응 값과 방향 정보를 활용한 LDP방법이 제안되었다. LDP방법은 LBP보다 잡음에 강하고 더 많은 정보를 코드에 수용할 수 있는 장점이 있지만 텍스처 분류에 적용하기에는 치명적인 회전 변화에 민감한 단점이 있다. 본 논문에서는 LDP 방법에 회전 불변 특성을 결합하고 기존 LDP가 가지고 있던 부호 정보를 수용하지 않은 단점과 밝기 값 차이가 적은 영역에서 의미 없는 코드가 생성되는 단점을 극복한 새로운 지역 패턴 부호화 방법인 Rotation Invariant Local Directional Pattern 방법을 제안한다. 본 논문에서 제안된 방법의 텍스처 분류 성능을 입증하기 위해 널리 사용되는 UIUC, CUReT 데이터 셋에서 텍스처 분류를 수행했다. 그 결과 제안된 RILDP방법이 기존 방법보다 우수한 성능을 보여주었다.

PSNR 값 기반의 자동화된 ASTC 블록 크기 결정 방법 (ASTC Block-Size Determination Method based on PSNR Values)

  • 나재호
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제28권2호
    • /
    • pp.21-28
    • /
    • 2022
  • ASTC는 OpenGL ES 3.2 및 Vulkan 1.0 이상의 버전에서 지원하는 표준 텍스쳐 포맷 중 하나로, 모바일 플랫폼(Android 및 iOS)에서 지속적으로 사용이 증가해 왔다. ASTC의 가장 큰 특징은 블록 크기 설정으로, 이를 통해 품질과 압축률 간의 트레이드 오프를 조절할 수 있다. 하지만 텍스쳐의 개수가 많을 경우 텍스쳐별 최적의 블록 크기를 일일히 수작업으로 설정하는 것은 많은 시간과 노고를 야기하게 된다. 이러한 문제점을 해결하기 위해 본 논문은 PSNR 값을 기반으로 자동으로 ASTC 블록 크기를 결정하는 새로운 방법을 제안한다. 모든 블록 크기에 대해 압축을 수행한 후 PSNR값을 비교하는 brute-force 방식은 최고 14배까지 압축 시간을 증가시킬 수 있는 반면, 본 논문의 방법은 압축 과정을 3단계로 나누어 이러한 압축 시간 증가를 최소화한다. 다양한 형태의 64개 이미지로 구성된 텍스쳐 셋을 통해 실험한 결과, 제안하는 방법은 텍스쳐별로 4×4 에서 12×12까지 다양한 블록 크기를 결정하였으며, 블록 크기를 6×6으로 일괄적으로 정한 경우에 비해 압축된 파일들의 총 크기가 68% 감소하였다.

다중 가상 카메라의 실시간 파노라마 비디오 스트리밍 기법 (Real-Time Panoramic Video Streaming Technique with Multiple Virtual Cameras)

  • 옥수열;이석환
    • 한국멀티미디어학회논문지
    • /
    • 제24권4호
    • /
    • pp.538-549
    • /
    • 2021
  • In this paper, we introduce a technique for 360-degree panoramic video streaming with multiple virtual cameras in real-time. The proposed technique consists of generating 360-degree panoramic video data by ORB feature point detection, texture transformation, panoramic video data compression, and RTSP-based video streaming transmission. Especially, the generating process of 360-degree panoramic video data and texture transformation are accelerated by CUDA for complex processing such as camera calibration, stitching, blending, encoding. Our experiment evaluated the frames per second (fps) of the transmitted 360-degree panoramic video. Experimental results verified that our technique takes at least 30fps at 4K output resolution, which indicates that it can both generates and transmits 360-degree panoramic video data in real time.

블록단위의 프래탈 근사화를 이용한 영상코딩 (Image Coding by Block Based Fractal Approximation)

  • 정현민;김영규;윤택현;강현철;이병래;박규태
    • 전자공학회논문지B
    • /
    • 제31B권2호
    • /
    • pp.45-55
    • /
    • 1994
  • In this paper, a block based image approximation technique using the Self Affine System(SAS) from the fractal theory is suggested. Each block of an image is divided into 4 tiles and 4 affine mapping coefficients are found for each tile. To find the affine mapping cefficients that minimize the error between the affine transformed image block and the reconstructed image block, the matrix euation is solved by setting each partial differential coefficients to aero. And to ensure the convergence of coding block. 4 uniformly partitioned affine transformation is applied. Variable block size technique is employed in order to applynatural image reconstruction property of fractal image coding. Large blocks are used for encoding smooth backgrounds to yield high compression efficiency and texture and edge blocks are divided into smaller blocks to preserve the block detail. Affine mapping coefficinets are found for each block having 16$\times$16, 8$\times$8 or 4$\times$4 size. Each block is classified as shade, texture or edge. Average gray level is transmitted for shade bolcks, and coefficients are found for texture and edge blocks. Coefficients are quantized and only 16 bytes per block are transmitted. Using the proposed algorithm, the computational load increases linearly in proportion to image size. PSNR of 31.58dB is obtained as the result using 512$\times$512, 8 bits per pixel Lena image.

  • PDF

텍스쳐 추출시 제한된 수의 참여 영상을 이용한 Multi-view 영상 개선 알고리듬 (An Algorithm for the Multi-view Image Improvement with the Resteicted Number of Images in Texture Extraction)

  • 김도현;양영일
    • 한국멀티미디어학회논문지
    • /
    • 제3권1호
    • /
    • pp.34-40
    • /
    • 2000
  • 본 논문에서는 텍스쳐 추출시 제한된 수의 참여 영상을 이용한 multi-view 영상으로부터 가장 좋은 텍스쳐를 추출하는 효과적인 알고리듬을 제안하였다. 기존의 알고리듬이 정규화된 물체 공간에서 X-Y 평면을 삼각패치로 나누고 아휜 변환에 기반한 변이 보상 모델을 이용하여 삼각패치의 텍스쳐를 추출하였다. 본 논문에서는 기존의 방법과 달리 텍스쳐 추출시 참여 영상의 수를 제한하여 multi-view 영상으로부터 가장 좋은 텍스쳐를 추출하였다. Dragon, santa, city 그리고 kid의 multi-view 영상세트에 대해 실험한 결과 제안된 알고리듬으로 텍스쳐를 추출한후 이로부터 복원된 영상의 신호 대 잡음비(SNR)는 기존의 알고리듬으로 처리된 후 복원된 영상의 신호 대 잡음비보다 평균 0.2dB 정도 개선된 결과를 얻을 수 있었다. 제안된 방법으로 부호화된 데이터로부터 복원된 영상은 기존의 방법으로 부호화된 데이터로부터 복원된 영상보다 영상의 화질이 개선됨을 관찰할 수 있었다.

  • PDF

Bayesian-theory-based Fast CU Size and Mode Decision Algorithm for 3D-HEVC Depth Video Inter-coding

  • Chen, Fen;Liu, Sheng;Peng, Zongju;Hu, Qingqing;Jiang, Gangyi;Yu, Mei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권4호
    • /
    • pp.1730-1747
    • /
    • 2018
  • Multi-view video plus depth (MVD) is a mainstream format of 3D scene representation in free viewpoint video systems. The advanced 3D extension of the high efficiency video coding (3D-HEVC) standard introduces new prediction tools to improve the coding performance of depth video. However, the depth video in 3D-HEVC is time consuming. To reduce the complexity of the depth video inter coding, we propose a fast coding unit (CU) size and mode decision algorithm. First, an off-line trained Bayesian model is built which the feature vector contains the depth levels of the corresponding spatial, temporal, and inter-component (texture-depth) neighboring largest CUs (LCUs). Then, the model is used to predict the depth level of the current LCU, and terminate the CU recursive splitting process. Finally, the CU mode search process is early terminated by making use of the mode correlation of spatial, inter-component (texture-depth), and inter-view neighboring CUs. Compared to the 3D-HEVC reference software HTM-10.0, the proposed algorithm reduces the encoding time of depth video and the total encoding time by 65.03% and 41.04% on average, respectively, with negligible quality degradation of the synthesized virtual view.