• Title/Summary/Keyword: 블록 기반 방법

Search Result 1,131, Processing Time 0.043 seconds

LDP implementation in MPLS over ATM (ATM 기반 MPLS를 위한 LDP 구현)

  • 손명희;김은하;최승한;전우직
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10c
    • /
    • pp.402-404
    • /
    • 1999
  • 인터넷 사용자의 기하 급수적인 증가로 고속 데이터 전성과 멀티미디어 서비스에 대한 요구사항이 증가하고 있다. MPLS는 이러한 요구사항에 부응하는 기술로 레이블이라는 짧고 고정된 길이의 식별자를 사용하여 패킷 포워딩을 하는 3계층 스위칭 방법이다. LDP는 MPLS 도메인 내에서 LSP를 설정하기 위해 FEC에 대한 레이블 바인딩과 매핑 결과를 분배하는 프로토콜이다. 현재 전 세계적으로 많은 ISP들이 LDP 개발을 진행 중인데, 본 논문은 서로 다른 환경에서도 상호 연동이 가능하도록 관리 블록과 상태 머신을 이용한 LD 구현에 관하여 기술한다.

  • PDF

Optimization by Helmhotz Machine-Based Learning of the Distribution of Search Points Using Helmholtz Machine (헬름홀츠 머신 기반의 탐색점 분포 학습에 의한 최적화)

  • 신수용;장병탁
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.250-252
    • /
    • 2000
  • 많은 최적화 문제에서 해답들의 구조는 서로 의존성을 가지고 있다. 이러한 경우 기존의 진화연산이 사용하는 빌딩 블록 개념으로는 문제를 해결하는데 많은 어려움을 겪게 된다. 이를 극복하기 위해서 헬름홀츠 머신(Helmholtz machine)을 이용해서 데이터의 분포를 예측한 후 최적화를 수행하는 방법을 제안한다. 기존의 진화 연산을 바탕으로 하지만 교차연산이나 돌연변이 연산을 사용하는 대신에, 헬름홀츠 머신을 이용해서 데이터의 분포를 파악하고, 이를 이용해서 새로운 데이터를 생성하는 과정을 통해 최적화 과정을 수행한다. 진화연산으로 해결하는데 곤란을 겪고 있는 여러 함수들을 해결하는 이를 검증하였다.

  • PDF

Improved SPIHT video coder using Mu1ti-weighting factor (다중 가중 인자를 이용한 개선된 SPIHT 비디오 부호기)

  • 정용재;강경원;서호찬;권기룡;문광석
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2001.06a
    • /
    • pp.229-232
    • /
    • 2001
  • 초저속 전송 통신망에서 비디오 전송을 효율적으로 하기 위한 시스템은 낮은 비디오 전송율에서 높은 압축율을 갖는 부호화 방법들이 사용된다. 현재 저속 통신을 위한 부호화 표준으로 대표적인 ITU-T의 H.263은 DCT기반이므로 낮은 비트율에서 블록화 현상이 발생한다. 본 논문에서 제안하는 다중 가중 인자를 이용한 SPIHT 비디오 부호기는 H.263에 비하여 동영상의 PSNR이 우수한 성능을 보였고 기존 SPIHT 비디오 부호기보다도 PSNR이 우수함을 확인하였다.

  • PDF

SANfs: A Scalable Shared File System for Linux Clusters (SANfs: 리눅스 클러스터를 위한 확장성 있는 공유파일시스템)

  • 황주영;안철우;박규호
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10c
    • /
    • pp.91-93
    • /
    • 2001
  • 본 논문에서는 Storage Area Network기반의 대규모용량의 저장장치에 적합한 확장성 있는 공유파일시스템을 제안하고, Linux상에서의 구현을 보인다. 락의 단위는 블록이 아닌 파일단위로 하므로써 락오버헤드를 줄이고, callback방식의 파일 락을 사용한다. 파일데이터일관성 및 디렉토리캐쉬 일관성유지를 위한 Linux상에서의 구현방법을 보인다. 메타서버의 free block관리부담을 줄이기 위해서 분산 free block관리법을 사용한다. 또한 Inode와 data를 분리 저장함으로써 성능을 최적화한다.

  • PDF

Multi-view residual image coding technique using adaptive quantization and scanning method (적응적 양자화 및 스캔 방법을 이용한 다시점 차영상 부호화에 관한 연구)

  • 임정은;손광훈
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.27 no.3A
    • /
    • pp.249-257
    • /
    • 2002
  • 본 논문에서는 스테레오/다시점 영상을 효율적으로 압축할 수 있는 차 영상 부호화 방법을 제안한다. 예측된 영상과 원 영상의 차이 정보를 보다 효율적으로 전송하기 위하여 DCT를 기반으로 차 영상 부호화를 하게 되는데 DCT 계수들의 방향성을 이용하여 양자화 및 스캔 방법을 각 블록의 특성에 따라 다르게 적용하였다. 특히 다시점 영상의 부호화는 첫 번째 시점 영상을 기준 영상으로 정하여 나머지 시점 영상을 기준 영상으로부터 변이를 추정하여 복원하는 방식과 다시점 영상 중 가려진 영역의 비율을 고려하여 가려진 영역이 상대적으로 제일 적은 영상을 기준 영상으로 설정하여 나머지 영상을 변이 추정하여 복원하는 방법으로 나누어 실험하였다. 실험 결과 모든 압축률에 대하여 제안 방식이 기존의 차 영상 부호화 방법보다 우수함을 확인하였고, 가려진 영역의 상대적인 비율을 고려하여 다시점 영상을 부호화한 제안 방식이 기존의 방식 및 첫 번째 시점을 기준 영상으로 설정하여 부호화한 제안 방식보다 우수함을 확인하였다.

Visually-Adaptive Quantization method Based on Block DCT (DCT 기반 영상의 시각 적응적 양자화 방법에 관한 연구)

  • 김정현;박성찬;천승환;이귀상
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.604-606
    • /
    • 2000
  • 본 논문에서는 인간의 시각 특성을 고려한 시각 적응적 DCT 영상 압축 방법이 제안되었다. 인간의 시각 체계의 특성 중 복잡한 영사이나 대비효과(contrast)가 큰 부분에서는 압축과정에서 발생한 왜곡이 쉽게 눈에 인지되지 않는 특성을 갖는 공간적 마스킹(spatial masking)을 이용하여 영상의 질을 어느정도 유지하면서 적응적 압축 방법에 의해 압축율을 보다 높이는 방법을 제시하였다. DCT 변환 블록에서 경계영역 정보를 많이 포함하는 부분을 추출한 후 이 영역은 다른 영역에 비해 복잡도가 더 높고 경계성분의 대비효과가 더 크기 때문에 이 영역의 분산을 취해 이 값에 따라 적응적으로 양자화한다. 실험결과, 제안된 영상 압축 알고리즘은 기존의 시각 적응적 압축 방법보다 좋은 성능을 보이며 특히 고주파 성분을 많이 가진 복잡한 영상에 대하여 높은 압축률을 보였다.

  • PDF

Efficient High-Speed Intra Mode Prediction based on Statistical Probability (통계적 확률 기반의 효율적인 고속 화면 내 모드 예측 방법)

  • Lim, Woong;Nam, Jung-Hak;Jung, Kwang-Soo;Sim, Dong-Gyu
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.47 no.3
    • /
    • pp.44-53
    • /
    • 2010
  • The H.264/AVC has been designed to use 9 directional intra prediction modes for removing spatial redundancy. It also employs high correlation between neighbouring block modes in sending mode information. For indication of the mode, smaller bits are assigned for higher probable modes and are compressed by predicting the mode with minimum value between two prediction modes of neighboring two blocks. In this paper, we calculated the statistical probability of prediction modes of the current block to exploit the correlation among the modes of neighboring two blocks with several test video sequences. Then, we made the probable prediction table that lists 5 most probable candidate modes for all possible combinatorial modes of upper and left blocks. By using this probability table, one of 5 higher probable candidate modes is selected based on RD-optimization to reduce computational complexity and determines the most probable mode for each cases for improving compression performance. The compression performance of the proposed algorithm is around 1.1%~1.50%, compared with JM14.2 and we achieved 18.46%~36.03% improvement in decoding speed.

A Fast Inter Mode Decision Algorithm Considering Quantization Parameter in H.264 (H.264 표준에서 양자화 계수를 고려한 고속 인터모드 결정 방법)

  • Kim, Geun-Yong;Ho, Yo-Sung
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.43 no.6 s.312
    • /
    • pp.11-19
    • /
    • 2006
  • The recent video coding standard H.264 employs the rate-distortion optimization (RDO) method for choosing the best coding mode; however, it causes a large amount of encoding time. Thus, in order to reduce the encoding time, we need a fast mode decision algorithm. In this paper, we propose a fast inter mode decision algorithm considering quantization parameter (QP). The occurrence of best modes depends on QP. In order to reflect these characteristics, we consider the coded block pattern (CBP) which has 0 value when all quantized discrete cosine transform (DCT) coefficients are zero. We also use the early SKIP mode decision and early $16{\times}16$ mode decision methods. By computer simulations, we have verified that the proposed algorithm requires less encoding time than the fast inter mode decision method of the H.264 reference software for the Baseline and Main profiles by 19.6% and 18.8%, respectively.

DC Offset Adjusted Inter Prediction Algorithm for Improving H.264/AVC Video Coding Efficiency (H.264/AVC 동영상 압축율 향상을 위한 DC 오프셋 보정에 기반한 인터 예측 알고리즘)

  • Yoon, Dae-Il;Kim, Hae-Kwang
    • Journal of Broadcast Engineering
    • /
    • v.16 no.5
    • /
    • pp.793-796
    • /
    • 2011
  • H.264/AVC compresses video data by applying DCT transform, quantization and entropy coding processes to the residual signal obtained by inter/intra prediction. This paper proposes a method enhancing an existing DC offset adjustment technology which uses information of neighboring blocks to reduce residual information for improving coding efficiency. DC offset information is not sent over bitstreams, but calculated in the same way both in the decoder and in the encoder. Experimental results show that the proposed method enhances coding efficiency by 0.25% in average BD-Rate compared to H.264/AVC and gives better or worse coding efficiency compared to the existing DC offset method depending on video sequences with coding efficiency degradation by 0.09% in average BD-Rate. This experimental results also show that further coding efficiency improvement is possible by applying the proposed method adaptively to slice or macroblock coding units.

Multi-focus Image Fusion Technique Based on Parzen-windows Estimates (Parzen 윈도우 추정에 기반한 다중 초점 이미지 융합 기법)

  • Atole, Ronnel R.;Park, Daechul
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.8 no.4
    • /
    • pp.75-88
    • /
    • 2008
  • This paper presents a spatial-level nonparametric multi-focus image fusion technique based on kernel estimates of input image blocks' underlying class-conditional probability density functions. Image fusion is approached as a classification task whose posterior class probabilities, P($wi{\mid}Bikl$), are calculated with likelihood density functions that are estimated from the training patterns. For each of the C input images Ii, the proposed method defines i classes wi and forms the fused image Z(k,l) from a decision map represented by a set of $P{\times}Q$ blocks Bikl whose features maximize the discriminant function based on the Bayesian decision principle. Performance of the proposed technique is evaluated in terms of RMSE and Mutual Information (MI) as the output quality measures. The width of the kernel functions, ${\sigma}$, were made to vary, and different kernels and block sizes were applied in performance evaluation. The proposed scheme is tested with C=2 and C=3 input images and results exhibited good performance.

  • PDF