• Title/Summary/Keyword: 데이터 압축

Search Result 1,712, Processing Time 0.045 seconds

Image Compression using an Intelligne Classified Vector Quantization Method in Transform Domain (변환영역에서의 지능형 분류벡터양자화를 이용한 영상압축)

  • 이현수;공성곤
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.7 no.4
    • /
    • pp.18-28
    • /
    • 1997
  • This paper presents image data compression using a classified vector quantization (CVQ) which categories edge blocks according to the energy distribution of subimages in the discrete cosine transform domain. Classifying the edge blocks enhances visual quality of the compressed images while maintaining a high compression ratio. The proposed classification method categories subimages into eight lypes of edge features according to an energy distribution. A neural network, trained with the data generated from the proposed classification method, can successfully classify subimages to eight edge categories. Experimental results are given to show how the (1VQ method incorporatd with a neural network can produce faithful compressed image quality for high compression ratios.

  • PDF

Block Truncation Coding using Reduction Method of Chrominance Data for Color Image Compression (색차 데이터 축소 기법을 사용한 BTC (Block Truncation Coding) 컬러 이미지 압축)

  • Cho, Moon-Ki;Yoon, Yung-Sup
    • Journal of the Institute of Electronics Engineers of Korea SD
    • /
    • v.49 no.3
    • /
    • pp.30-36
    • /
    • 2012
  • block truncation coding(BTC) image compression is known as a simple and efficient technology for image compression algorithm. In this paper, we propose RMC-BTC algorithm(RMC : reduction method chrominace data) for color image compression. To compress chrominace data, in every BTC block, the RMC-BTC coding employs chrominace data expressed with average of chrominace data and using method of luminance data bit-map to represented chrominance data bit-map. Experimental results shows efficiency of proposed algorithm, as compared with PSNR and compression ratio of the conventional BTC method.

3D data Compression by Modulating Function Based Decimation (변조함수를 이용한 decimation기법에 의한 3D 데이터 압축)

  • Yang, Hun-Gi;Lee, Seung-Hyeon;Gang, Bong-Sun
    • Journal of the Institute of Electronics Engineers of Korea SD
    • /
    • v.37 no.5
    • /
    • pp.16-22
    • /
    • 2000
  • This paper presents a compression algorithm applicable for transmitting a HPO hologram data. The proposed algorithm exploits a modulating function to compress the bandwidth of the hologram pattern, resulting in decimation due to relaxed Nyquist sampling constraints. At the receiver, the compressed data will be interpolated and compensated via being divided by the modulating function. We also present compression rate and analyze the resolution of a reconstructed image and the periodicity of harmonic interferences. Finally, we shows the validity of the proposed algorithm by simulation where a reconstructed image from undersampled data is compared with a reconstructed image obtained through decimatioin by modulating function, interpolation and compensation.

  • PDF

Fast Medical Volume Decompression Using GPGPU (GPGPU를 이용한 고속 의료 볼륨 영상의 압축 복원)

  • Kye, Hee-Won
    • Journal of Korea Multimedia Society
    • /
    • v.15 no.5
    • /
    • pp.624-631
    • /
    • 2012
  • For many medical imaging systems, volume datasets are stored as a compressed form, so that the dataset has to be decompressed before it is visualized. Since the decompression process takes quite a long time, we present an acceleration method for medical volume decompression using GPU. Our method supports that both lossy and lossless compression and progressive refinement is possible to satisfy variable user requirements. Moreover, our decompression method is well parallelized for GPU so that the decompression takes a very short time. Finally, we designed that the decompression and volume rendering work in one framework so that the selective decompression is available. As a result, we gained additional improvement in volume decompression.

A Study on Selective Encryption of Huffman Codes (허프만 코드의 선택적 암호화에 관한 연구)

  • Park, Sang-Ho
    • Convergence Security Journal
    • /
    • v.7 no.2
    • /
    • pp.57-63
    • /
    • 2007
  • The security of data in network is provided by encryption. Selective encryption is a recent approach to reduce the computational cost and complexity for large file size data such as image and video. This paper describes techniques to encrypt Huffman code and discusses the performance of proposed scheme. We propose a simple encryption technique applicable to the Huffman code and study effectiveness of encryption against insecure channel. Our scheme combine encryption process and compression process, and it can reduce processing time for encryption and compression by combining two processes.

  • PDF

Recent Trends of Universal Data Compression (유니버샬 데이터 압축의 최근의 연구동향)

  • 박지환;진용옥
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.16 no.10
    • /
    • pp.901-913
    • /
    • 1991
  • Data compression has important application in the areas of file storage and distributed computer systems. The universal data compression achieves asymptotically optimum cimpression ratio for strings generated by any stationary ergodic source without a priori source probabilities.The paper describes the principle and the recent research trends on universal data compression. And its applications.

  • PDF

Improving Clustered Sense Labels for Word Sense Disambiguation (단어 의미 모호성 해소를 위한 군집화된 의미 어휘의 품질 향상)

  • Jeongyeon Park;Hyeong Jin Shin;Jae Sung Lee
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.268-271
    • /
    • 2022
  • 단어 의미 모호성 해소는 동형이의어의 의미를 문맥에 맞게 결정하는 일이다. 최근 연구에서는 희소 데이터 처리를 위해 시소러스를 사용해 의미 어휘를 압축하고 사용하는 방법이 좋은 성능을 보였다[1]. 본 연구에서는 시소러스 없이 군집화 알고리즘으로 의미 어휘를 압축하는 방법의 성능 향상을 위해 두 가지 방법을 제안한다. 첫째, 의미적으로 유사한 의미 어휘 집합인 범주(category) 정보를 군집화를 위한 초기 군집 생성에 사용한다. 둘째, 다양하고 많은 문맥 정보를 학습해 만들어진 품질 좋은 벡터를 군집화에 사용한다. 영어데이터인 SemCor 데이터를 학습하고 Senseval, Semeval 5개 데이터로 평가한 결과, 제안한 방법의 평균 성능이 기존 연구보다 1.5%p 높은 F1 70.6%를 달성했다.

  • PDF

Sentence Compression based on Sentence Scoring Reflecting Linguistic Information (언어 정보를 반영한 문장 점수 측정 기반의 문장 압축)

  • Lee, Jun-Beom;Kim, So-Eon;Park, Seong-Bae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.05a
    • /
    • pp.389-392
    • /
    • 2021
  • 문장 압축은 원본 문장의 중요한 의미를 보존하는 짧은 길이의 압축 문장을 생성하는 자연어처리 태스크이다. 문장 압축은 사용자가 텍스트로부터 필요한 정보를 빠르게 획득할 수 있도록 도울 수 있어 활발히 연구되고 있지만, 기존 연구들은 사람이 직접 정의한 압축 규칙이 필요하거나, 모델 학습을 위해 대량의 데이터셋이 필요하다는 문제점이 존재한다. 사전 학습된 언어 모델을 통한 perplexity 기반의 문장 점수 측정을 통해 문장을 압축하여 압축 규칙과 모델 학습을 위한 데이터셋이 필요하지 않은 연구 또한 존재하지만, 문장 점수 측정에 문장에 속한 단어들의 의미적 중요도를 반영하지 못하여 중요한 단어가 삭제되는 문제점이 존재한다. 본 논문은 언어 정보 중 품사 정보, 의존관계 정보, 개체명 정보의 중요도를 수치화하여 perplexity 기반의 문장 점수 측정에 반영하는 방법을 제안한다. 또한 제안한 문장 점수 측정 방법을 활용하였을 때 문장 점수 측정 기반 문장 압축 모델의 문장 압축 성능이 향상됨을 확인하였으며, 이를 통해 문장에 속한 단어의 언어 정보를 문장 점수 측정에 반영하는 것이 의미적으로 적절한 압축 문장을 생성하는 데 도움이 될 수 있음을 보였다.

A Preprocessing Technique of Gray Scale Image for Efficient Entropy Coding (효율적인 엔트로피부호화를 위한 명암도 등급 이미지의 전처리 기법)

  • Kim, Sun-Ja;Han, Deuk-Su;Park, Jung-Man;You, Kang-Soo;Lee, Jong-Ha;Kwak, Hoon-Sung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.805-808
    • /
    • 2005
  • 엔트로피부호화(entropy coding)는 텍스트와 같은 일반적인 데이터들을 효율적으로 압축하는 반면에, 이미지 데이터들에 대해서는 그 성능이 다소 저하된다. 본 논문에서는 이러한 단점을 개선시키기 위한 효율적인 전처리기법(preprocessing technique)을 소개한다. 제안한 전처리기법은 입력된 명암도 등급 이미지를 무손실 압축하기 이전에, 이미지 내에서 인접한 명암도 값들의 발생빈도(occurrence frequency)를 조사한다. 다음으로 각 픽셀 쌍들의 명암도 값들을 발생빈도에 기반한 순서화된 값(ordered number)들로 대체시킨 후, 최종적으로 엔트로피부호화에 의한 압축을 수행한다. 이와 같은 단계들을 거치면서 이미지 데이터의 통계적인 특성(statistical feature)이 보다 강화되기 때문에, 엔트로피부호화에서의 무손실 압축 성능을 효율적으로 개선시킬 수 있다. 실험을 통하여 256 명암도 등급 이미지들을 산술부호화와 허프만부호화를 사용하여 압축한 결과, 제안한 전처리기법이 압축 후 비트율(bit rate)을 최대 37.49%까지 감소시켰음을 확인하였다.

  • PDF

Proposal for Decoding-Compatible Parallel Deflate Algorithm by Inserting Control Header Composed of Non-Compressed Blocks (비 압축 블록으로 구성된 제어 헤더 삽입을 통한 압축 해제 호환성 있는 병렬 처리 Deflate 알고리즘 제안)

  • Kim Jung Hoon
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.12 no.5
    • /
    • pp.207-216
    • /
    • 2023
  • For decoding-compatible parallel Deflate algorithm, this study proposed a new method of the control header being made in such a way that essential information for parallel compression and decompression are stored in the Disposed Bit Area (DBA) of the non-compression block and being inserted into the compressed blocks. Through this, parallel compression and decompression are possible while maintaining perfect compatibility with the existing decoder. After applying this method, the compression time was reduced by up to 71.2% compared to the sequential processing method, and the parallel decompression time was reduced by up to 65.7%. In particular, it is well known that parallel decompression is impossible due to the structural limitations of the Deflate algorithm. However, the decoder equipped with the proposed method enables high-speed parallel decompression at the algorithm level and maintains compatibility, so that parallelly compressed data can be decoded normally by existing decoder programs.