• Title/Summary/Keyword: 중복제거

Search Result 550, Processing Time 0.028 seconds

Study of Efficient Algorithm for Deduplication of Complex Structure (복잡한 구조의 데이터 중복제거를 위한 효율적인 알고리즘 연구)

  • Lee, Hyeopgeon;Kim, Young-Woon;Kim, Ki-Young
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.14 no.1
    • /
    • pp.29-36
    • /
    • 2021
  • The amount of data generated has been growing exponentially, and the complexity of data has been increasing owing to the advancement of information technology (IT). Big data analysts and engineers have therefore been actively conducting research to minimize the analysis targets for faster processing and analysis of big data. Hadoop, which is widely used as a big data platform, provides various processing and analysis functions, including minimization of analysis targets through Hive, which is a subproject of Hadoop. However, Hive uses a vast amount of memory for data deduplication because it is implemented without considering the complexity of data. Therefore, an efficient algorithm has been proposed for data deduplication of complex structures. The performance evaluation results demonstrated that the proposed algorithm reduces the memory usage and data deduplication time by approximately 79% and 0.677%, respectively, compared to Hive. In the future, performance evaluation based on a large number of data nodes is required for a realistic verification of the proposed algorithm.

Storage System Performance Enhancement Using Duplicated Data Management Scheme (중복 데이터 관리 기법을 통한 저장 시스템 성능 개선)

  • Jung, Ho-Min;Ko, Young-Woong
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.37 no.1
    • /
    • pp.8-18
    • /
    • 2010
  • Traditional storage server suffers from duplicated data blocks which cause an waste of storage space and network bandwidth. To address this problem, various de-duplication mechanisms are proposed. Especially, lots of works are limited to backup server that exploits Contents-Defined Chunking (CDC). In backup server, duplicated blocks can be easily traced by using Anchor, therefore CDC scheme is widely used for backup server. In this paper, we propose a new de-duplication mechanism for improving a storage system. We focus on efficient algorithm for supporting general purpose de-duplication server including backup server, P2P server, and FTP server. The key idea is to adapt stride scheme on traditional fixed block duplication checking mechanism. Experimental result shows that the proposed mechanism can minimize computation time for detecting duplicated region of blocks and efficiently manage storage systems.

Data De-duplication and Recycling Technique in SSD-based Storage System for Increasing De-duplication Rate and I/O Performance (SSD 기반 스토리지 시스템에서 중복률과 입출력 성능 향상을 위한 데이터 중복제거 및 재활용 기법)

  • Kim, Ju-Kyeong;Lee, Seung-Kyu;Kim, Deok-Hwan
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.49 no.12
    • /
    • pp.149-155
    • /
    • 2012
  • SSD is a storage device of having high-performance controller and cache buffer and consists of many NAND flash memories. Because NAND flash memory does not support in-place update, valid pages are invalidated when update and erase operations are issued in file system and then invalid pages are completely deleted via garbage collection. However, garbage collection performs many erase operations of long latency and then it reduces I/O performance and increases wear leveling in SSD. In this paper, we propose a new method of de-duplicating valid data and recycling invalid data. The method de-duplicates valid data and then recycles invalid data so that it improves de-duplication ratio. Due to reducing number of writes and garbage collection, the method could increase I/O performance and decrease wear leveling in SSD. Experimental result shows that it can reduce maximum 20% number of garbage collections and 9% I/O latency than those of general case.

JND based Video Pre-processing Adaptive to Quantization Step sizes for Perceptual Redundancy Reduction (시각적 인지 중복성 제거를 위해 양자화 크기값에 적응적인 최소 인지 왜곡 기반 전처리 방법)

  • Ki, Sehwan;Kim, Munchurl
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.11a
    • /
    • pp.100-102
    • /
    • 2016
  • 본 논문에서는 기존의 인지 영상 부호화에 사용되던 Just Noticeable Distortion(JND) 보다 더 압축에 적합한 모델인 Just Noticeable Quantization Distortion(JNQD) 모델을 제시하고, 이를 사용한 인지적 영상 압축 방법을 제안한다. 제안하는 인지적 영상 압축 방식은 영상 코덱 내부의 Rate-Distortion Optimization(RDO)을 수정하지 않고 입력되는 영상의 불필요한 정보들을 미리 제거하는 전처리 과정으로서, JNQD 모델을 사용하여 보다 간단하면서 압축 효율을 크게 증가 시킬 수 있다. 기존 영상 압축의 전처리 방법들은 부호화기의 양자화 값을 전처리 과정에서 고려하지 못하여 부정확한 인지 중복성 제거 결과를 초래하였으나, 제안하는 방법은 영상의 특성뿐만 아니라 양자화 크기 값을 고려하여 적응적으로 인지 왜곡이 발생하지 않는 주관적 인지 중복성 제거를 전처리 과정에서 수행할 수 있다. 거의 유사한 주관적 품질 수준을 유지하면서 HEVC 참조 소프트웨어 대비 약 15%의 압축효율 향상을 보인다.

  • PDF

A Study on Memory Deduplication for Improvement of Memory Efficiency in Virtualization Environment (가상화 환경에서 메모리 효율성 향상을 위한 메모리 중복제거 연구)

  • Cho, Youngjoong;Lee, Seho;Eom, Young Ik
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.21-22
    • /
    • 2013
  • 가상화 기술은 하드웨어 위에서 여러 운영체제를 동작시키면서, 시스템의 활용률을 극대화 시키는 기술이므로 여러 분야에서 각광받고 있다. 가상화는 시스템 위험성 전파 등을 줄임으로써, 보안 노출을 막는 등 여러 장점들이 있다. 하지만, 게스트머신에서 하이퍼바이저로의 잦은 스위치는 가상화 성능을 떨어트린다. 또한, 다수의 가상머신에서 공유될 수 있는 페이지들에 대한 메모리 중복 문제도 존재한다. 우리는 가상화 환경에서 VMEXIT를 줄이고, 메모리를 절약할 수 있는 메모리 중복제거 기술을 제안하고, 이를 정성적으로 성능 평가를 진행하였다.

SSD Caching based De-Duplication for Virtualization Environment (가상화 환경을 위한 SSD 캐시 기반의 중복 제거 기법)

  • Kang, Dong-Woo;Kim, Se-Woog;Lee, Nam-Su;Choi, Jong-Moo;Kim, Jun-Mo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06a
    • /
    • pp.293-295
    • /
    • 2012
  • 가상화 기술은 물리적 컴퓨팅 자원을 사용자에게 논리적으로 제공하여 시스템의 효율성을 높이고 유연성을 향상시키기 위한 기술로 서버 통합이나 아마존 EC2와 같은 클라우드 컴퓨팅 환경에서 사용되고 있다. 이러한 가상화 환경에서는 다수의 가상머신들의 동시적인 I/O 수행으로 인해 저장장치에 병목현상이 발생된다. 또한 각 가상머신들의 중복된 데이터들을 저장하기 위해 불필요한 쓰기 비용이 발생하여 시스템의 성능 저하가 발생하게 된다. 본 논문에서는 이러한 가상화 환경에서의 I/O비용을 감소시키기 위해 SSD를 캐시로 사용하는 중복 제거 기법을 제안한다. 제안된 기법은 중복된 데이터를 제거하여 불필요한 디스크에 대한 I/O 수행을 감소시키며, 중복 발생 패턴의 특성을 고려하여 SSD의 빠른 쓰기 성능을 효과적으로 사용할 수 있는 캐시 구조 모델을 통해 가상화 환경에서 I/O 성능을 향상 시킬 수 있음을 보인다.

Hybrid Data Deduplication Method for reducing wear-level of SSD (SSD의 마모도 감소를 위한 복합적 데이터 중복 제거 기법)

  • Lee, Seung-Kyu;Yang, Yu-Seok;Kim, Deok-Hwan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.543-546
    • /
    • 2011
  • SSD는 일반적으로 사용되는 HDD와는 달리 기계적 동작이 없는 반도체 메모리를 사용하여 데이터를 저장하는 장치이다. 플래시 기반의 SSD는 읽기 성능이 뛰어난 반면 덮어쓰기 연산이 안되는 단점이 있다. 즉 마모도가 존재하여 SSD의 수명에 영향을 준다. 하지만 HDD보다 뛰어난 성능 때문에 노트북이나 중요한 데이터 등을 다루는 시스템 등에서 많이 사용하고 있다. 본 논문에서는 이러한 SSD를 서버 스토리지로 사용할 때 기존의 데이터 중복 제거 기법의 장점만을 조합한 복합적 데이터 중복 제거 기술을 제안하고 이 기법이 SSD의 마모도 측면에서 훨씬 효율적임을 검증하였다.

Satellite Image Data Coding Using Wavelet Transform and Selectively Predictive Vector Quantization (웨이브릿 변환과 선택적 예측 벡터 양자화를 이용한 인공위성 화상데이터의 부호화)

  • 반성원;김병주;김경규;정원식;김영춘;신용달;김건일
    • Journal of the Korean Institute of Telematics and Electronics S
    • /
    • v.36S no.4
    • /
    • pp.38-44
    • /
    • 1999
  • 본 논문에서는 웨이브릿 변환과 선택적 예측 벡터양자화를 이용한 인공위성 화상데이타 부호화 방법을 제안하였다. 이 방법에서는 대역내 중복성을 제거하기 위하여 각각의 대역을 웨이브릿 변환하고, 대역간 중복성을 제거하기 위해 에측하는 대역으로부터 생성된 임계치 지도를 이용하여 선택적 예측 벡터양자화를 행한다. 따라서 이 방법은 대역내 및 대역간 중복성을 효과적으로 제거하기 때문에 부호화 효율을 향상시킨다. 이 방법을 실제 Landsat TM 인공위성 화상데이타에 실험한 결과 기존의 방법에 비하여 부호화 효율이 향상됨을 확인하였다.

  • PDF

Multi-view Video Codec for 3DTV (3DTV를 위한 다시점 동영상 부호화 기법)

  • Bae, Jin-Woo;Song, Hyuk;Kim, Jeong-Su;Yoo, Ji-Sang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2005.11a
    • /
    • pp.21-24
    • /
    • 2005
  • 본 논문에서는 3DTV를 위한 다시점 동영상 부호화 기법을 제안한다. 제안하는 다시점 동영상 부호화기는 다수의 카메라 입력에 대하여 기존의 MPEG 기반의 부호화 기법에서 사용된 시 ${\cdot}$ 공간적 중복성 제거와 각 시점에 해당하는 영상간의 공간적 중복성을 제거하여 부호화효율을 개선할 수 있다. 각 시점 영상간의 공간적 중복성을 효율적으로 제거하기 위하여 전역 시차보상(global disparity compensation)된 집적영상(Accumulated Image)를 사용하였다. 또한 기존의 디지털 TV 전송 표준인 MPEG-2를 기반으로 하였기 때문에 기존의 디지털 TV 표준을 크게 수정하지 않고 3DTV를 구현 할 수 있다. 제안하는 기법은 기존의 MPEG-2 기법으로 각 시점에 해당하는 영상을 각각 부호화한(simulcast 기법) 결과와 비교하여 객관적 화질면에서 우수하였으며, 각 시점간의 동기화 문제도 해결 할 수 있었다.

  • PDF