• Title/Summary/Keyword: 데이터 중복 관리

Search Result 281, Processing Time 0.023 seconds

Performance Improvement of Storage System Using De-duplication (중복 데이터 관리 기법을 통한 저장 시스템 성능 개선)

  • Jeong, Ho-Min;Kim, Byung-Ki;Kim, Jin;Ko, Young-Woong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.04a
    • /
    • pp.909-912
    • /
    • 2009
  • 기존의 저장 방식은 대용량의 데이터를 비효율적으로 처리해 왔지만 데이터 중복 제거 기법을 이용하면서 저장 공간과 네트워크 대역폭을 효율적으로 사용할 수 있게 되었다. 그러나 기존의 데이터 중복 제거 알고리즘들은 수행시간이 길고 중복 데이터를 효율적으로 제거하지 못하는 문제가 있다. 본 논문에서는 개선된 중복 검색 및 제거 메커니즘을 제공하는 저장 시스템을 제안하고 있다. 제안하는 알고리즘은 저장 공간을 최소화하고 네트워크 대역폭을 줄일 수 있다. 주요 아이디어는 스트라이드 방식의 중복 검색 메커니즘이며 중복된 데이터 블록을 발견하는데 있어서 계산 시간을 줄여주고 있다. 제안하는 시스템의 성능을 검증하기 위하여 리눅스 배포 데이터를 저장하는 실험을 수행하였으며 실험 결과 스트라이드 방식이 저장 공간을 줄이고 중복된 데이터 블록을 효율적으로 관리할 수 있음을 보였다.

Efficient Storage Management Scheme for Graph Historical Retrieval (그래프 이력 데이터 접근을 위한 효과적인 저장 관리 기법)

  • Kim, Gihoon;Kim, Ina;Choi, Dojin;Kim, Minsoo;Bok, Kyoungsoo;Yoo, Jaesoo
    • The Journal of the Korea Contents Association
    • /
    • v.18 no.2
    • /
    • pp.438-449
    • /
    • 2018
  • Recently, various graph data have been utilized in various fields such as social networks and citation networks. As the graph changes dynamically over time, it is necessary to manage the graph historical data for tracking changes and retrieving point-in-time graphs. Most historical data changes partially according to time, so unchanged data is stored redundantly when data is stored in units of time. In this paper, we propose a graph history storage management method to minimize the redundant storage of time graphs. The proposed method continuously detects the change of the graph and stores the overlapping subgraph in intersection snapshot. Intersection snapshots are connected by a number of delta snapshots to maintain change data over time. It improves space efficiency by collectively managing overlapping data stored in intersection snapshots. We also linked intersection snapshots and delta snapshots to retrieval the graph at that point in time. Various performance evaluations are performed to show the superiority of the proposed scheme.

Primary Copy based Data Replication Scheme for Ensuring Data Consistency in Mobile Ad-hoc Networks (이동적응망에서 데이터 일관성 보장을 위한 주사본 기반 데이터 중복 기법)

  • Moon, Ae-Kyung
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11a
    • /
    • pp.334-336
    • /
    • 2005
  • 이동적응망(MANET: Mobile Ad-hoc Network)은 네트워크 하부 구조를 필요로 하지 않은 무선 단말들로 구성된 네트워크이다. 이러한 특성은 네트워크 단절 가능성을 높게 하기 때문에 이동단말들의 데이터 액세스률이 낮아지게 된다는 문제점을 갖는다. 이를 해결하기 위하여 이동 노드들은 데이터의 중복사본을 갖는다. 이동 노드가 갖는 중복사본은 데이터 일관성을 유지하기 위하여 별도의 중복관리 기법이 필요하다. 하지만 MANET을 구성하는 이동 노드들은 일반적으로 제한된 전력을 가지고 있고 단절될 가능성이 높기 때문에 중복 사본의 일관성 보장은 어려운 문제로 지적되고 있다. 기존에 제안된 MANET에서의 데이터 중복관리 기법은 데이터 액세스 빈도수를 계산하여 액세스률을 높이는 방법에 주안점을 두고 있고 갱신 데이터의 일관성 보장은 그 어려움 때문에 주로 판독 연산만 고려하였다. 갱신 트랜잭션을 지원하는 경우 대부분 높은 통신비용을 이유로 데이터 일관성을 보장하지 않는다. 또한 이동 노드가 다수의 서버를 통해서 갱신 연산을 실행하기 때문에 통신 오버헤드로 인하여 전력소모가 크다. 본 논문에서는 주사본 노드를 통하여 갱신을 가능하게 함으로써 데이터 일관성을 유지할 수 있는 데이터 중복 기법을 제안한다. 제안된 기법은 이동 노드들의 에너지 특성을 고려하여 더 않은 에너지를 가진 노드에게 갱신 전파 및 일관성 유지를 의뢰함으로써 상대적으로 낮은 에너지를 갖는 이동 노드의 에너지 효율을 고려하였다.

  • PDF

Design Deduplication User File System for Flash-SSD (Flash-SSD 데이터 중복 제거를 위한 사용자 파일 시스템 설계)

  • Myeong, Jae-hui;Kwon, Oh-young
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2017.10a
    • /
    • pp.322-325
    • /
    • 2017
  • Due to the rapid increase in data, various studies are being conducted to efficiently manage the data. In 2025, the total amount of data will increase to more than 163 ZB, and more than a quarter of the data will be a real-time data. As mass storage devices is changed from HDD to SSD, SSD needs own way to manage their data effectively. In this paper, we study the SSD system structure and deduplication management methods of data management related to Flash-SSD. We also propose an application level user file system using deduplication. It is anticipated that it saves storage capacity and minimize reducing performance by unnecessary traffic.

  • PDF

Effective Synchronization of Replicated Data in Information Appliance Environment (정보가전 환경에서 중복된 데이터의 효과적인 동기화)

  • Kang, Yeong-Ho;Jang, Woo-Seog;Noh, Gary;Jung, Byung-Dae;Son, Sung-Yong;Kim, Sang-Wook
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11c
    • /
    • pp.1795-1798
    • /
    • 2002
  • 정보가전 환경은 정보가전들 간의 홈 네트워크론 기반으로 한 상호 정보 교환을 통하여 사용자에게 보다 진보적인 홈 서비스를 제공한다. 정보가전 환경에서는 서로 다른 두 정보가전 내에 동일한 데이터가 중복되는 상황이 발생 가능하므로, 이러한 중복된 데이터의 일관성을 유지시켜 주기 위한 동기화 기능의 지원이 요구된다. 본 논문에서는 정보가전 환경에서 중복된 데이터의 일관성을 유지시키기 위한 효과적인 동기화 기법을 제안하였다. 제안하는 동기화 기법은 네트워크 전송량과 데이터 저장공간을 최소화함으로써 통합 데이터 관리 아키텍춰에서 좋은 성능을 발휘할 수 있다는 것이 큰 장점이다. 또한, 이 동기화 기법은 중앙집중방식의 통합 데이터 관리가 불가능한 현재의 환경과 이것이 가능하게 될 미래의 환경에 모두 적용할 수 있다.

  • PDF

Analysis of Data Processing Efficiency using Duplicated Data Removal in AMI (AMI의 중복데이터 제거를 통한 데이터처리효율성 분석)

  • Oh, Do Hwan;Park, Jae Hyung
    • Smart Media Journal
    • /
    • v.10 no.2
    • /
    • pp.9-15
    • /
    • 2021
  • Due to widespread construction of AMI(Advanced Metering Infrastructure), various service tends to increase, which are not only remote metering service collection measuring data but also demand management and energy saving using measuring data. In order to support a stable management of such services, it is necessary for measuring data to be processed efficiently. In this paper, we analyze a performance of measured data processing efficiency using duplicated data removal according to AMI construction purpose on real environments.

Financial Integrated Master Data Management System using Zachman Framework (자크만 프레임워크를 활용한 금융권 통합 마스터 데이터 관리시스템)

  • Kim, Tae-Won;Kim, Hyun-Jun;Choi, Won-Seok;Nah, Yun-Mook
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06c
    • /
    • pp.131-134
    • /
    • 2011
  • 오늘날 국내 금융시장은 정택 및 규제에 대한 변화와 구조조정 및 인수 합병을 통한 금융회사의 대형화와 금융상품간의 복합 및 연계된 종합금융서비스를 제공하는 등의 급격한 환경 변화를 겪고 있다. 이러한 환경변화 속에서 금융 시스템 운영의 주체가 되는 마스터 데이터가 각각의 시스템에 개별적으로 관리되고 있어 이로 인해 금융 데이터의 품질 관리에 어려움이 생기게 되고 데이터의 중복 및 일관성에 문제가 생기게 되었다. 본 논문에서는 자크만 프레임워크를 활용한 통합 마스터 데이터 관리시스템을 제안한다. 이러한 마스터 데이터 관리를 통해 데이터 중복 및 데이터 정합성 보장, 시스템 연계간의 유연성을 확보하는 기대 효과를 예상할 수 있다.

The Replication Control using the Replica Tree in the Partially Replicated Databases (부분 중복 데이터베이스에서 사본 트리를 이용한 중복 제어)

  • Bae, Mi-Sook;Hwang, Bu-Hyun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2003.11c
    • /
    • pp.1453-1456
    • /
    • 2003
  • 데이터의 중복은 데이터의 가용성과 시스템의 성능을 향상시키기 위해 사용한다. 대규모 부분 중복 데이터베이스에서 효율적인 중복 관리를 위해서는 정확한 수행을 보장하기 위한 정확성 검증방법과 효율적인 갱신 전파 방법이 필요하다. 이 논문에서는 부분 중복 환경에서 각 주사본 사이트의 중복 데이터에 대한 트리 구조를 기반으로 한 갱신 전파 방법을 제시하며, 갱신 지연 전파로 인해 갱신 전파도중에 발생할 수 있는 전파 트랜잭션과 주 트랜잭션의 충돌로 인한 비직렬성 문제를 타임스탬프와 상태 데이터베이스를 이용하여 해결한다. 이것은 판독 가용성을 증가시키면서 비직렬성으로 인한 재수행을 회피하게 되어 트랜잭션의 완료율을 증가시킨다.

  • PDF

Adaptive Replicated Object with for Cache Coherence in Distributed Shared Memory (분산 공유 메모리 내에서 적응적 중복 객체에 의한 캐쉬 일관성)

  • 장재열;이병관
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04a
    • /
    • pp.133-135
    • /
    • 2000
  • 분산 공유 메모리 상에서 클라이언트들은 네트워크를 통해 원격 공유 메모리 상으로 접근하게 된다. 접근 시에 클라이언트들은 접근 정보를 자신의 지역 캐쉬에 저장해 두었다가 필요시에 인출해서 사용한다. 그러나 시간이 경과함에 따라 다른 클라이언트들에 의해서 데이터 갱신이 이루어질 수 있다. 이에 본 논문에서는 원격 데이터 정보를 객체로 설정하여 이 객체를 관리하여 분산 공유 메모리 상에서 데이터 일관성을 유지하고자 한다. 객체 중복을 통해서 분산 객체 시스템을 구성하였을 때 기존의 중복 기법에서 사용하는 일관성 비용 이외에 별도의 추가 비용이 없이도 제한적으로 병렬 수행의 효과를 볼 수 있다. 또한 중복 기법에 있어서 가장 큰 오버헤드로 알려진 일관성 유지비용을 최소화시키기 위하여 이 비용을 결정하는 가장 핵심저인 요소인 객체의 복사본의 수를 동시적으로 변화시키면서 관리함으로써 전체 수행 시간의 측면에서 많은 향상을 가져왔다.

  • PDF

Management Strategy of Hotspot Temporal Data using Minimum Overlap (최소 중복을 이용한 Hotspot 시간 데이터의 관리)

  • Yun Hong-won;Lee Jung-hwa
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.9 no.4
    • /
    • pp.877-882
    • /
    • 2005
  • We propose a strategy to manage temporal data which are occurred on scientific applications. Firstly, We define LB and RB to separate temporal data, and entity versions to be stored in past, current, future segments. Also, We describe an algorithm to migrate temporal data with hotspot distribution among segments. The performance evaluation of average response time and space utilization is conducted. Average response time between two methods is similar, and space is saved in proposed method.