• 제목/요약/키워드: 데이터 중복 관리

검색결과 282건 처리시간 0.024초

최소 중복을 이용한 Hotspot 시간 데이터의 관리 (Management Strategy of Hotspot Temporal Data using Minimum Overlap)

  • 강지형;윤홍원
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 춘계종합학술대회
    • /
    • pp.196-199
    • /
    • 2005
  • 이 논문에서는 과학적 응용에서 발생하는 군집을 이루는 시간 데이터를 관리하는 방법을 제안한다. 먼저, 시간데이터를 구분하는 경계값 LB와 RB를 정의하고 과거, 현재, 미래 세그먼트에 각각 저장되는 개체버전을 정의하였다. 또한 Hotspot 분포를 가지는 시간 데이터에 대하여 각 세그먼트 사이에 이동하는 알고리즘을 나타내었다. 이 논문에서 제안하는 최소중복을 이용한 이동 방법과 기존방법에 대하여 성능을 비교하였다. 질의에 대한 평균 응답 시간에서는 기존의 방법과 비슷한 결과를 보였다. 제안한 이동 방법은 세그먼트 사이에 중복해서 저장되는 데이터 수를 적게 하므로 공간 이용율 측면에서는 기존의 이동 방법보다 효율적이었다.

  • PDF

SGX를 활용한 암호화된 데이터 중복제거의 효율성 개선 (Improving Efficiency of Encrypted Data Deduplication with SGX)

  • 구동영
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권8호
    • /
    • pp.259-268
    • /
    • 2022
  • 데이터 양의 폭발적 증가에 따른 관리 효율성 제고를 위한 클라우드 서비스 활용이 일상으로 자리잡고 있는 현재, 데이터 프라이버시 보존을 위한 다양한 암호화 기법이 적용되고 있다. 클라우드 시스템의 방대한 컴퓨팅 자원에도 불구하고 다수 사용자로부터 아웃소싱된 데이터의 중복으로 인한 저장 효율성의 저하는 서비스 효율을 현저히 감소시키는 요인으로 작용하면서, 프라이버시가 보장된 암호문에 대한 데이터 중복제거에서의 효율성 향상을 위한 다양한 연구가 진행되고 있다. 본 연구에서는 최신 USENIX ATC에 발표된 Ren et al.의 신뢰실행환경을 활용한 암호문에 대한 중복제거의 효율성 개선을 위한 연구결과를 분석하고 서비스에 참여하는 키 관리 서버를 사용자에 통합함으로써 제3의 독립적인 키 관리 서버의 필요성을 제거하면서도 키 관리의 안정성 개선 방법을 제시한다. 실험을 통하여 제안 기법에서 약 30%의 통신 효율 개선 효과를 얻을 수 있음을 확인하였다.

모바일 컴퓨팅상에서 중복데이터의 효율적 관리를 위한 재배치 전략 (Relocation Strategy for an Efficient Management of Replicated Data on Mobile Computing)

  • Lee, Byung-Kwan;Oh, Am-Suk;Jeong, Eun-Hee
    • 한국멀티미디어학회논문지
    • /
    • 제7권5호
    • /
    • pp.689-697
    • /
    • 2004
  • 모바일 컴퓨팅의 급속한 발전과 무선 통신의 유용성은 모바일 사용자들에게 사용자나 데이터의 위치에 상관없이 데이터 접근을 용이하게 제공해 주고있다. 기존 기법인 정적중복배치(SRA)는 서버상에서 중복 데이터 사용을 위해 현재 사용되고 있으며 이동 호스트가 셀에 이동하고 나서 복제서버에 데이터를 복제하는 방법이다. 이 기법은 복제 작업이 간단하고 쉽게 재배치 할 수 있다. 그러나 이동한 셀에 이동사용자가 존재하지 않을 경우에는 데이터 일관성 문제로 인하여 데이터가 삭제된다. 그리고 이동호스트가 복제된 셀로부터 이동하게 되면 경로를 통한 데이터의 접근도 어렵게 된다. 따라서 이 논문에서는 데이터 공유와 효율적 중복데이터 관리를 위해 데이터 일관성 유지 메커니즘을 기반으로 한 새로운 재배치 전략인 일관성 기반 사용자 선택 중복배치(USRAC)를 제안하며 이동사용자의 이동율, 이동 호스트의 접근율 그리고 이동사용자와 이동 호스트의 셀 수에 따른 접근 비용에 대해 기존방법과 비교 분석한다.

  • PDF

저장 공간의 효율성을 위한 분산 파일 시스템의 중복 데이터 제거 기법 (Eliminating Redundant Data for Storage Efficiency on Distributed File Systems)

  • 김정훈;임병홍;엄영익
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2009년도 추계학술발표대회
    • /
    • pp.111-112
    • /
    • 2009
  • 최근 IT 분야의 키워드 중 하나인 클라우드 컴퓨팅에서, 분산 파일 시스템의 선택은 대용량의 데이터를 관리하기 위해 매우 중요하다. 오픈소스 분산 파일 시스템 중 하나인 HDFS는 데이터의 효율적인 저장과 검색의 장점을 통해 최근 널리 사용되고 있다. HDFS는 데이터를 3단계 중복저장을 통해 신뢰성을 보장한다. 그러나 이러한 중복저장은 데이터 저장의 효율성 저하의 문제점을 갖고 있다. 따라서 본 논문에서는 MD5 해쉬 기술을 적용한 중복 데이터 제거 기법을 제안한다. 본 기법은 시뮬레이션을 통해 저장 공간의 효율성을 향상의 결과를 확인하였다.

안전하고 효율적인 클라이언트 사이드 중복 제거 기술 (Secure and Efficient Client-side Deduplication for Cloud Storage)

  • 박경수;엄지은;박정수;이동훈
    • 정보보호학회논문지
    • /
    • 제25권1호
    • /
    • pp.83-94
    • /
    • 2015
  • 중복 제거 기술(Deduplication)은 동일한 데이터에 대하여 중복 저장을 방지하는 기법으로 클라이언트(Client)와 클라우드 서버(Cloud Server) 간에 데이터를 저장하고 관리하는데 있어 효율성을 제공한다. 하지만 공개된 환경의 클라우드 서버에 데이터를 저장하고 관리하기 때문에, 클라이언트가 저장한 데이터에 대한 프라이버시 문제가 발생할 뿐만 아니라 데이터의 손실이 발생할 수도 있다. 최근 이러한 문제점들을 해결하기 위해 안전한 중복 제거 기술이 제안되었지만, 여전히 각각의 공격의 안전성에 대한 문제가 발생할 뿐만 아니라 비효율적이다. 본 논문에서는 2013년 Bellare 등이 제안한 기법의 키 서버(Key Server)와 질의-응답 메커니즘(Challenge-Response)을 이용하여 안전하고 효율적인 클라이언트 사이드 중복 제거 기술을 제안한다. 제안 기법은 클라이언트 사이드 중복 제거 기술에서 발생하는 다양한 공격에 대해 안전성을 제공하며, 크기가 큰 데이터를 업로드 하는 환경에서 높은 효율성을 제공한다.

데이터 품질 관리 : CRM을 사례로 연산자와 매칭기법 중심 (Data Quality Management: Operators and a Matching Algorithm with a CRM Example)

  • 심준호
    • 한국전자거래학회지
    • /
    • 제8권3호
    • /
    • pp.117-130
    • /
    • 2003
  • CRM 과 같은 전자상거래응용시스템에서 동일한 데이터의 중복이나 불일치는 종종 일어나며 이는 바람직하지 못하다. 데이터 품질 관리란 데이터들간의 비 일치와 중복을 발견하고 제거함을 목적으로 한다. 통상적인 데이터 품질관리 프로세스는 클리닝, 매칭, 통합의 세 단계를 거친다. 본 논문에서는 일반적인 데이터 품질 관리를 각 단계별로 필요한 연산자들을 정의한다. 특히 실제적 인 시스템 구현에서 필요한 매칭 단계에서 사용하는 거리함수와 매칭 알고리즘을 제안하며, 마지막으로 관련 연구를 제시한다.

  • PDF

쿠쿠 필터 유사도를 적용한 다중 필터 분산 중복 제거 시스템 설계 및 구현 (Design and Implementation of Multiple Filter Distributed Deduplication System Applying Cuckoo Filter Similarity)

  • 김영아;김계희;김현주;김창근
    • 융합정보논문지
    • /
    • 제10권10호
    • /
    • pp.1-8
    • /
    • 2020
  • 최근 몇 년 동안 기업이 수행하는 비즈니스 활동에서 생성된 데이터를 기반으로 하는 기술이 비즈니스 성공의 열쇠로 부상함에 따라 대체 데이터에 대한 저장, 관리 및 검색 기술에 대한 필요성이 대두되었다. 기존 빅 데이터 플랫폼 시스템은 대체 데이터인 비정형 데이터를 처리하기 위해 실시간으로 생성된 대량의 데이터를 지체 없이 로드하고 중복 데이터 발생 시 서로 다른 스토리지의 중복 제거 시스템을 활용하여 스토리지 공간을 효율적으로 관리해야 한다. 본 논문에서는 빅 데이터의 특성을 고려하여 쿠쿠 해싱 필터 기법의 유사도를 이용한 다중 계층 분산 데이터 중복 제거 프로세스 시스템을 제안한다. 가상 머신 간의 유사성을 쿠쿠 해시로 적용함으로써 개별 스토리지 노드는 중복 제거 효율성으로 성능을 향상시키고 다중 레이어 쿠쿠 필터를 적용하여 처리 시간을 줄일 수 있다. 실험 결과 제안한 방법은 기존 블룸 필터를 이용한 중복 제거 기법에 의해 8.9%의 처리 시간 단축과 중복 제거율이 10.3% 높아짐을 확인하였다.

u-GIS 공간 데이터베이스 관리시스템 개발 (The Development of u-GIS Spatial Database Management System)

  • 민경욱;김주완
    • 한국GIS학회:학술대회논문집
    • /
    • 한국GIS학회 2009년도 춘계학술대회
    • /
    • pp.215-217
    • /
    • 2009
  • u-GIS는 기존 정적인 공간데이터와 동적인 GeoSensor 데이터를 융합하여 처리하는 시스템을 말한다. 기존 정적인 공간 데이터는 주로 2차원 공간 데이터였으며 최근 유비쿼터스 환경에서는 이를 확장한 3차원 공간 데이터 및 다차원 시공간 데이터의 요구가 급증하고 있다. 최근 국가 차원에서 3차원 공간 데이터를 구축하고 있으며 DBMS가 아닌 파일 단위로 데이터를 저장하고 관리하고 있다. 이 경우, 데이터의 중복 저장, 표준 인터페이스의 부재, 서버 중심의 데이터 제공의 어려움 등의 문제가 발생한다. 따라서 본 연구에서는 3차원 공간데이터를 효과적으로 저장 관리하기 위하여 3차원 공간 DBMS를 연구 개발하였다.

  • PDF

다중 레벨 공간 DBMS에서 스냅샷 데이터 관리를 위한 관리 도구 설계 및 구현 (Design of tool for management of snapshot data on Multievel Spatial Database Management Systems)

  • 백성하;유병섭;어상훈;김경배;배해영
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2006년도 춘계학술발표대회
    • /
    • pp.101-104
    • /
    • 2006
  • 다중 레벨 공간 DBMS 는 디스크 기반 DBMS 와 메인 메모리 저장관리자를 통합한 시스템이다. 다중 레벨 공간 DBMS 는 디스크 기반 DBMS 를 사용하여 대용량 데이터를 저장하고 자주 이용되는 데이터만 스냅샷으로 메인 메모리에 상주 시켜 빠르게 트랜잭션을 처리한다. 그러나 시스템 운영상에서 스냅샷의 중복 생성 및 부적절한 갱신 주기의 문제가 발생하여 시스템의 성능을 저하시킨다. 그래서 본 논문에서는 스냅샷 데이터 관리를 위한 관리도구를 제안한다. 본 관리도구는 스냅샷의 생성 및 삭제, 동기화 등의 조작 기능을 제공하고, 메타데이터를 관리하여 통계정보 및 스냅샷 상세정보를 제공하여 최적화를 위한 판단기준으로 사용 할 수 있도록 한다. 본 도구를 이용하면 관리자가 시스템이 발견하지 못한 스냅샷의 중복된 영역 및 최적인 갱신 주기를 판단 하고 스냅샷을 조작해 시스템의 성능을 보다 최적 할 수 있다.

  • PDF

원격 저장소 데이터 아웃소싱에서 발생하는 중복 식별 과정에서의 부채널 분석 및 제거 (Analysis and Elimination of Side Channels during Duplicate Identification in Remote Data Outsourcing)

  • 구동영
    • 정보보호학회논문지
    • /
    • 제27권4호
    • /
    • pp.981-987
    • /
    • 2017
  • 클라우드 컴퓨팅의 대중화로 개인 및 기업의 로컬 저장소에서 관리되던 데이터가 클라우드 스토리지 등 제 3의 공간에 아웃소싱 되면서 유지, 관리 비용의 절감 효과를 얻을 수 있게 됨과 동시에, 다수의 원격저장 서비스 제공자는 공간 자원의 효율화를 위하여 아웃소싱된 데이터의 중복제거 기법을 도입하고 있다. 동일 데이터의 중복성 판단에 해시 트리가 사용되는 경우에는 검증 데이터의 크기 및 트리의 일부 정보에 대한 부채널이 존재하게 되는데, 이로부터 특정 데이터에 대한 정보 수집 및 검증의 우회 가능성이 증가하게 된다. 이러한 부채널로 인한 검증의 유효성 문제를 개선하기 위하여, 본 논문에서는 멀티 셋 해시함수를 이용한 동일성 검증 기법을 제시한다.