• 제목/요약/키워드: Caching Management

검색결과 93건 처리시간 0.024초

서브 그래프의 사용 패턴을 고려한 다중 계층 캐싱 기법 (Multi-layer Caching Scheme Considering Sub-graph Usage Patterns)

  • 유승훈;정재윤;최도진;박재열;임종태;복경수;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제18권3호
    • /
    • pp.70-80
    • /
    • 2018
  • 최근 소셜 미디어와 모바일 장비들의 발달로 인해 그래프 데이터들이 다양한 분야에서 활용되고 있다. 이와 함께 대용량 그래프 데이터 처리 과정에서 입출력 비용을 감소시키기 위한 캐싱 기법에 대한 연구들이 진행되고 있다. 본 논문에서는 그래프 토폴로지의 특징인 그래프의 연결성과 과거의 서브 그래프 사용 이력을 고려하여 다중 계층 캐싱 기법을 제안한다. 제안하는 기법은 캐시를 Used Data Cache와 Prefetched Cache로 구분한다. Used Data Cache는 자주 사용되는 서브 그래프 패턴에 따라 가중치를 부여하여 데이터를 캐싱하고 Prefetched Cache는 사용되지는 않았지만 최근 사용된 데이터의 주변 데이터들이 사용될 가능성이 높은 데이터를 캐싱한다. 그래프 패턴을 추출하기 위해 과거의 이력 정보를 활용하여 패턴을 추출하였다. 자주 사용되는 서브 그래프들이 다시 사용될 것을 예측하여 가중치를 부여하여 캐싱한다. 최근 사용된 데이터의 주변 데이터들이 사용 될 것을 예측하여 캐싱한다. 각각의 캐시에 캐싱된 데이터들을 관리하고 메모리가 가득 찰 경우 사용될 가능성이 낮은 데이터와 새로운 데이터를 교체하는 전략을 제안한다. 성능 평가를 통해 제안하는 캐싱 기법이 기존의 캐시 관리 기법에 비해 우수함을 증명한다.

그리드 데이터베이스에서 질의 처리를 위한 캐쉬 관리 기반의 부하분산 기법 (Load Balancing Method for Query Processing Based on Cache Management in the Grid Database)

  • 신숭선;백성하;어상훈;이동욱;김경배;정원일;배해영
    • 한국멀티미디어학회논문지
    • /
    • 제11권7호
    • /
    • pp.914-927
    • /
    • 2008
  • 그리드 컴퓨팅 환경에서 대용량 데이터의 처리와 가용성 향상, 데이터 통합을 위해 그리드 데이터베이스 관리 시스템이 사용된다. 그리드 데이터베이스 관리 시스템은 효율저인 질의처리를 위해 여러 노드로 질의를 분산하여 처리한다. 하지만 질의 처리가 임의의 노드에 집중되어 처리 성능이 감소되고, 작업 부하의 불균형이 발생한다. 본 논문에서는 그리드 데이터베이스에서 질의 처리를 위한 캐쉬 관리 기반의 부하분산 기법을 제안한다. 제안 기법에서는 여러 노드에 있는 캐쉬들을 관리하기 위해 캐쉬 관리자를 사용하며, 캐쉬 관리자는 노드를 지역별 그룹으로 연결하고 자신의 그룹 안에 있는 노드의 캐싱된 메타 정보를 관리한다. 노드는 캐쉬 관리자를 통해 질의를 전달 할 최적의 메타 정보를 캐싱한다. 노드에서 캐싱된 메타 정보를 통해 질의를 전달하여 노드의 부하를 분산한다. 제안 기법은 캐쉬 기반으로 부하가 적은 노드에서 질의를 처리하여 노드들의 부하를 분산하여 질의 처리시에 향상된 성능을 보인다.

  • PDF

상이한 메모리 크기를 가지는 분산 환경에서 부하 분산을 위한 캐시 관리 기법 (An Efficient Cache Management Scheme for Load Balancing in Distributed Environments with Different Memory Sizes)

  • 최기태;윤상원;박재열;임종태;이석희;복경수;유재수
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권8호
    • /
    • pp.543-548
    • /
    • 2015
  • 최근 소셜 미디어의 성장과 디지털 기기의 활용이 증가함에 따라 기하급수적으로 데이터가 급증하고 있다. 기존 디스크 기반 분산 파일 시스템은 I/O 처리 비용 및 병목 현상으로 인해 데이터 처리나 데이터 접근 성능에 한계가 발생한다. 이러한 문제점을 해결하기 위해 메모리에 데이터를 관리하는 캐시 기법이 활용되고 있다. 본 논문에서는 분산 메모리 환경에서 부하 분산을 처리하기 위한 캐시 관리 기법을 제안한다. 제안하는 기법은 노드의 메모리의 크기가 서로 상이한 환경에서 메모리 크기에 따라 데이터를 분배하고 노드의 부하가 발생할 경우 핫 데이터를 재분배한다. 또한, 캐시 항목의 재사용 가능성, 사용 빈도수, 접근 시간을 고려한 캐시 교체 기법을 제안한다. 성능 평가를 통해 제안하는 분산 캐시 기법이 기존에 캐시 관리 기법에 비해 우수함을 입증한다.

스트리밍 미디어 캐슁을 위한 사용자 수준 화일 시스템 (A User-Level File System for Streaming Media Caching)

  • 오재학;차호정
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권8호
    • /
    • pp.472-483
    • /
    • 2002
  • 본 논문에서는 스트리밍 미디어의 효율적인 캐슁과 재전송을 목적으로 범용 화일 시스템에 기반한 사용자 수준의 스트리밍 미디어 캐쉬 화일 시스템(umcFS)을 설계하고 구현하였다. umcFS는 범용화일 시스템의 저장역을 선점하는 화일 디스크에 기반한다. 화일 디스크는 캐쉬 블럭의 물리적인 연속성을 확보하여 효율적인 캐쉬 입출력 시스템을 구성하는 가상 디스크이다. umcFS 구조는 큰 캐쉬 블럭 구조와 제어블럭의 정적 할당을 기본 정책으로 유닉스 화일 시스템과 비교되는 확장된 1차 간접 블럭 참조를 통해서 캐쉬 블럭을 관리한다. 또한 사용자 수준의 라이브러리로 개발되어 시스템 간에 이식성과 확장성이 우수하고 개발 기간이 짧은 장점이 있다. umcFS의 구현을 통해 umcFS의 저수준과 API 수준의 입출력 성능을 비교 분석하였다. 1024KB의 적정 캐쉬 블럭 크기에 대한 임의 입출력 실험 결과, umcFS가 화일 블럭 캐쉬에 비해 약 13%의 성능 향상을 보임을 알 수 있었다.

SDCDS: 지연시간을 개선한 디지털콘텐트 전송 시스템 (SDCDS: A Secure Digital Content Delivery System with Improved Latency time)

  • 나윤지;고일석
    • 정보처리학회논문지D
    • /
    • 제12D권2호
    • /
    • pp.303-308
    • /
    • 2005
  • 중앙집중 구조의 멀티미디어 디지털콘텐트 서비스에서는 서버의 과부하 문제와 네트워크 트래픽의 급격한 증가 문제가 발생한다. 최근에는 이러한 문제점을 해결하기 위한 디지털콘텐트 전송기술로 CDN에 대한 연구가 활발히 진행되고 있다. 본 연구에서는 디지털콘텐트의 전송 및 관리 시스템에서, 보안성능과 처리지연시간을 개선한 시스템인 SDCDS(Secure Digital Content Delivery System)을 설계하였다. SDCDS에서는 CDN에서의 보안성과 이에 따른 처리 지연시간 개선을 목적으로 하고 있다. 이를 위해서는 보안방식과 캐싱 방식을 CDN의 구조적 특성을 고려하여 설계하여야 한다. SDCDS에서는 공개키 기반 보안 방식을 CDN의 구조적 특성을 반영하도록 설계하였고, 암호화된 DC와 일반 DC의 그룹별 캐싱 방식의 향상된 캐싱 성능을 통해 처리 지연시간을 개선하였다. 또한 실험을 통해 제안 시스템의 성능을 평가하였다.

VANET에서 효율적이며 엄격한 데이터 일관성을 유지하는 캐쉬 관리 기법 (Efficient Cache Management Scheme with Maintaining Strong Data Consistency in a VANET)

  • 문성훈;박광진
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권5호
    • /
    • pp.41-48
    • /
    • 2012
  • 차량용 애드혹 네트워크 (VANET: Vehicular Ad-hoc Network)는 차량으로 구성된 모바일 애드혹 네트워크로서 기간망의 도움 없이 차량 간 통신을 가능하게 한다. VANET에서 차량 노드는 네트워크의 일원으로 참여하면서 에너지와 자원을 사용한다. 지금까지 VANET에서 질의처리시간과 통신 과부하를 줄이기 위하여 데이터 복제와 협력 캐슁이 연구되어 왔다. 또한 VANET에서 협력 캐슁 기법 관련 연구는 주로 약한 일관성에 중점을 두고 있다. 이 논문에서는 VANET에서 엄격한 데이터 일관성을 유지하면서 효율적인 캐쉬 관리가 가능한 기법을 제안한다. 본 논문에서는 강한 데이터 일관성을 유지하면서 질의 지연과 통신 과부하를 줄일 수 있도록 IR (Invalidation Report)을 방송하는 스케줄링 기법을 제안한다. 성능 평가는 제안한 기법이 질의 지연과 통신 과부하에서 강점을 가지고 있음을 보여준다.

접근 요청 빈도에 기반한 멀티미디어 뉴스 데이터의 선별적 버퍼 캐쉬 관리 전략 (Access Frequency Based Selective Buffer Cache Management Strategy For Multimedia News Data)

  • 박용운;서원일;정기동
    • 한국정보처리학회논문지
    • /
    • 제6권9호
    • /
    • pp.2524-2532
    • /
    • 1999
  • 대규모의 실시간 주문형 뉴스 제공 시스템(Real Time News On Demand)에서는 다수의 사용자들이 디스크에 저장된 뉴스 데이터를 실시간으로 동시에 접근하여 최대로 수용할 수 있는 사용자 수는 총 디스크 대역폭의 제한을 받는다. 본 연구에서는 이러한 디스크 대역폭의 한계를 극복하기 위하여 디스크 비용의 일부로 버퍼 캐쉬를 구성하여 실시간 뉴스 데이터에 적합하도록 버퍼를 블록 단위가 아닌 오브젝트 단위로 할당하는 버퍼 캐쉬 정책을 사용하고, 캐슁 대상 뉴스 데이터를 현재의 디스크 대역폭의 사용 정도와 해당 뉴스 데이터의 평균 요청 간격을 고려하여 선별함으로써 재접근 가능서이 낮은 데이터의 경우 캐슁 대상에서 제외시켜 볼 필요한 버퍼의 재 할당에 의한 메모리 오버헤드를 방지하는 실시간 뉴스 데이터에 적합한 캐슁 방법을 제안한다. 이렇게 함으로써 접근 빈도수가 높은 데이터의 경우 디스크의 접근 없이도 데이터의 획득이 가능하게 되어 디스크만으로 저장 시스템을 구성할 때와 비교하여 저 비용으로 저장 시스템을 구성할 수 있다. 본 논문에서 제안한 알고리즘의 성능을 시뮬레이션을 통하여 평가한 결과, 본 논문에서 제안한 캐슁 방법으로 뉴스 데이터에 대한 사용자의 요청을 처리했을 경우, 디스크만으로 저장 서버를 구성하였을 경우보다 30% 이상의 사용자를 지원할 수 있다.

  • PDF

SSD FTL의 캐시 메커니즘에 대한 심층 분석 및 개선 (An In-Depth Analysis and Improvement on Cache Mechanisms of SSD FTL)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제15권1호
    • /
    • pp.9-16
    • /
    • 2020
  • Recently, the capacity of SSD has been increasing rapidly due to the improvement of flash memory density. To take full advantage of these SSDs, first of all, FTL's prompt adaptation is necessary. The FTL is a translation layer existing in SSDs to overcome the drawback of the SSD that cannot be modified in place, and has garbage collection and caching functions in addition to the map table management function. In this study, we focus on caching function, compare and analyze the cache implementation methodologies, and propose improved methods. Typical cache implementations divide the cache into groups, manage and retrieve the caches in the group as a linked list. Thus, searches are made in the order of the linked list. In contrast, we propose a method of sequential searching using the search area group of a cache registered in the map table regardless of the linked list and cache group. Experimental results show that the proposed method has a 2.5 times improvement over the conventional method.

Technique for Estimating the Number of Active Flows in High-Speed Networks

  • Yi, Sung-Won;Deng, Xidong;Kesidis, George;Das, Chita R.
    • ETRI Journal
    • /
    • 제30권2호
    • /
    • pp.194-204
    • /
    • 2008
  • The online collection of coarse-grained traffic information, such as the total number of flows, is gaining in importance due to a wide range of applications, such as congestion control and network security. In this paper, we focus on an active queue management scheme called SRED since it estimates the number of active flows and uses the quantity to indicate the level of congestion. However, SRED has several limitations, such as instability in estimating the number of active flows and underestimation of active flows in the presence of non-responsive traffic. We present a Markov model to examine the capability of SRED in estimating the number of flows. We show how the SRED cache hit rate can be used to quantify the number of active flows. We then propose a modified SRED scheme, called hash-based two-level caching (HaTCh), which uses hashing and a two-level caching mechanism to accurately estimate the number of active flows under various workloads. Simulation results indicate that the proposed scheme provides a more accurate estimation of the number of active flows than SRED, stabilizes the estimation with respect to workload fluctuations, and prevents performance degradation by efficiently isolating non-responsive flows.

  • PDF

Delay Reduction by Providing Location Based Services using Hybrid Cache in peer to peer Networks

  • Krishnan, C. Gopala;Rengarajan, A.;Manikandan, R.
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권6호
    • /
    • pp.2078-2094
    • /
    • 2015
  • Now a days, Efficient processing of Broadcast Queries is of critical importance with the ever-increasing deployment and use of mobile technologies. BQs have certain unique characteristics that the traditional spatial query processing in centralized databases does not address. In novel query processing technique, by maintaining high scalability and accuracy, latency is reduced considerably in answering BQs. Novel approach is based on peer-to-peer sharing, which enables us to process queries without delay at a mobile host by using query results cached in its neighboring mobile peers. We design and evaluate cooperative caching techniques to efficiently support data access in ad hoc networks. We first propose two schemes: Cache Data, which caches the data, and Cache Path, which caches the data path. After analyzing the performance of those two schemes, we propose a hybrid approach (Hybrid Cache), which can further improve the performance by taking advantage of Cache Data and Cache Path while avoiding their weaknesses. Cache replacement policies are also studied to further improve the performance. Simulation results show that the proposed schemes can significantly reduce the query delay and message complexity when compared to other caching schemes.