• Title/Summary/Keyword: 캐쉬교체

Search Result 59, Processing Time 0.031 seconds

Remote Cache Replacement Policy based on Processor Locality (프로세서 지역성에 기반 한 원격 캐시 교체 정책)

  • 한상윤;곽종옥;전주식
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10a
    • /
    • pp.4-6
    • /
    • 2004
  • 본 논문에서는 원격 캐쉬를 추가시킨 분산 메모리 구조 다중 프로세서 시스템의 성능 향상을 위해 새로운 원격 캐쉬 교체 정색을 제안한다. 일반적으로 다중 계층 내포성(MLI)을 치키는 다중 계층 메모리 구조에서 LRU 교체 정책을 사용할 경우, 상위 계층 캐쉬의 LRU 정보와 하위 계층 캐쉬의 LRU 정보가 서로 상이함으로 인해 하위 계층 캐쉬에서의 교체가 상위 계층에서 사용 중인 캐처 라인의 교체를 발생시켜 전체 시스템의 성능을 저하시키는 원인이 된다. 이러한 LRU 캐쉬 교체 정책의 단점을 보완하고자 각 노드 당 프로세서들의 원격 메모리 접근 지역성을 이용한 원격 캐쉬 교체정책의 사용으로 상위 캐쉬의 유용한 캐쉬 라인의 접근 실패율을 감소시킴으로써 다중 프로세서 시스템의 성능 향상을 꾀한다. 프로그램 기반 시뮬레이터를 통해 제안한 원격 캐쉬 교체 정책을 적용하였을 때, 기존의 LRU 교체 정책과 비교하여 무효화 수와 캐쉬 접근 실패가 평균 5%. 최대 10% 감소하였다.

  • PDF

A Scheme of Semantic XML Query Cache Replacement (시맨틱 XML 질의 캐쉬의 교체 기법)

  • Hong, Jung-Woo;Kang, Hyun-Chul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.59-62
    • /
    • 2005
  • 웹 상에서 XML 로 기술된 데이터가 증가하고, 이를 이용하여 의미 있는 데이터를 검색하는 것의 중요성이 커지고 있다. 웹 상에서 더 좋은 검색 성능을 보이기 위해 XML 질의 결과를 캐쉬하는 방법에 관한 연구들과 캐쉬의 저장 공간과 다양한 질의를 캐쉬에 저장하는 것에 한계가 있기 때문에 캐쉬 교체 기법에 관한 연구들이 있었다. 기존의 XML 캐쉬 교체 정책에는 질의 결과를 교체 단위로 하는 방법과 질의 결과 내의 각 경로들을 교체 단위로 하는 방법이 있는데, 첫번째 방법은 효율이 상대적으로 낮고 두번째 방법은 높은 효율에 비해 교체 연산을 수행하는 부담(overhead)이 크다는 단점이 있었다. 본 논문에서는 위 두 방법의 단점을 해결하기 위해 2 단계로 교체 희생자를 선택하는 방법을 제시한다. 질의 결과들 중에서 교체 희생자를 찾고, 그 희생자 내의 모든 경로들 중에서 다시 교체 희생자를 찾는다. 이는 각 질의 내의 경로가 교체 희생자가 되어 캐쉬 효율을 향상 시키고, 질의 결과에 대해 먼저 교체 대상을 찾으므로 교체 희생자를 찾기 위한 연산을 수행하는 부담을 줄인다. 또한 캐쉬 적중률, 최근 접근 시간, 인출 지연 시간, 객체 크기를 고려하여 교체 희생자를 선택하는 교체 함수를 제시한다. 가상의 시맨틱 데이터에 대한 캐쉬 교체 시스템을 구현하여 본 논문에서 제시한 교체 기법과 교체 함수를 평가한 결과를 기술한다.

  • PDF

Remote Cache Replacement Policy using Processor Locality in Multi-Processor System (다중 프로세서 시스템에서 프로세서 지역성을 이용한 원격 캐쉬 교체 정책)

  • Han Sang Yoon;Kwak Jong Wook;Jhang Seong Tae;Jhon Chu Shik
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.32 no.11_12
    • /
    • pp.541-556
    • /
    • 2005
  • The memory access latency of the system has been a primary factor of performance degradation in single-processor system and multi-processor system. The remote memory access latency takes a lot of overhead over the local memory access latency especially in the distributed shared-memory system. To resolve this problem, the multi-level cache architecture that contains a remote cache in the multi-processor system has been proposed. In this paper, we propose a new cache replacement policy that improves the performance of the multi-processor system with the remote cache. If the multi-level cache keeps the multi-level inclusion(MLI) property and uses the LRU(Least Recently Used) cache replacement policy, the LRU information of the higher-level cache(a processor cache) would be different with that of the lower-level cache(a remote cache). In this situation, the replacement of a remote cache line can induce the exchange of a processor cache line that is used by the processor. It is a main factor of performance degradation in a whole system. To alleviate this disadvantage of the LRU replacement polity, the new policy analyses tht processor's remote memory access pattern of each node and uses this information to reduce the number of invalidations of the useful cache line in the higher-level cache. The new replacement policy of the remote cache can improve the performance by $3.5\%$ in maximum and $2.5\%$ in average on SPLASH-2 benchmarks, compared to the general LRU cache replacement policy.

A Technique of Replacing XML Semantic Cache (XML 시맨틱 캐쉬의 교체 기법)

  • Hong, Jung-Woo;Kang, Hyun-Chul
    • The Journal of Society for e-Business Studies
    • /
    • v.12 no.3
    • /
    • pp.211-234
    • /
    • 2007
  • In e-business, XML is a major format of data and it is essential to efficiently process queries against XML data. XML query caching has received much attention for query performance improvement. In employing XML query caching, some efficient technique of cache replacement is required. The previous techniques considered as a replacement unit either the whole query result or the path in the query result. The former is simple to employ but it is not efficient whereas the latter is more efficient and yet the size difference among the potential victims is large, and thus, efficiency of caching would be limited. In this paper, we propose a new technique where the element in the query result is are placement unit to overcome the limitations of the previous techniques. The proposed technique could enhance the cache efficiency to a great extent because it would not pick a victim whose size is too large to store a new cached item, the variance in the size of victims would be small, and the unused space of the cache storage would be small. A technique of XML semantic cache replacement is presented which is based on the replacement function that takes into account cache hit ratio, last access time, fetch time, size of XML semantic region, size of element in XML semantic region, etc. We implemented a prototype XML semantic cache system that employs the proposed technique, and conducted a detailed set of experiments over a LAN environment. The experimental results showed that our proposed technique outperformed the previous ones.

  • PDF

Optimal replacement policies in partitioned caches for the WWW (WWW을 위한 분할 캐쉬에서의 최적 교체 알고리즘)

  • 박성주;이은희;이동만
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10c
    • /
    • pp.340-342
    • /
    • 2000
  • 웹 캐쉬는 자주 쓰이는 웹 문서를 복제함으로써 네트웍 혼잡, 서버 부하, 문서 도착 시간을 줄이는데 목적을 둔다. 웹 캐쉬에서 중요한 이슈 중에 하나인 제한된 저장 공간을 어떻게 사용할 것인가에 대한 연구로서 분할 캐쉬 접근 방법이 있다. 분할 캐쉬는 캐쉬 저장 공간을 여러 개의 분할된 영역으로 나눔으로써, 이질적인 웹 상의 객체를 동종의 데이터 집합으로 나누어서 각각의 분할 영역에서 다루도록 할 수 있게 한다. 실험적 연구 결과는 분할 캐쉬가 기존의 캐쉬 저장 공간을 관리하는 교체 알고리즘보다 우수한 성능을 보여준다는 것을 증명하고 있다. 그러나 기존의 분할 캐쉬에서는 각각의 분할 영역에서 동일한 교체 알고리즘을 사용하였다. 본 연구는 각각의 분할 영역에 다양한 교체 알고리즘을 적용하는 실험을 하고, 이 실험결과에 기반 하여 웹 상에서의 분할 캐쉬를 위한 최적 교체 알고리즘을 제시한다.

  • PDF

A New Cache Replacement Policy for Improving Last Level Cache Performance (라스트 레벨 캐쉬 성능 향상을 위한 캐쉬 교체 기법 연구)

  • Do, Cong Thuan;Son, Dong Oh;Kim, Jong Myon;Kim, Cheol Hong
    • Journal of KIISE
    • /
    • v.41 no.11
    • /
    • pp.871-877
    • /
    • 2014
  • Cache replacement algorithms have been developed in order to reduce miss counts. In modern processors, the performance gap between the processor and main memory has been increasing, creating a more important role for cache replacement policies. The Least Recently Used (LRU) policy is one of the most common policies used in modern processors. However, recent research has shown that the performance gap between the LRU and the theoretical optimal replacement algorithm (OPT) is large. Although LRU replacement has been proven to be adequate over and over again, the OPT/LRU performance gap is continuously widening as the cache associativity becomes large. In this study, we observed that there is a potential chance to improve cache performance based on existing LRU mechanisms. We propose a method that enhances the performance of the LRU replacement algorithm based on the access proportion among the lines in a cache set during a period of two successive replacement actions that make the final replacement action. Our experimental results reveals that the proposed method reduced the average miss rate of the baseline 512KB L2 cache by 15 percent when compared to conventional LRU. In addition, the performance of the processor that applied our proposed cache replacement policy improved by 4.7 percent over LRU, on average.

Expected-Cost-based Cache Replacement Algorithm (기대비용기반 캐쉬교체 알고리즘)

  • 이정준;황규영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10a
    • /
    • pp.240-242
    • /
    • 1999
  • 웹 데이터는 기존의 페이지를 기반으로 한 교체 알고리즘이 고려하지 않은 다양한 데이터 아이템의 크기, 네트워크 밴드위쓰 등으로 인한 다양한 참조 비용과 데이터의 만기시간(expiration time)을 갖는다. 그러나, 기존의 연구에서는 만기시간이 미치는 영향에 대한 연구가 초보적인 수준이다. 본 논문에서는 만기시간이 참조비용에 미치는 영향을 반영한 기대비용기반 캐쉬교체 알고리즘을 제안한다. 제안한 알고리즘은 만기시간내에 참조되어 캐쉬효과를 얻을 확률을 이용하여 참조비용의 기대값을 구하고, 이 값을 비교하여 교체대상을 선정한다. 제안한 알고리즘은 데이터의 크기, 참조비용 뿐만 아니라 만기시간의 영향을 확률적으로 정확히 반영하므로, 기존의 교체 알고리즘보다 우수한 성능을 보인다.

  • PDF

Performance Evaluation of Cache Replacement Algorithm in Mobile Computing Environment (이동 컴퓨팅 환경에서 캐쉬 교체 알고리즘의 성능평가)

  • 김호숙;용환승
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.26 no.7A
    • /
    • pp.1135-1143
    • /
    • 2001
  • 최근 저가의 무선 통신 기술의 발달과 고성능 이동 컴퓨팅 장비의 보급에 따라 이동 컴퓨팅 시장이 점차로 확대되면서 이동 컴퓨팅 환경의 제약성에 효율적으로 대처하기 위한 여러 방법이 제안되었고, 캐쉬 기법에 대한 많은 연구가 이루어지고 있다. 그 중에서 이동 호스트의 위치 변화에 따라 이동 호스트의 캐쉬 내에 저장된 데이터의 가치와 의미가 변경되는 것에 기반을 두고, 시간에 따른 사용자의 이동성과 데이터의 공간 속성을 효과적으로 지원하는 캐쉬 교체 방법으로 CR_LOC와 CR_REG가 제안되었다. 본 논문은 이동 컴퓨팅 환경 하에서 데이터의 공간 속성을 고려한 캐쉬 교체를 수행할 때 캐쉬 적중률에 영향을 미치는 다양한 요인들을 분석하고 이에 대한 성능평가를 수행한다. 이를 바탕으로 서로 다른 조건의 이동 호스트 각각에 대한 최적의 캐쉬 교체를 수행하기 위한 캐쉬 교체 선택 알고리즘을 제시한다.

  • PDF

A Weighted-window based Cache Replacement Policy for Streaming Cache Server (스트리밍 캐쉬 서버를 위한 가중치 윈도우 기반의 캐쉬 교체 정책)

  • 오재학;차호정;박병준
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.30 no.10
    • /
    • pp.556-568
    • /
    • 2003
  • This paper presents and analyzes the performance of a weighted-window based cache replacement policy for the efficient media caching in streaming media cache servers. The proposed policy makes, for each cached object, use of the reference count, reference time, amount of media delivered to clients and, in particular, the periodic patterns of user requests. Also, by giving weights to the recently referenced media contents, the replacement policy adequately and swiftly reflects the ever-changing characteristics of users preferences. The simulation studies show that the performance of the proposed policy has improved over the conventional policies such as LRU, LFU and SEG - in terms of hit ratio, byte hit ratio, delayed start and cache input.

Core-aware Cache Replacement Policy for Reconfigurable Last Level Cache (재구성 가능한 라스트 레벨 캐쉬 구조를 위한 코어 인지 캐쉬 교체 기법)

  • Son, Dong-Oh;Choi, Hong-Jun;Kim, Jong-Myon;Kim, Cheol-Hong
    • Journal of the Korea Society of Computer and Information
    • /
    • v.18 no.11
    • /
    • pp.1-12
    • /
    • 2013
  • In multi-core processors, Last Level Cache(LLC) can reduce the speed gap between the memory and the core. For this reason, LLC has big impact on the performance of processors. LLC is composed of shared cache and private cache. In computer architecture community, most researchers have mainly focused on the management techniques for shared cache, while management techniques for private cache have not been widely researched. In conventional private LLC, memory is statically assigned to each core, resulting in serious performance degradation when the workloads are not fairly distributed. To overcome this problem, this paper proposes the replacement policy for managing private cache of LLC efficiently. As proposed core-aware cache replacement policy can reconfigure LLC dynamically, hit rate of LLC is increases drastically. Moreover, proposed policy uses 2-bit saturating counters to improve the performance. According to our simulation results, the proposed method can improve hit rates by 9.23% and reduce the access time by 12.85% compared to the conventional method.