• Title/Summary/Keyword: 페이지 교체 정책

Search Result 26, Processing Time 0.023 seconds

Paging Replacement Policy for Multi Task based Real-time Application considering Data pages (데이터 페이지를 고려한 실시간 멀티 태스크 환경에서의 페이지 교체정책)

  • Lee, Du-Hee;Lee, Chang-Gun;Kim, Kang-Hee
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06b
    • /
    • pp.451-454
    • /
    • 2010
  • 우리는 기존 연구에서 NAND Flash Memory의 실시간 멀티 태스크 환경에서 응용프로그램의 실시간성을 보장하기 위한 페이지 교체 방법인 "mRT-PLRU(Multi-tasking Real-Time constrained combination of Pinning and LRU)"를 완성하였다. 이 페이지 교체 정책은 응용프로그램이 목표치보다 높은 확률도 데드라인을 만족 할 수 있도록 하기 위해서 응용프로그램의 코드페이지 프로파일링 작업이 우선시 되어야 한다. 하지만 응용프로그램 안에는 코드페이지 뿐만 아니라 데이터 페이지도 존재하고 있다. 이 논문은 이 부분에 주목하여, 기존의 코드페이지 프로파일링을 데이터 페이지 프로파일링까지 확장하였고, 프로파일링 결과물을 이용하여 mRT-PLRU 페이지 교체 정책을 데이터 페이지까지 다룰 수 있도록 개선된 방식을 제시한다.

  • PDF

An Optimized NUR Page Replacement Policy Considering the Recent Page Reference Frequency (최근 페이지 참조 빈도를 고려한 최적화된 NUR 페이지 교체 정책)

  • Min, Kyeong-Kuk;Kim, Young-Kyu;Bae, Kyeong-ryeol;Moon, Byungin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.282-283
    • /
    • 2012
  • 가상메모리 시스템에서 페이지 부재(page fault)를 최소화하기 위해서는 미래에 사용될 페이지를 미리 예측하는 것이 중요하다. 미래에 사용될 페이지는 이미 입력된 페이지들의 패턴 분석을 통해 예측 가능하며 이를 통해 시스템 성능을 최대화 할 수 있는 페이지 교체 정책(page replacement policy)에 대한 연구가 필요하다. 본 논문에서는 동일한 교체 우선권을 가지는 페이지들 간의 예측 적중률을 높이기 위하여 기존의 NUR(not used recently) 정책에 참조횟수 비트를 추가하여 우선 순위를 판단하는 방법을 제안한다. 제안하는 정책은 C 언어를 기반으로 모델링 되었으며 시뮬레이션 결과 페이지 프레임의 크기와 무관하게 기존의 정책들에 비해 성능이 향상됨을 확인하였다.

Implementation and Performance Analysis of Virtual Memory Page Replacement Algorithms Based on Demand Paging (요구 페이징 기반 가상메모리 페이지 교체 알고리즘의 구현 및 성능 분석)

  • Park, Kyeong-Mo;Yoon, Yeo-Hoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.1757-1760
    • /
    • 2005
  • 요구 페이징 방식의 가상메모리 시스템에서 페이지 참조 스트링에 따른 페이지 교체 알고리즘의 성능평가를 위한 시뮬레이션을 개발한다. 참조 집약성을 기반으로 워킹세트(working set) 모델을 수정한 MWS 교체 알고리즘을 제안하였고 다양한 교체 알고리즘(FIFO, SC, LFU, LRU, Rand)들과 비교 실험한 결과 MWS는 발생 페이지 부재 수 측면에서 다른 교체 정책 보다 성능이 우수하였다.

  • PDF

An Efficient Buffer Replacement Policy based on CLOCK Algorithm for NAND Flash Memory (낸드 플래시 메모리를 위한 CLOCK 알고리즘 기반의 효율적인 버퍼 교체 전략)

  • Kim, Jong-Sun;Son, Jin-Hyun;Lee, Dong-Ho
    • The KIPS Transactions:PartD
    • /
    • v.16D no.6
    • /
    • pp.825-834
    • /
    • 2009
  • 최근에 낸드 플래시 메모리는 빠른 접근속도, 저 전력 소모, 높은 내구성 등의 특성으로 인하여 차세대 대용량 저장 매체로 각광 받고 있다. 그러나 디스크 기반의 저장 장치와는 달리 비대칭적인 읽기, 쓰기, 소거 연산의 처리 속도를 가지고 있고 제자리 갱신이 불가능한 특성을 가지고 있다. 따라서 디스크 기반 시스템의 버퍼 교체 정책은 플래시 메모리 기반의 시스템에서 좋은 성능을 보이지 않을 수 있다. 이러한 문제를 해결하기 위해 플래시 메모리의 특성을 고려한 새로운 플래시 메모리 기반의 버퍼 교체 정책이 제안되어 왔다. 본 논문에서는 디스크 기반의 저장 장치에서 우수한 성능을 보인 CLOCK-Pro를 낸드 플래시 메모리의 특성을 고려하여 개선한 CLOCK-NAND를 제안한다. CLOCK-NAND는 CLOCK-Pro의 알고리즘에 기반하며, 추가적으로 페이지 접근 정보를 효율적으로 활용하기 위한 새로운 핫 페이지 변경을 한다. 또한, 더티인 핫 페이지에 대해 콜드 변경 지연 정책을 사용하여 쓰기 연산을 지연하며, 이러한 새로운 정책들로 인하여 낸드 플래시 메모리에서 쓰기 연산 횟수를 효율적으로 줄이는 우수한 성능을 보인다.

A Modified LRU Page Replacement Policy with LMF for Web Proxy Cache (LMF로 수정된 웹 프락시 캐쉬용 LRU페이지 교체 정책)

  • 이용임;김주균
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.30 no.7_8
    • /
    • pp.426-433
    • /
    • 2003
  • Management policies of Web Proxy Cache, for the QoS of Web users, are mainly focused on the page replacement and the data consistency policy. But the two subjects have been studied independently to each other regardless of its possibility of cooperation. In this paper, we introduce the performance improvement obtained by adapting the characteristic of LMF used in data consistency policy to LRU, thus taking the better performance synergy as a result of complementary cooperation. Various policies for the management of Web Proxy Cache are in progress, this study can be a way of performance guide to increase cache hit ratio and reduce the transmission overhead of Web Server.

A Page Replacement Scheme Based on Recency and Frequency (최근성과 참조 횟수에 기반한 페이지 교체 기법)

  • Lee, Seung-Hoon;Lee, Jong-Woo;Cho, Seong-Je
    • The KIPS Transactions:PartA
    • /
    • v.8A no.4
    • /
    • pp.469-478
    • /
    • 2001
  • In the virtual memory system, page replacement policy exerts a great influence on the performance of demand paging. There are LRU(Least Recently Used) and LFU (Least Frequently Used) as the typical replacement policies. The LRU policy performs effectively in many cases and adapts well to the changing workloads compared to other policies. It however cannot distinguish well between frequently and infrequently referenced pages. The LFU policy requires that the page with the smallest reference count be replaced. Though it considers all the references in the past, it cannot discriminate between references that occurred far back in the past and the more recent ones. Thus, it cannot adapt well to the changing workload. In this paper, we first analyze memory reference patterns of eight applications. The patterns show that the recently referenced pages or the frequently referenced pages are accessed continuously as the case may be. So it is rather hard to optimize page replacement scheme by using just one of the LRU or LFU policy. This paper makes an attempt to combine the advantages of the two policies and proposes a new page replacement policy. In the proposed policy, paging list is divided into two lists (LRU and LFU lists). By keeping the two lists in recency and reference frequency order respectively, we try to restrain the highly referenced pages in the past from being replaced by the LRU policy. Results from trace-driven simulations show that there exists points on the spectrum at which the proposed policy performs better than the previously known policies for the workloads we considered. Especially, we can see that our policy outperforms the existing ones in such applications that have reference patterns of re-accessing the frequently referenced pages in the past after some time.

  • PDF

Memory Reference Patterns and Page Replacement Policies (메모리 참조 패턴 및 페이지 교체 기법)

  • 이승훈;최종무;조성제;조유근
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10c
    • /
    • pp.50-52
    • /
    • 2000
  • 페이징 기법의 효율성은 어떠한 페이지 교체 기법을 쓰느냐에 따라 결정된다. LRU 기법은 작업 부하의 변화에 잘 적응하여 많은 경우 좋은 성능을 보인다. 그러나 참조의 횟수에 대한 정보를 이용하지 못한다. LFU 기법은 지역성을 가지는 참조 패턴이 발견되면 좋은 성능을 발휘한다. 그러나 작업 부하가 변하는 경우 이에 적응하지 못한다. 여러 응용에 대해 참조 패턴을 분석하여 보면 참조되는 페이지는 최근성과 참조 횟수에 의해 가치가 결정되며, 따라서 LRU나 LFU 기법 한 가지만으로 페이지 교체 정책을 최적화 시킬 수 없다. 본 논문에서는 LRU 기법과 LFU 기법을 결합한 새로운 교체 기법을 제안한다. 이 교체 기법에서는 LRU 리스트와 LFU 리스트를 결합하여 사용함으로써 참조 시간뿐만 아니라 참조 횟수를 이용하여 페이지들을 교체한다. 트레이스 기반 모의 실험에서는 제안 기법의 순수 LRU 기법보다 나은 성능을 보일 때가 있다.

  • PDF

A novel page replacement policy associated with ACT-R inspired by human memory retrieval process (인간 기억 인출 과정을 응용하여 설계된 ACT-R 기반 페이지 교체 정책)

  • Roh, Hong-Chan;Park, Sang-Hyun
    • The KIPS Transactions:PartD
    • /
    • v.18D no.1
    • /
    • pp.1-8
    • /
    • 2011
  • The cache structure, which is designed for assuring fast accesses to frequently accessed data, resides on the various levels of computer system hierarchies. Many studies on this cache structure have been conducted and thus many page-replacement algorithms have been proposed. Most of page-replacement algorithms are designed on the basis of heuristic methods by using their own criteria such as how recently pages are accessed and how often they are accessed. This data-retrieval process in computer systems is analogous to human memory retrieval process since the retrieval process of human memory depends on frequency and recency of the retrieval events as well. A recent study regarding human memory cognition revealed that the possibility of the retrieval success and the retrieval latency have a strong correlation with the frequency and recency of the previous retrieval events. In this paper, we propose a novel page-replacement algorithm by utilizing the knowledge from the recent research regarding human memory cognition. Through a set of experiments, we demonstrated that our new method presents better hit-ratio than the LRFU algorithm which has been known as the best performing page-replacement algorithm for DBMS caches.

The Least-Dirty-First CLOCK Replacement Policy for Phase-Change Memory based Swap Devices (PCM 기반 스왑 장치를 위한 클럭 기반 최소 쓰기 우선 교체 정책)

  • Yoo, Seunghoon;Lee, Eunji;Bahn, Hyokyung
    • Journal of KIISE
    • /
    • v.42 no.9
    • /
    • pp.1071-1077
    • /
    • 2015
  • In this paper, we adopt PCM (phase-change memory) as a virtual memory swap device and present a new page replacement policy that considers the characteristics of PCM. Specifically, we aim to reduce the write traffic to PCM by considering the dirtiness of pages when making a replacement decision. The proposed policy tracks the dirtiness of a page at the granularity of a sub-page and replaces the least dirty page among the pages not recently used. Experimental results show that the proposed policy reduces the amount of data written to PCM by 22.9% on average and up to 73.7% compared to CLOCK. It also extends the lifespan of PCM by 49.0% and reduces the energy consumption of PCM by 3.0% on average.

Page Replacement Policy for Memory Load Adaption to Reduce Storage Writes and Page Faults (스토리지 쓰기량과 페이지 폴트를 줄이는 메모리 부하 적응형 페이지 교체 정책)

  • Bahn, Hyokyung;Park, Yunjoo
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.22 no.6
    • /
    • pp.57-62
    • /
    • 2022
  • Recently, fast storage media such as phage-change memory (PCM) emerge, and memory management policies for slow disk storage need to be revisited. In this paper, we propose a new page replacement policy that makes use of PCM as a swap device of virtual memory systems. The proposed policy aims at reducing write traffic to the swap device as well as reducing the number of page faults pursued by traditional page replacement policies. This is because a write operation in PCM is slow and PCM has limited write endurances. Specifically, the proposed policy focuses on the reduction of page faults when the memory load of the system is high, but it aims at reducing write traffic to storage when free memory space is sufficient. Simulation experiments with various memory reference traces show that the proposed policy reduces write traffic to PCM without performance degradations.