• 제목/요약/키워드: Least Frequently Used(LFU)

검색결과 14건 처리시간 0.026초

LFR기법을 이용한 블럭교체 기법에 관한 연구 (On the study of block replacement policy using LFR)

  • 오재환;김상수김미선
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1998년도 추계종합학술대회 논문집
    • /
    • pp.499-502
    • /
    • 1998
  • Most popular disk block replacement polices are LRU(Least Recently Used)policy and LFU(Least Frequently Used)policy. The LRU policy replaces blocks according to the most recent reference without considering the frequency of reference. The LFU policy replaces blocks according to the frequency of reference without considering the recently of the reference. In this thesis, a policy called LFR(least Frequently Use & Not Used Recently) disk block replacement policy is presented. The LFR policy subsumes the LFU policy and the NUR policy. The spectrum of the LFR policy exists between the LFU policy and the NUR policy because we co give different weight to each reference of a block. The implementation shows LFR policy outperforms the previously implemente LRU policy.

  • PDF

저전력 캐쉬 대체 정책 (Cache Replacement Policies for Energy Efficiency)

  • 이문상;이원진;이준원;맹승렬
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (A)
    • /
    • pp.12-14
    • /
    • 2000
  • 소형의 이동 컴퓨터 시스템이 발전하면서 프로세서의 전력 소모(energy dissipation)가 중요한 이슈가 되고 있다. 현재 대부분의 프로세서들은 성능 향상을 위해 캐쉬를 사용하고 있고 이것은 프로세서내의 많은 비율의 전력을 소모한다. 따라서 저 전력 프로세서를 설계하기 위해서는 내장 캐쉬(on-chip cache)의 전력 소모를 줄이는 것이 중요하다. 본 논문은 캐쉬 대체 전략으로 현재 많이 사용되는 LRU(Least Recently Used) 방식을 LFU(Least Frequently Used), LFUT(LFU with Threshold), FIFO(First In First Out) 방식과 관련 효율적 측면에서 비교 분석 한다.

  • PDF

웹에서 LRFU기법을 이용한 캐쉬(cache) 성능 향상을 위한 도큐먼트 재배치 정책 (Document Replacement Policy for Improving of Cache Performance in the Web)

  • 윤태완;장태무
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 봄 학술발표논문집 Vol.28 No.1 (A)
    • /
    • pp.10-12
    • /
    • 2001
  • 웹에서 도큐먼트 재배치 정책은 캐쉬(cache)성능을 향상시키기 위한 방법중의 하나이다. 이 방법을 웹 캐쉬 공간이 한정되어 있으며 새로운 도큐먼트를 위한 공간을 만들기 위해 어느 도큐먼트를 축출(remove)[2]할 것인가를 결정하고 새로운 도큐먼트를 갱신(update)[6]하기 위한 방법을 제공한다. 도큐먼트 재배치 정책으로는 LRU(Least Recently Used), LFU(Least Frequently Used)등과 같은 방법이 보편적을 사용되고 있으나, 웹에 적용하기에는 몇 가지 단점이 있다. 본 논문에서는 LRU, LFU등의 도큐먼트 재배치 정책을 이용하면서도 웹에 적용하기 위해 몇 가지 단점을 보완한 LRFU(Least Recently/Frequently Used)[4]기법을 사용한다. 또한 본 논문에서는 인터넷(internet) 사용자의 지수적인(exponential) 증가와 이로 인한 병목현상(bottleneck)의 발생을 전제로 하여, 캐쉬성능을 향상시키기 위한 다각적인 시도로 지역성(locality), 일관성(consistency)[7][5], 확장성(scalability)[5]등의 문제에 관한 논의와 기존의 방법과는 다른 도큐먼트 재배치 정책에의 접근을 시도한다.

MLC-LFU : 플래시 메모리를 위한 멀티레벨 버퍼 캐시 관리 정책 (MLC-LFU : The Multi-Level Buffer Cache Management Policy for Flash Memory)

  • 옥동석;이태훈;정기동
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권1호
    • /
    • pp.14-20
    • /
    • 2009
  • 플래시 메모리는 현재 휴대용 기기 뿐 아니라 개인용 컴퓨터와 서버용 컴퓨터에서 널리 사용되고 있다 하드디스크를 위한 버퍼 캐시 교체 정책인 LRU(Least Recently Used)와 LFU(Least Frequently Used)는 플래시 메모리의 특성을 전혀 고려하지 않아 플래시 메모리에 적합하지 않다. 기존에 연구되었던 CFLRU(Clean-First LRU)와 그 변형인 CFLRU/C, CFLRU/E, DL-CPLRU/E는 플래시 메모리의 특성을 고려하였지만 hit ratio가 LRU와 LFU에 비하여 좋지 않다. 본 논문에서는 기존의 버퍼 캐시 교체 정책들을 보완하는 새로운 버퍼 캐시 교체 정책을 제안한다. 이 버퍼 캐시 교체 정책은 LFU를 기반으로 하고 플래시 메모리의 특성을 고려하였다. 그리고 이 새로운 버퍼 캐시 교체 정책을 기존 플래시 메모리 버퍼 캐시 교체 정책과 hit ratio와 flush 횟수를 비교하여 성능을 평가한다.

ABRN:주문형 멀티미디어 데이터 베이스 서비스 시스템을 위한 버퍼 교체 알고리즘 (ABRN:An Adaptive Buffer Replacement for On-Demand Multimedia Database Service Systems)

  • 정광철;박웅규
    • 한국정보처리학회논문지
    • /
    • 제3권7호
    • /
    • pp.1669-1679
    • /
    • 1996
  • In this paper, we address the problem of how to replace huffers in multimedia database systems with time-varying skewed data access. The access pattern in the multimedia database system to support audio-on-demand and video-on-demand services is generally skewed with a few popular objects. In addition the access pattem of the skewed objects has a time-varying property. In such situations, our analysis indicates that conventional LRU(least Recently Used) and LFU(Least Frequently Used) schemes for buffer replacement algorithm(ABRN:Adaptive Buffer Replacement using Neural suited. We propose a new buffer replacement algorithm(ABRN:Adaptive Buffer Replacement using Neural Networks)using a neural network for multimedia database systems with time-varying skewed data access. The major role of our neural network classifies multimedia objects into two classes:a hot set frequently accessed with great popularity and a cold set randomly accessed with low populsrity. For the classification, the inter-arrival time values of sample objects are employed to train the neural network.Our algorithm partitions buffers into two regions to combine the best roperties of LRU and LFU.One region, which contains the 핫셋 objects, is managed by LFU replacement and the other region , which contains the cold set objects , is managed by LRUreplacement.We performed simulation experiments in an actual environment with time-varying skewed data accsee to compare our algorithm to LRU, LFU, and LRU-k which is a variation of LRU. Simulation resuults indicate that our proposed algorthm provides better performance as compared to the other algorithms. Good performance of the neural network-based replacement scheme means that this new approach can be also suited as an alternative to the existing page replacement and prefetching algorithms in virtual memory systems.

  • PDF

메타 검색 엔진을 위한 인기도 기반 캐쉬 관리 및 성능 평가 (A Popularity-driven Cache Management and its Performance Evaluation in Meta-search Engines)

  • 홍진선;이상호
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제29권2호
    • /
    • pp.148-157
    • /
    • 2002
  • 메타 검색 엔진에서 캐쉬의 사용은 사용자의 응답시간을 향상시킬 수 있다. 본 논문에서는 메타 검색 엔진의 구조와 동작을 보이고, 메타 검색 엔진을 위한 인기도 기반의 새로운 캐쉬 대체 방법을 제안한다. 인기도는 사용자들이 검색 엔진에 요청한 단어들의 출현 빈도수를 정규화한 값으로, 캐쉬 대체를 위한 기준치로 이용된다. 본 논문에서는 인기 검색어 수집 방법, 인기도 산출방법을 기술하고, 인기도를 기반으로 하는 새로운 알고리즘을 제안한다. 또한 실제 사용자가 검색 엔진에 입력한 자료를 바탕으로, 전통적인 캐쉬 대체 기법인 LRU, LFU 알고리즘과 제안된 알고리즘을 성능 평가하였다. 본 성능 평가에서는 제안된 알고리즘이 대다수의 경우 우수한 성능을 나타내었다.

CCN에서 실시간 생성자 인기도 기반의 LFU 정책 (A LFU based on Real-time Producer Popularity in Concent Centric Networks)

  • 최종현;권태욱
    • 한국전자통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.1113-1120
    • /
    • 2021
  • 콘텐츠 중심 네트워크(CCN)은 기존 위치(IP) 기반의 네트워크 방식을 콘텐츠 이름(Content Name) 중심의 네트워크 구조로 변모시킴으로써 네트워크 전반의 효율성을 높이고자 하는 시도이다. CCN에서는 네트워크 효율을 높이기 위해 라우터 저장공간을 활용한 캐싱을 수행하는데, 캐시 교체정책은 CCN의 전반적인 성능을 좌우하는 중요한 요소이다. 따라서 CCN 분야에서는 캐시 교체정책과 관련된 많은 선행 연구가 있었다. 본 논문에서는 CCN 기본 캐시 교체정책인 LFU를 개선한 실시간 생성자 인기도 기반의 캐시 교체정책을 제안하였다. 또한, 실험을 통해 제안한 캐시 교체정책이 대조군보다 우수함을 입증하였다.

최근성과 참조 횟수에 기반한 페이지 교체 기법 (A Page Replacement Scheme Based on Recency and Frequency)

  • 이승훈;이종우;조성제
    • 정보처리학회논문지A
    • /
    • 제8A권4호
    • /
    • pp.469-478
    • /
    • 2001
  • 운영체제의 가상 메모리 시스템에 적용할 페이지 교체 정책은 요구 페이징 시스템의 성능에 큰 영향을 미친다. 대표적인 메모리 페이지 교체 정책으로는 LRU와 LFU가 있다. LRU 정책은 많은 경우에 좋은 성능을 보이며 시스템 부하 변화에 잘 적응하지만, 자주 참조되는 페이지와 가끔 참조되는 페이지를 구별하지 못한다. LFU 정책은 참조 횟수가 가장 작은 페이지를 교체하는 기법으로, 과거의 모든 참조를 반영하지만 이전에 참조된 페이지와 최근에 참조된 페이지를 식별하지 못한다. 따라서 LFU는 변화하는 작업 부하에 잘 적응하지 못한다. 본 논문에서는 먼저 8개의 응용에 대해 메모리 참조 패턴을 분석하여 보았다. 그 참조 패턴을 보면 어떤 경우에는 최근에 참조된 페이지가 계속 참조되며, 또 다른 경우에는 자주 참조되는 페이지가 계속 참조되는 경향이 있다. 즉, 응용에 의해 참조되는 메모리 페이지는 최근성과 참조 횟수 모두에 의해 가치가 결정되며, LRU나 LFU 정책 한 가지만으로는 페이지 교체 정책을 최적화하기 어렵다. 따라서 본 논문에서는 LRU 기법과 LFU 기법을 결합한 새로운 교체 기법을 제안한다. 제안한 기법에서는 페이지 리스트를 LRU 리스트와 LFU 리스트를 나누어 관리하는데, 이 두 리스트에서는 각각 최근성과 참조 횟수를 기반으로 페이지 리스트 순서가 유지된다. 과거에 자주 참조되었던 페이지가 LRU 정책에 의해 교체되어 빠져나가는 경우를 LFU 정책 병행 사용을 통해 줄임으로써, 최근성 가치에 의해 참조 횟수 가치가 훼손되는 경우를 줄인다. 트레이스-기반 시뮬레이션 결과, 제안 기법이 이전에 알려진 페이지 교체 기법보다 좋은 성능을 보일 때가 있음을 확인하였는데, 특히, 과거에 자주 참조했던 페이지를 일정 시간 경과한 후에 다시 참조하는 패턴을 보이는 응용들에서 제안 기법이 기존의 기법들보다 우수하다는 것을 알 수 있었다.

  • PDF

하이브리드 하드디스크를 위한 효율적인 데이터 블록 교체 및 재배치 기법 (An Efficient Data Block Replacement and Rearrangement Technique for Hybrid Hard Disk Drive)

  • 박광희;이근형;김덕환
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권1호
    • /
    • pp.1-10
    • /
    • 2010
  • 최근 낸드 플래시 메모리가 하드디스크 수준으로 읽기 성능이 향상되고, 전력소비가 훨씬 적음에 따라, 플래시메모리와 하드디스크를 같이 사용하는 하이브리드 하드디스크와 같은 이기종 저장장치들이 출시되고 있다. 하지만 낸드 플래시 메모리의 쓰기 및 삭제 속도가 기존 자기디스크의 쓰기 성능에 비해 매우 느릴 뿐 아니라, 사용자 층에서 쓰기 요청이 집중될 경우 CPU, 메인 메모리에 심각한 오버헤드를 발생시킨다. 본 논문에서는 비휘발성 캐시의 역할을 하는 낸드 플래시 메모리의 성능을 향상시키기 위해 읽기의 참조 빈도는 낮고, 쓰기의 갱신 빈도가 높은 데이터 블록들을 교체하는 LFU(Least Frequently Used)-Hot 기법을 제시하고, 교체 될 데이터 블록들을 재배치하여 자기디스크로 플러싱하는 기법을 제시한다. 실험 결과, 본 논문에서 제안하는 LFU-Hot 블록 교체 기법과 멀티존 기반의 데이터 블록 재배치기법 실행시간이 기존 LRU, LFU 블록 교체 기법들보다 입출력 성능 면에서 최대 38% 빠르고, 비휘발성 캐시의 수명을 약 40% 이상 향상 시킴을 증명하였다.

분산 프록시를 사용한 VOD 서비스 (VOD Service using Distributed Proxy)

  • 김영준;김익수
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 춘계학술발표논문집 (상)
    • /
    • pp.233-236
    • /
    • 2002
  • 본 논문은 인터넷상에서 다양한 매체를 이용한 서비스를 제공할 때 생길 수 있는 긴 사용자-서버간 지연, 엄청난 서버의 부하, 네트워크 자원의 비효율적 사용과 같은 문제점들을 위한 개선된 방법으로 사용자에 가까운 복수의 노드들을 두어 서버에서 전송된 데이터를 분산 저장하는 방법에 대해 다루고 있다. 새로운 분산 Proxy 기법은 VOD 서비스를 원하는 사용자들이 통일한 아이템에 대한 요청이 많은 서비스 패턴을 분석해서, 중복된 네트워크 부하는 줄이는 과정을 수행한다. 사용자가 요청한 영화는 서버에서 전송을 받는데 이때, HEN(Head-End-Node)에 구현된 여러 Proxy에 아이템의 일부를 나누어 저장하고 이에 대한 정보 보관과 제어를 SA(Switching Agent)가 하게 된다. 사용자가 서비스를 요청할 경우 SA의 제어 하에 분산 Proxy에 교호적으로 접속을 하여 저장되어 있는 부분적인 데이터들을 서비스 받도록 한다. 이때 Proxy에 새로운 데이터 블록을 저장할 때는 부족한 저장공간으로 인해 LRU(Least Recently Used), LFU(Least Frequently Used), 또는 이들을 복합한 Hybrid 정책을 사용한다.

  • PDF