• 제목/요약/키워드: LFU

검색결과 41건 처리시간 0.027초

MLC-LFU : 플래시 메모리를 위한 멀티레벨 버퍼 캐시 관리 정책 (MLC-LFU : The Multi-Level Buffer Cache Management Policy for Flash Memory)

  • 옥동석;이태훈;정기동
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권1호
    • /
    • pp.14-20
    • /
    • 2009
  • 플래시 메모리는 현재 휴대용 기기 뿐 아니라 개인용 컴퓨터와 서버용 컴퓨터에서 널리 사용되고 있다 하드디스크를 위한 버퍼 캐시 교체 정책인 LRU(Least Recently Used)와 LFU(Least Frequently Used)는 플래시 메모리의 특성을 전혀 고려하지 않아 플래시 메모리에 적합하지 않다. 기존에 연구되었던 CFLRU(Clean-First LRU)와 그 변형인 CFLRU/C, CFLRU/E, DL-CPLRU/E는 플래시 메모리의 특성을 고려하였지만 hit ratio가 LRU와 LFU에 비하여 좋지 않다. 본 논문에서는 기존의 버퍼 캐시 교체 정책들을 보완하는 새로운 버퍼 캐시 교체 정책을 제안한다. 이 버퍼 캐시 교체 정책은 LFU를 기반으로 하고 플래시 메모리의 특성을 고려하였다. 그리고 이 새로운 버퍼 캐시 교체 정책을 기존 플래시 메모리 버퍼 캐시 교체 정책과 hit ratio와 flush 횟수를 비교하여 성능을 평가한다.

CCN에서 적중률 향상을 위한 지연감쇠 LFU(DA-LFU) 캐시 교체 정책 (Delay Attenuation LFU (DA-LFU) Cache Replacement Policy to Improve Hit Rates in CCN)

  • 반빈;권태욱
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제9권3호
    • /
    • pp.59-66
    • /
    • 2020
  • 현재 네트워크의 트래픽 부하 급증과 같은 문제를 해결하기 위해 기존의 호스트 기반 네트워크와 완전히 다른 아키텍처를 가진 콘텐츠 중심네트워크(CCN)가 등장하였다. 네트워크 상 모든 라우터가 캐시 한다는 특징을 가진 CCN의 성능을 향상시키기 위해 캐시 교체 정책에 대한 연구가 매우 활발하다. 따라서 본 논문에서는 실제 네트워크 상황을 고려하여 요청되는 콘텐츠의 인기도가 끊임없이 변화하는 상황에 적합한 캐시 교체 정책을 제안한다. 제안하는 알고리즘의 성능을 평가하기 위해 콘텐츠의 인기도가 지속적으로 변화하는 환경에서 실험하였고, 적중률 비교와 서버 부하분석을 통해 기존의 교체정책보다 우수함을 확인하였다.

CCN에서 실시간 생성자 인기도 기반의 LFU 정책 (A LFU based on Real-time Producer Popularity in Concent Centric Networks)

  • 최종현;권태욱
    • 한국전자통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.1113-1120
    • /
    • 2021
  • 콘텐츠 중심 네트워크(CCN)은 기존 위치(IP) 기반의 네트워크 방식을 콘텐츠 이름(Content Name) 중심의 네트워크 구조로 변모시킴으로써 네트워크 전반의 효율성을 높이고자 하는 시도이다. CCN에서는 네트워크 효율을 높이기 위해 라우터 저장공간을 활용한 캐싱을 수행하는데, 캐시 교체정책은 CCN의 전반적인 성능을 좌우하는 중요한 요소이다. 따라서 CCN 분야에서는 캐시 교체정책과 관련된 많은 선행 연구가 있었다. 본 논문에서는 CCN 기본 캐시 교체정책인 LFU를 개선한 실시간 생성자 인기도 기반의 캐시 교체정책을 제안하였다. 또한, 실험을 통해 제안한 캐시 교체정책이 대조군보다 우수함을 입증하였다.

LFR기법을 이용한 블럭교체 기법에 관한 연구 (On the study of block replacement policy using LFR)

  • 오재환;김상수김미선
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1998년도 추계종합학술대회 논문집
    • /
    • pp.499-502
    • /
    • 1998
  • Most popular disk block replacement polices are LRU(Least Recently Used)policy and LFU(Least Frequently Used)policy. The LRU policy replaces blocks according to the most recent reference without considering the frequency of reference. The LFU policy replaces blocks according to the frequency of reference without considering the recently of the reference. In this thesis, a policy called LFR(least Frequently Use & Not Used Recently) disk block replacement policy is presented. The LFR policy subsumes the LFU policy and the NUR policy. The spectrum of the LFR policy exists between the LFU policy and the NUR policy because we co give different weight to each reference of a block. The implementation shows LFR policy outperforms the previously implemente LRU policy.

  • PDF

메모리 참조 패턴 및 페이지 교체 기법 (Memory Reference Patterns and Page Replacement Policies)

  • 이승훈;최종무;조성제;조유근
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (3)
    • /
    • pp.50-52
    • /
    • 2000
  • 페이징 기법의 효율성은 어떠한 페이지 교체 기법을 쓰느냐에 따라 결정된다. LRU 기법은 작업 부하의 변화에 잘 적응하여 많은 경우 좋은 성능을 보인다. 그러나 참조의 횟수에 대한 정보를 이용하지 못한다. LFU 기법은 지역성을 가지는 참조 패턴이 발견되면 좋은 성능을 발휘한다. 그러나 작업 부하가 변하는 경우 이에 적응하지 못한다. 여러 응용에 대해 참조 패턴을 분석하여 보면 참조되는 페이지는 최근성과 참조 횟수에 의해 가치가 결정되며, 따라서 LRU나 LFU 기법 한 가지만으로 페이지 교체 정책을 최적화 시킬 수 없다. 본 논문에서는 LRU 기법과 LFU 기법을 결합한 새로운 교체 기법을 제안한다. 이 교체 기법에서는 LRU 리스트와 LFU 리스트를 결합하여 사용함으로써 참조 시간뿐만 아니라 참조 횟수를 이용하여 페이지들을 교체한다. 트레이스 기반 모의 실험에서는 제안 기법의 순수 LRU 기법보다 나은 성능을 보일 때가 있다.

  • PDF

최근성과 참조 횟수에 기반한 페이지 교체 기법 (A Page Replacement Scheme Based on Recency and Frequency)

  • 이승훈;이종우;조성제
    • 정보처리학회논문지A
    • /
    • 제8A권4호
    • /
    • pp.469-478
    • /
    • 2001
  • 운영체제의 가상 메모리 시스템에 적용할 페이지 교체 정책은 요구 페이징 시스템의 성능에 큰 영향을 미친다. 대표적인 메모리 페이지 교체 정책으로는 LRU와 LFU가 있다. LRU 정책은 많은 경우에 좋은 성능을 보이며 시스템 부하 변화에 잘 적응하지만, 자주 참조되는 페이지와 가끔 참조되는 페이지를 구별하지 못한다. LFU 정책은 참조 횟수가 가장 작은 페이지를 교체하는 기법으로, 과거의 모든 참조를 반영하지만 이전에 참조된 페이지와 최근에 참조된 페이지를 식별하지 못한다. 따라서 LFU는 변화하는 작업 부하에 잘 적응하지 못한다. 본 논문에서는 먼저 8개의 응용에 대해 메모리 참조 패턴을 분석하여 보았다. 그 참조 패턴을 보면 어떤 경우에는 최근에 참조된 페이지가 계속 참조되며, 또 다른 경우에는 자주 참조되는 페이지가 계속 참조되는 경향이 있다. 즉, 응용에 의해 참조되는 메모리 페이지는 최근성과 참조 횟수 모두에 의해 가치가 결정되며, LRU나 LFU 정책 한 가지만으로는 페이지 교체 정책을 최적화하기 어렵다. 따라서 본 논문에서는 LRU 기법과 LFU 기법을 결합한 새로운 교체 기법을 제안한다. 제안한 기법에서는 페이지 리스트를 LRU 리스트와 LFU 리스트를 나누어 관리하는데, 이 두 리스트에서는 각각 최근성과 참조 횟수를 기반으로 페이지 리스트 순서가 유지된다. 과거에 자주 참조되었던 페이지가 LRU 정책에 의해 교체되어 빠져나가는 경우를 LFU 정책 병행 사용을 통해 줄임으로써, 최근성 가치에 의해 참조 횟수 가치가 훼손되는 경우를 줄인다. 트레이스-기반 시뮬레이션 결과, 제안 기법이 이전에 알려진 페이지 교체 기법보다 좋은 성능을 보일 때가 있음을 확인하였는데, 특히, 과거에 자주 참조했던 페이지를 일정 시간 경과한 후에 다시 참조하는 패턴을 보이는 응용들에서 제안 기법이 기존의 기법들보다 우수하다는 것을 알 수 있었다.

  • PDF

분산 디렉토리 시스템에서의 원격 질의에 대한 캐싱 기법 (A Caching Mechanism for Remote Queries in Distributed Directory Systems)

  • 이강우
    • 한국정보처리학회논문지
    • /
    • 제7권1호
    • /
    • pp.50-56
    • /
    • 2000
  • 본 논문에서는 분산 디렉토리 시스템에서 질의 처리 속도를 향상시키기 위하여 원격지의 객체에 대한 질의와 결과를 요청지의 캐시에 저장하는 캐싱 메카니즘을 제안한다. 이를 위하여 첫째, 분산 디렉토리 시스템에 저장되는 캐시 정보를 응용 데이터 정보, 시스템 데이터 정보로 분류하고, 분류된 캐시 정보를 기반으로 캐시 시스템 구조를 설계하였다. 둘째, 각각의 캐시에 대한 거리 정보와 접근 회수를 가중치로 부여한 최소-TTL 대체 기법을 개발하였다. 마지막으로 제안된 캐시 기법과 타 기법(LRU, LFU 대체 기법)에 대하여 성능 평가를 수행하여 제안된 기법이 LRU 기법 보다 25%의 성능향상을 보였으며, LFU 기법보다는 30%의 성능향상 결과를 보였다.

  • PDF

하이브리드 하드디스크를 위한 효율적인 데이터 블록 교체 및 재배치 기법 (An Efficient Data Block Replacement and Rearrangement Technique for Hybrid Hard Disk Drive)

  • 박광희;이근형;김덕환
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권1호
    • /
    • pp.1-10
    • /
    • 2010
  • 최근 낸드 플래시 메모리가 하드디스크 수준으로 읽기 성능이 향상되고, 전력소비가 훨씬 적음에 따라, 플래시메모리와 하드디스크를 같이 사용하는 하이브리드 하드디스크와 같은 이기종 저장장치들이 출시되고 있다. 하지만 낸드 플래시 메모리의 쓰기 및 삭제 속도가 기존 자기디스크의 쓰기 성능에 비해 매우 느릴 뿐 아니라, 사용자 층에서 쓰기 요청이 집중될 경우 CPU, 메인 메모리에 심각한 오버헤드를 발생시킨다. 본 논문에서는 비휘발성 캐시의 역할을 하는 낸드 플래시 메모리의 성능을 향상시키기 위해 읽기의 참조 빈도는 낮고, 쓰기의 갱신 빈도가 높은 데이터 블록들을 교체하는 LFU(Least Frequently Used)-Hot 기법을 제시하고, 교체 될 데이터 블록들을 재배치하여 자기디스크로 플러싱하는 기법을 제시한다. 실험 결과, 본 논문에서 제안하는 LFU-Hot 블록 교체 기법과 멀티존 기반의 데이터 블록 재배치기법 실행시간이 기존 LRU, LFU 블록 교체 기법들보다 입출력 성능 면에서 최대 38% 빠르고, 비휘발성 캐시의 수명을 약 40% 이상 향상 시킴을 증명하였다.

저전력 캐쉬 대체 정책 (Cache Replacement Policies for Energy Efficiency)

  • 이문상;이원진;이준원;맹승렬
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (A)
    • /
    • pp.12-14
    • /
    • 2000
  • 소형의 이동 컴퓨터 시스템이 발전하면서 프로세서의 전력 소모(energy dissipation)가 중요한 이슈가 되고 있다. 현재 대부분의 프로세서들은 성능 향상을 위해 캐쉬를 사용하고 있고 이것은 프로세서내의 많은 비율의 전력을 소모한다. 따라서 저 전력 프로세서를 설계하기 위해서는 내장 캐쉬(on-chip cache)의 전력 소모를 줄이는 것이 중요하다. 본 논문은 캐쉬 대체 전략으로 현재 많이 사용되는 LRU(Least Recently Used) 방식을 LFU(Least Frequently Used), LFUT(LFU with Threshold), FIFO(First In First Out) 방식과 관련 효율적 측면에서 비교 분석 한다.

  • PDF

ABRN:주문형 멀티미디어 데이터 베이스 서비스 시스템을 위한 버퍼 교체 알고리즘 (ABRN:An Adaptive Buffer Replacement for On-Demand Multimedia Database Service Systems)

  • 정광철;박웅규
    • 한국정보처리학회논문지
    • /
    • 제3권7호
    • /
    • pp.1669-1679
    • /
    • 1996
  • In this paper, we address the problem of how to replace huffers in multimedia database systems with time-varying skewed data access. The access pattern in the multimedia database system to support audio-on-demand and video-on-demand services is generally skewed with a few popular objects. In addition the access pattem of the skewed objects has a time-varying property. In such situations, our analysis indicates that conventional LRU(least Recently Used) and LFU(Least Frequently Used) schemes for buffer replacement algorithm(ABRN:Adaptive Buffer Replacement using Neural suited. We propose a new buffer replacement algorithm(ABRN:Adaptive Buffer Replacement using Neural Networks)using a neural network for multimedia database systems with time-varying skewed data access. The major role of our neural network classifies multimedia objects into two classes:a hot set frequently accessed with great popularity and a cold set randomly accessed with low populsrity. For the classification, the inter-arrival time values of sample objects are employed to train the neural network.Our algorithm partitions buffers into two regions to combine the best roperties of LRU and LFU.One region, which contains the 핫셋 objects, is managed by LFU replacement and the other region , which contains the cold set objects , is managed by LRUreplacement.We performed simulation experiments in an actual environment with time-varying skewed data accsee to compare our algorithm to LRU, LFU, and LRU-k which is a variation of LRU. Simulation resuults indicate that our proposed algorthm provides better performance as compared to the other algorithms. Good performance of the neural network-based replacement scheme means that this new approach can be also suited as an alternative to the existing page replacement and prefetching algorithms in virtual memory systems.

  • PDF