• 제목/요약/키워드: LRU

검색결과 155건 처리시간 0.024초

효율적인 레이블 스위칭을 위한 캐쉬 테이블 관리 (Cache Table Management for Effective Label Switching)

  • 김남기;윤현수
    • 한국정보과학회논문지:정보통신
    • /
    • 제28권2호
    • /
    • pp.251-261
    • /
    • 2001
  • 인터넷이 급속도로 발전되면서 트래픽이 폭발적으로 증가하여 현재 라우터에는 많은 부하가 걸리고 있으며 스위칭 기술은 라우팅 보다 빠르게 데이터를 전송하면서 라우터 병목 현상을 줄일수 있다. 따라서 IP 라우팅에 스위칭 기술을 접목한 레이블 스위칭 네트워크가 출현하게 되었다. 레이블 스위칭 기술 중 데이터 기반 레이블 스위칭에서는 흐름 분류와 캐쉬 테이블 관리가 중요하다. 흐름 분류는 패킷을 스위칭으로 전송할 것인지 그렇지 않으면 기존 라우팅으로 전송할 것인지를 결정하는 부분인데 이러한 흐름 분류를 위한 정보와 레이블 스위칭을 위한 정보를 저장하는 곳이 캐쉬 테이블이다. 이런 캐쉬 테이블이 크면 클수록 많은 패킷을 스위칭 할 수 있고 스위칭 설정 비용을 줄일 수 있기 때문에 캐쉬 테이블은 클수록 좋으나 라우터 자원에 의해 제약을 받으므로 적절한 캐쉬 테이블 관리가 필요하다. 따라서 효율적인 캐쉬 테이블 관리를 위해 인터넷 트래픽 특성을 고려한 캐쉬 대체 기법에 관한 연구가 요구되어 진다. 본 논문에서는 레이블 스위칭을 위한 여러 캐쉬 대체 기법들을 소개하고 제안한다. 첫째로 스위칭 용량에 한계가 없을 경우 FIFO, LFC, LRU,기법을 평가하고 우선순위 LRU 가중치 우선순위 LRU 기법을 제안한다. 둘째로 스위칭 용량에 한계가 있을 경우 LFC-LFC, LFC-LRU, LRU-LFC, LRU-LRU 기법이 한계가있을 경우 LRU-가중치 LRU 기법이 가장 나은 성능을 보였다

  • PDF

라스트 레벨 캐쉬 성능 향상을 위한 캐쉬 교체 기법 연구 (A New Cache Replacement Policy for Improving Last Level Cache Performance)

  • 두 콩 튜안;손동오;김종면;김철홍
    • 정보과학회 논문지
    • /
    • 제41권11호
    • /
    • pp.871-877
    • /
    • 2014
  • 캐쉬 교체 기법은 캐쉬 미스를 감소시키기 위해서 개발되었다. 마이크로프로세서와 주기억장치의 속도 차이를 해결하기 위해서는 캐쉬 교체 기법의 성능이 중요하다. 일반적인 캐쉬 교체 기법으로는 LRU 기법이 있으며 대부분의 마이크로프로세서에서 캐쉬 교체 기법으로 LRU 기법을 사용한다. 그러나, 최근의 연구에 따르면 LRU 기법과 최적 교체(OPT) 기법 간의 성능 차이는 매우 크다. LRU 기법의 성능은 많은 연구를 통해서 검증되었지만, 캐쉬 사상방식이 높아질수록 LRU 기법과 OPT 기법의 성능 차이는 증가한다. 본 논문에서는 기존의 LRU 기법을 활용하여 캐쉬 성능을 향상시키는 캐쉬 교체 기법을 제안하였다. 제안된 캐쉬 교체 기법은 캐쉬 블록의 접근율에 따라 교체 대상을 선정하여 캐쉬 블록을 교체시킨다. 제안된 캐쉬 교체 기법은 512KB L2 캐쉬에서 기존의 LRU 기법과 비교하여 평균 15%의 미스율을 감소시켰고, 프로세서 성능은 4.7% 향상됨을 알 수 있다.

플래시 변환 계층을 위한 DPW-LRU 캐시 교체 알고리즘 분석 및 개선 (Analysis and Improvement of the DPW-LRU Cache Replacement Algorithm for Flash Translation Layer)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제15권6호
    • /
    • pp.289-297
    • /
    • 2020
  • Although flash disks are being used widely instead of hard disks, it is difficult to optimize for effective utilization of flash disks because overwrite in place is impossible and the power consumption and time required for read, write, and erase operations are all different. One of these optimization issues is a cache management strategy to minimize write operations. The cache operates at two levels: an operating system equipped with flash disks and a translation layer within the flash disk. Most studies deal with the operating system-level cache strategy. In this study, we implement and analyse the DPW-LRU algorithm which is one of the recently proposed operating system cache replacement algorithms to apply to FTL, and grope with some improvements. As a result of the experiment, the DPW-LRU algorithm maintained superiority even in the FTL environment, and showed better performance with a slight improvement.

블록 분류에 기반한 데이타베이스의 효율적 캐쉬 관리 기법 (Efficient Cache Management Scheme in Database based on Block Classification)

  • 신일훈;고건
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권7호
    • /
    • pp.369-376
    • /
    • 2002
  • LRU는 비균등 참조 패턴을 보이는 데이타베이스의 캐쉬 교체 정책으로 적합하지 않음에도 불구하고, 적절한 대안 부재로 인해 대부분의 데이타베이스 시스템에서 캐쉬 교체 정책으로 이용되어 왔다. 본 논문은 실제 데이타베이스 트레이스 분석을 통해 데이타베이스의 블록 참조 패턴을 추출하고, 이를 바탕으로 새로운 캐쉬 교체 정책을 제안한다. 데이타베이스의 트레이스 분석 결과, 전체 시간동안 거의 참조되지 않는 블록이 전체의 70% 가량을 차지하였다. 그리고 블록의 재참조 가능성에 미치는 최근도(recency)의 영향력이 시간적 지역성으로 인해 처음엔 강력하지만, LRU 스택거리가 증가함에 따라 급격히 감소하여, 결국엔 사라지는 현상을 관찰하였다. 이 관찰을 토대로, 본 논문은 전체 블록을 재참조 가능성과 재참조 가능성에 대한 최근도의 영향력을 기준으로 4개의 그룹으로 분류하고, 각 그룹의 참조 특징에 적합한 우선순위 평가 방법을 운용하는 RCB(Reference Characteristic Based) 캐쉬 교체 정책을 제안한다. RCB 정책은 재참조 가능성이 극히 낮은 블록은 다른 블록보다 캐쉬에서 빨리 교체하며, 오랜 시간 참조되지 않은 블록에 대해서는 참조빈도에 의거하여 블록의 우선순위를 결정한다. 실제 데이터베이스 워크로드를 통한 모의실험 수행 결과, RCB 정책은 기존의 다른 교체 정책들(LRU, 2Q, LRU-K, LRFU)보다 우수한 성능을 나타냈으며, 특히 LRU에 비해서는 약 5 ~ 12.7% 정도, 캐쉬적중실패 회수를 줄였다. RCB 정책의 시간복잡도는 O(l)로서 LRU, 2Q 등과 동일하며, 캐쉬 크기를 N이라 할 때 시간복잡도가 $O(log_2N)$인 LFU와 LRU-K, 그리고 O(1)부터 $O(log_2N)$ 사이의 값을 갖는 LRFU보다 우수하다.

매니코어 CPU 시스템의 병렬 쓰기 성능 향상을 위한 리눅스 커널의 LRU 관리 최적화 기법 (Optimizing LRU Lock Management in the Linux Kernel for Improving Parallel Write Throughout in Many-Core CPU Systems)

  • 변은규;구기범;오광진;방지우
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제12권7호
    • /
    • pp.209-216
    • /
    • 2023
  • 최신 HPC 시스템은 수십 개의 코어를 가진 매니코어 CPU를 탑재하고 있다. 이런 시스템에서 병렬 I/O를 수행할 경우 리눅스 시스템의 LRU락 관리 정책의 문제로 인해 확장성에 한계를 가지고 있음을 확인하였다. 본 연구에서는 이 문제를 해결하기 위한 개선된 FinerLRU를 제안한다. LRU락을 최대 코어 개수만큼 증가시키는 것을 골자로 한 세분화된 Lock 관리를 통해 페이지 기반 버퍼 캐시를 사용하는 파일 시스템의 병렬 쓰기 성능을 향상시키는 것을 목적으로 한다. 리눅스 5.18.11에 제안한 방법을 구현하였으며, 서로 다른 특성을 가진 2종류의 CPU인 Intel Icelake Xeon과 Intel Knights landing에서 성능을 측정하였고 두 종류의 시스템 모두에서 두 배 전후의 성능 향상이 발생함을 확인하였다.

LRU-CFP: 데이터 방송 환경을 위한 클라이언트 캐쉬 관리 기법 (Client Cache Management Scheme For Data Broadcasting Environments)

  • 권혁민
    • 정보처리학회논문지D
    • /
    • 제10D권6호
    • /
    • pp.961-970
    • /
    • 2003
  • 데이타 방송 환경에서 서버는 방송 채널을 통하여 데이타베이스 내의 데이타들을 주기적으로 방송한다. 그리고 각 클라이언트가 어떤 데이타를 액세스하기 위해서는 방송 채널을 감시하여 해당 데이타가 방송되기를 기다려야 한다. 클라이언트 데이타 캐슁은 클라이언트가 액세스하려는 데이타가 방송되기를 기다리는 시간을 줄이기 위한 매우 효과적인 기술이다. 본 논문에서는 이 대기 시간을 줄이기 위하여 LRU-CFP로 명명된 새로운 클라이언트 캐쉬 관리 기법을 제안하고, 모의 실험을 통하여 새로이 제시된 기법의 성능을 평가한다. 성능 평가 결과에 의하면 LRU-CFP 기법은 LRU, GRAY, 그리고 CF 기법보다 평균 응답시간에 있어서 더 우수한 성능을 보인다.

다중 프로세서 시스템에서 프로세서 지역성을 이용한 원격 캐쉬 교체 정책 (Remote Cache Replacement Policy using Processor Locality in Multi-Processor System)

  • 한상윤;곽종욱;장성태;전주식
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권11_12호
    • /
    • pp.541-556
    • /
    • 2005
  • 컴퓨터 시스템에서의 메모리 접근 지연은 전체 시스템 성능에 큰 장애 요인 중 하나이다. 특히 분산 메모리 구조에서 지역 메모리와 원격 메모리의 접근 지연 시간은 큰 차이를 나타낸다. 원격 메모리 접근 지연으로 인한 성능 저하를 줄이고자 원격 메모리 영역만을 캐싱하는 원격 캐쉬가 제안되었으며, 원격 캐쉬는 프로세서 캐쉬와 더불어 다단계 캐쉬 형태로 구성된다. 일반적으로 상위 계층 캐쉬의 모든 내용을 하위 계층 캐쉬가 반드시 포함하는 다단계 캐쉬 내포성(MLI)을 지키는 다중 계층 메모리 구조에서 LRU 교체 정책을 사용할 경우, 하위 계층 캐쉬의 LRU 알고리즘에 따른 라인 교체로 인하여 상위 계층 캐쉬의 라인 교체가 일어날 패, 상위 계층 캐쉬로 요구된 라인 교체가 상위 계층 캐쉬 자체의 LRU 정보와 일치하지 않는 경우가 발생하며, 이로 인해 상위 캐쉬의 적중률이 저하되어 전체 시스템 성능이 저하된다. 본 논문은 원격 캐쉬를 추가시킨 분산 공유 메모리 구조 다중 프로세서 시스템의 성능 향상을 위해 LRU 캐쉬 교체 정책의 단점을 보완한 새로운 원격 캐쉬 교체 정책을 제안한다. 논문에서 제안하는 교체 정책은 LRU 정보에 부가하여 프로세서의 시간적 접근 지역성을 이용하여 교체할 캐쉰 라인을 선택하게 함으로써, 프로세서에서 자주 사용되는 원격 캐쉬 라인의 교체가 일어나지 않도록 하여 시스템의 성능 향상을 꾀한다. 시뮬레이션을 통한 성능비교 결과, 본 논문에서 제시한 원격 캐쉬 교체 정책은 기존의 LRU 교체 정책과 비교하여 평균 $3\%$, 최대 $10\%$의 무효화 및 캐쉬 접근 실패를 감소시켰고, 이 결과 전체 시스템의 성능은 평균 $2.5\%$, 최대 $3.5\%$ 향상되었다.

고성능 프로세서를 위한 카운터 기반의 캐시 교체 알고리즘 (Cache Replacement Policy Based on Dynamic Counter for High Performance Processor)

  • 정도영;이용석
    • 전자공학회논문지
    • /
    • 제50권4호
    • /
    • pp.52-58
    • /
    • 2013
  • 캐시 메모리의 성능에 큰 영향을 미치는 요소 중 하나인 캐시 교체 알고리즘 중에서 가장 최적의 성능을 가지는 알고리즘은 LRU알고리즘이다. LRU알고리즘은 데이터의 temporal locality특성이 강한 프로그램에서 좋은 성능을 보여주지만, 그렇지 않은 프로그램에서는 많은 캐시 미스를 발생시킨다. 본 논문에서는 LRU알고리즘의 이러한 단점을 개선하기 위한 새로운 카운터 기반 교체 알고리즘인 DCR(Dynamic Counter based Replacement) 알고리즘을 제안한다. 본 논문에서는 캐시에 저장된 이후로 교체되기 전까지 다시 사용되지 않는 데이터인 zero reuse line의 발생 추이를 관찰함으로써 프로그램의 temporal locality 특성이 시간에 따라 동적으로 변화함을 보였다. 그리고 이에 착안하여 제안하는 DCR 알고리즘은 주기적으로 zero reuse line의 수를 카운트하여 프로그램의 temporal locality 변화에 대응할 수 있도록 하였다. DCR 알고리즘은 기존의 LRU알고리즘과 비교하여 최대 2.7%, 평균 0.47%의 미스율 감소를 보였다.

메모리 참조 패턴 및 페이지 교체 기법 (Memory Reference Patterns and Page Replacement Policies)

  • 이승훈;최종무;조성제;조유근
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (3)
    • /
    • pp.50-52
    • /
    • 2000
  • 페이징 기법의 효율성은 어떠한 페이지 교체 기법을 쓰느냐에 따라 결정된다. LRU 기법은 작업 부하의 변화에 잘 적응하여 많은 경우 좋은 성능을 보인다. 그러나 참조의 횟수에 대한 정보를 이용하지 못한다. LFU 기법은 지역성을 가지는 참조 패턴이 발견되면 좋은 성능을 발휘한다. 그러나 작업 부하가 변하는 경우 이에 적응하지 못한다. 여러 응용에 대해 참조 패턴을 분석하여 보면 참조되는 페이지는 최근성과 참조 횟수에 의해 가치가 결정되며, 따라서 LRU나 LFU 기법 한 가지만으로 페이지 교체 정책을 최적화 시킬 수 없다. 본 논문에서는 LRU 기법과 LFU 기법을 결합한 새로운 교체 기법을 제안한다. 이 교체 기법에서는 LRU 리스트와 LFU 리스트를 결합하여 사용함으로써 참조 시간뿐만 아니라 참조 횟수를 이용하여 페이지들을 교체한다. 트레이스 기반 모의 실험에서는 제안 기법의 순수 LRU 기법보다 나은 성능을 보일 때가 있다.

  • PDF

NAND 플래시 변환 계층에서 전력 소모에 영향을 미치는 페이지 캐싱 전략의 비교·분석 (A Comparative Analysis on Page Caching Strategies Affecting Energy Consumption in the NAND Flash Translation Layer)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제13권3호
    • /
    • pp.109-116
    • /
    • 2018
  • SSDs that are not allowed in-place update within the allocated page cause another allocation of a new page that will replace the previous page at the moment data modification occurs. This intrinsic characteristic of SSDs requires many changes to the existing HDD-based IO theory. In this paper, we conduct a performance comparison of FTL caching strategy in perspective of cache hashing (Global vs. grouped) and caching algorithm (LRU vs. NUR) through a simulation. Experimental results show that in terms of energy consumption for flash operation the grouped management of cache is not suitable and NUR algorithm is superior to LRU algorithm. In particular, we found that the cache hit ratio of LRU algorithm is about 10% point higher than that of NUR algorithm while the energy consumption of LRU algorithm is about 32% high.