• 제목/요약/키워드: Cache Replacement Method

검색결과 26건 처리시간 0.027초

라스트 레벨 캐쉬 성능 향상을 위한 캐쉬 교체 기법 연구 (A New Cache Replacement Policy for Improving Last Level Cache Performance)

  • 두 콩 튜안;손동오;김종면;김철홍
    • 정보과학회 논문지
    • /
    • 제41권11호
    • /
    • pp.871-877
    • /
    • 2014
  • 캐쉬 교체 기법은 캐쉬 미스를 감소시키기 위해서 개발되었다. 마이크로프로세서와 주기억장치의 속도 차이를 해결하기 위해서는 캐쉬 교체 기법의 성능이 중요하다. 일반적인 캐쉬 교체 기법으로는 LRU 기법이 있으며 대부분의 마이크로프로세서에서 캐쉬 교체 기법으로 LRU 기법을 사용한다. 그러나, 최근의 연구에 따르면 LRU 기법과 최적 교체(OPT) 기법 간의 성능 차이는 매우 크다. LRU 기법의 성능은 많은 연구를 통해서 검증되었지만, 캐쉬 사상방식이 높아질수록 LRU 기법과 OPT 기법의 성능 차이는 증가한다. 본 논문에서는 기존의 LRU 기법을 활용하여 캐쉬 성능을 향상시키는 캐쉬 교체 기법을 제안하였다. 제안된 캐쉬 교체 기법은 캐쉬 블록의 접근율에 따라 교체 대상을 선정하여 캐쉬 블록을 교체시킨다. 제안된 캐쉬 교체 기법은 512KB L2 캐쉬에서 기존의 LRU 기법과 비교하여 평균 15%의 미스율을 감소시켰고, 프로세서 성능은 4.7% 향상됨을 알 수 있다.

Cache Memory and Replacement Algorithm Implementation and Performance Comparison

  • Park, Na Eun;Kim, Jongwan;Jeong, Tae Seog
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권3호
    • /
    • pp.11-17
    • /
    • 2020
  • 본 논문은 캐시 시뮬레이션을 통해 각 교체 알고리즘의 캐시 히트(Cache Hit) 및 검색시간을 측정함으로써 캐시 교체 정책에 대한 실용적인 결과를 제시한다. 프로세서의 성능이 향상되면서 캐시 메모리 또한 성능을 향상하기 위한 많은 연구가 활발히 진행되고 있다. 캐시 메모리는 일반적으로 LRU(Least Recently Used) 교체방식을 사용하고 있으며 LRU 방식 이외에도 대표적으로 FIFO(First-In First-Out), LFU(Least Frequently Used) 및 Random 교체방식이 있다. 논문에서는 캐시 메모리 구조 및 교체 알고리즘을 소프트웨어로 구현하여 각 기법의 특징을 분석한다. 논문의 실험결과 LRU 알고리즘이 균등 분포에서 36.044%, 577.936ns, 편향 분포에서 45.636%, 504.692ns의 히트율(Hit ratio)과 검색시간을 보였으며, FIFO 알고리즘은 균등 분포에서 36.078%, 554.772ns, 편향 분포에서 45.662%, 489.574ns로 LRU와 유사한 성능을 보였다. Random 교체방식은 균등 분포에서 30.042%, 622.866ns, 편향 분포에서 36.36%, 553.878%로 가장 낮은 성능을 보였다. 이는 캐시 메모리에서 일반적으로 사용되는 LRU 교체방식이 타 교체 알고리즘보다 최선의 성능을 보이면서도 데이터의 참조 정보를 고려하는 합리적인 알고리즘임을 나타내는 것이다.

재구성 가능한 라스트 레벨 캐쉬 구조를 위한 코어 인지 캐쉬 교체 기법 (Core-aware Cache Replacement Policy for Reconfigurable Last Level Cache)

  • 손동오;최홍준;김종면;김철홍
    • 한국컴퓨터정보학회논문지
    • /
    • 제18권11호
    • /
    • pp.1-12
    • /
    • 2013
  • 멀티코어 프로세서에서 라스트 레벨 캐쉬는 코어와 메모리의 속도 차이를 줄여주는 역할을 하는 중요한 하드웨어 자원이다. 때문에 라스트 레벨 캐쉬의 효율적인 관리는 프로세서의 성능에 큰 영향을 미친다. 라스트 레벨 캐쉬를 구성하는 공유/비공유 캐쉬는 코어들이 공유하는 데이터와 각 코어의 독립된 데이터를 각각 적재한다. 최근 많은 연구를 통해 라스트 레벨 캐쉬 관리기법이 연구되었지만 주로 공유 캐쉬에 대한 연구만 이뤄지고 있으며 라스트 레벨 캐쉬의 비공유 캐쉬에 대한 연구는 아직 미약하다. 라스트 레벨 캐쉬의 비공유 캐쉬는 각 코어에 동일한 영역이 할당되기 때문에 코어별 작업량이 다를 경우 캐쉬 관리가 효과적이지 않다. 본 논문에서는 라스트 레벨 캐쉬 중 비공유 캐쉬의 효율적인 관리를 위해 코어 인지 캐쉬 교체 기법을 제안한다. 제안된 코어 인지 캐쉬 교체 기법은 비공유 캐쉬를 동적으로 재구성함으로써, 라스트 레벨 캐쉬의 적중률을 향상시킨다. 또한, 우리는 캐쉬 교체 기법의 성능 향상을 위해 2비트 포화 카운터를 적용하였다. 실험 결과 기존의 교체 기법과 비교하여 9.23%의 적중률 향상과 12.85%의 라스트 레벨 캐쉬 접근 시간 감소의 효과가 있었다.

동작 분석을 통한 비휘발성 메모리에 대한 Wear-out 공격 방지 기법 (Exploiting Memory Sequence Analysis to Defense Wear-out Attack for Non-Volatile Memory)

  • 최주희
    • 반도체디스플레이기술학회지
    • /
    • 제21권4호
    • /
    • pp.86-91
    • /
    • 2022
  • Cache bypassing is a scheme to prevent unnecessary cache blocks from occupying the capacity of the cache for avoiding cache contamination. This method is introduced to alleviate the problems of non-volatile memories (NVMs)-based memory system. However, the prior works have been studied without considering wear-out attack. Malicious writing to a small area in NVMs leads to the failure of the system due to the limited write endurance of NVMs. This paper proposes a novel scheme to prolong the lifetime with higher resistance for the wear-out attack. First, the memory reference pattern is found by modified reuse distance calculation for each cache block. If a cache block is determined as the target of the attack, it is forwarded to higher level cache or main memory without updating the NVM-based cache. The experimental results show that the write endurance is improved by 14% on average and 36% on maximum.

SAN 환경을 위한 효율적인 전역버퍼 관리 알고리즘 (IT-based Technology An Efficient Global Buffer Management ,algorithm for SAN Environments)

  • 이석재;박새미;송석일;유재수;이장선
    • 한국콘텐츠학회논문지
    • /
    • 제4권3호
    • /
    • pp.71-80
    • /
    • 2004
  • 분산파일시스템 환경에서는 디스크 접근 비용을 줄이기 위해 각 노드에 캐시된 데이터를 서로 공유하는 협력캐시 알고리즘이 사용된다. 협력캐시 알고리즘은 분산되어있는 시스템들의 캐시정보를 서로 공유하여 가상으로 더 큰 캐시를 형성함으로써 캐시 히트율을 높이고 디스크 접근을 줄이는 방법이다. 기존에 제안된 협력캐시 알고리즘들은 캐시에 대한 근사정보를 이용하여 메시지 비용을 줄이고, 로컬캐시영역과 글로벌캐시 영역을 가변적으로 사용하여 캐시 히트율을 높이고 있다. 또한 버퍼 교체 시 교체된 버퍼를 비활동적인 노드로 보내어 계속 캐시에 유지하도록 하여 전역 버퍼 히트율을 높이는 장점을 갖는다. 그러나 잘못된 근사정보가 성능을 저하시킬 수 있으며 일관성 유지를 위한 메시지교환 비용이 많이 든다는 단점을 갖고 있다. 또한 비활동적인 노드를 선정하기 위해 사용되는 각 노드의 에이지 정보 관리비용이 많이 드는 단점을 갖고 있다. 본 논문에서는 정확한 캐시정보를 유지하며 일관성 유지비용과 버퍼 에이지 정보 관리비용을 최소화시키는 협력캐시 알고리즘을 제안한다. 그리고 성능평가를 통해 기존의 협력캐시 알고리즘과 비교하여 제안하는 알고리즘의 우수성을 보인다.

  • PDF

파일 타입을 이용한 웹 캐싱 (Web Caching using File Type)

  • 임재현;이준연
    • 정보처리학회논문지C
    • /
    • 제9C권6호
    • /
    • pp.961-968
    • /
    • 2002
  • 본 논문에서는 웹상의 높은 가변성을 고려하여 웹 캐시 공간을 관리하는 새로운 접근 방법을 제안한다. 모든 문서를 저장하는데 하나의 캐시를 사용하는 것 대신에, 캐시를 분할하여 파일 타입에 따라 저장한다. 제안된 방법은 LFU, LRU와 SIZE 기반 알고리즘을 사용하여 현재의 캐시 관리 정책과 비교한다. 2가지의 서로 다른 실제 작업부하를 사용하며, 시뮬레이션을 통해 파일 타입별 캐싱이 적중률과 바이트적중률을 개선시킴을 보인다.

EXT3NS 파일 시스템을 위한 버퍼 캐시의 설계 및 구현 (Design and Implementation of Buffer Cache for EXT3NS File System)

  • 손성훈;정성욱
    • 한국정보통신학회논문지
    • /
    • 제10권12호
    • /
    • pp.2202-2211
    • /
    • 2006
  • EXT3NS 파일 시스템은 Network-Storage Card(NS 카드)라는 전용 하드웨어를 기반으로 하는 멀티미디어 스트리밍 서버를 위한 파일 시스템이다. EXT3NS는 NS 카드 상의 PCI memory(PMEM)를 이용, 스트리밍 시 디스크에 있는 데이터를 메인 메모리를 거치지 않고 바로 네트워크 카드로 내보냄으로써 스트리밍 서버의 성능을 향상시킨다. 본 논문에서는 NS 카드에 있는 PMEM을 기반으로 한 버퍼 캐시를 추가 설계, 구현하고, 이 버퍼 캐시가 EXT3NS 파일 시스템을 채용한 서버의 멀티미디어 스트리밍의 성능을 개선시킬 수 있음을 보인다. 또한, 제안된 버퍼 캐시 상에서 다수의 동시 사용자를 지원하는 멀티 미디어 스트리 밍 서버를 위한 버퍼 캐시 교체 정책인 Old New Section(ONS) 교체 기법을 제안한다. 제안된 OSN 교체 기법은 멀티미디어 스트리밍 환경에서 기존의 교체 정책들 보다 좋은 성능을 보인다. 성능 평가 결과, 다시 읽기동작과 무작위 읽기 동작에서 기존의 EXT3NS 파일 시스템 보다 PMEM에 캐시를 사용한 EXT3NS가 각각 평균 33MB/sec, 2.4MB/sec의 성능이 향상 되었다. 또한, 다시 읽기 동작의 경우 기존의 Least Frequently Used(LFU) 교체 정 책을 사용한 경우보다 ONS 교체 정책을 사용한 경우가 약 600KB/sec의 성능 증가를 보인다. 이러한 결과는 동시에 여러명의 사용자 요구를 처리해야 하는 대용량 멀티 미디어 스트리밍 서버에서 보다 효과적인 읽기 동작을 처리할 수 있음을 나타낸다.

이동 데이타베이스 시스템에서 데이타의 위치와 영역 특성을 고려한 캐쉬 교체 기법 (Cache Replacement Strategies considering Location and Region Properties of Data in Mobile Database Systems)

  • 김호숙;용환승
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제27권1호
    • /
    • pp.53-63
    • /
    • 2000
  • 최근 저가의 무선 통신 기술의 발달과 고성능 이동 컴퓨팅 장비의 보급에 따라 이동 컴퓨팅 시장은 점차로 확대되는 추세에 있다. 이동 컴퓨팅 환경에서의 제한된 대역폭, 잦은 단절과 배터리 제한 등의 제약성에 효율적으로 대처하기 위하여 여러 방법이 제안되었고, 특히 지구국에서 전송된 데이타 중 향후 사용 가능성이 높은 데이타를 캐쉬에 저장하고 이용하는 캐쉬 기법에 대한 많은 연구가 이루어지고 있다. 그러나 기존의 캐쉬 교체 기법들은 사용자의 이동성과 데이타의 공간 속성에 의한 특성을 고려하지 못하고 있기 때문에 그 효율성에서 한계를 가지고 있다. 본 논문은 이동 호스트의 위치 변화에 따라 이동 호스트의 캐쉬 내에 저장된 데이타의 가치와 의미가 변경되는 것을 보인다. 또한 지리(geographic) 데이타의 공간적 위치(location)와 지리 데이타가 영향을 미치는 공간적 범위 즉 영역 (region)을 데이타의 공간 속성 (spatial attributes)으로 정의하고, 시간에 따른 사용자의 이동성과 데이타의 공간 속성을 효과적으로 지원하는 새로운 캐쉬 교체 방법들을 제안하였다. 기존의 방법과 본 논문에서 제안한 캐쉬 교체 방법의 비교를 통하여 이동 호스트의 위치와 연관된 질의에 대한 성능 평가를 수행한 결과, 본 논문에서 제안한 캐쉬 교체 방법에 의한 캐쉬 적중률의 향상을 입증하였다. 또한 데이타 밀집도에 따라 캐쉬 교체 방법들의 성능이 변화함을 밝히고 이를 이용하여 이동 호스트가 지나가는 대상 지역의 데이타 밀집도에 따라 서로 다른 캐쉬 교체 방법의 선택이 필요함을 제시 하였다.

  • PDF

캐쉬메카니즘을 이용한 시맨틱 스키마 데이터 처리 (Semantic schema data processing using cache mechanism)

  • 김병곤;오성균
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권3호
    • /
    • pp.89-97
    • /
    • 2011
  • 네크워크상의 분산되어 있는 정보를 접근하는 온톨로지와 같은 시맨틱 웹 정보 시스템에서는 효율적인 질의 처리를 위하여 질의 응답 시간을 줄여주는 향상된 캐쉬 메카니즘을 필요로 한다. 특히, P2P 네트워크 시스템은 웹 환경의 기본적인 하부 구조를 이루고 있으며, 질의가 발생하면, 소스 피어(Peer)로의 데이터 전송량을 줄이는 문제가 효율적인 질의 처리의 중요한 부분이다. 전통적인 데이터베이스 캐쉬 메카니즘으로부터 현재의 웹 환경에 적합한 질의 메카니즘들이 연구되어 왔으며, 질의 처리 결과를 캐쉬하는 것은 입력 질의 요구를 빠른 시간에 바로 사용자에게 전달할 수 있다. 웹 환경에서는 시맨틱 캐싱 방법이 연구되어 왔으며, 이는 캐쉬를 의미적인 영역들로 이루어진 공간으로 관리하는 개념이며, 논리적인 캐싱 단위가 질의와 질의 결과이므로 웹 환경에서 적합한 개념이다. 본 연구에서는 온톨로지와 같은 시맨틱 웹 정보가 클러스터 단위로 여러 피어에 분산되어 있는 경우에 캐쉬 메카니즘을 이용하여 효율적인 질의 처리가 이루어지도록 하는 방법을 제시한다. 특히, 캐쉬를 유지하고 처리하는 방법으로 스키마를 이용한 캐쉬 데이터 필터링 방법과 온톨로지와 질의 결과의 유사도를 측정하여 캐쉬 대체 영역 선택에 사용하는 방법을 제시한다.

웹 캐쉬에서 만기시간의 영향을 고려한 유효참조확률 (Effective Reference Probability Incorporating the Effect of Expiration Time in Web Cache)

  • 이정준;문양세;황규영;홍의경
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제28권4호
    • /
    • pp.688-701
    • /
    • 2001
  • 웹 캐쉬는 웹 응용의 성능향상을 위한 중요한 문제가 되었다. 본 논문에서는 웹 데이타에 부여 되는 만기시간(expiration time을 활용하여 웹 캐쉬의 성능을 향상시키는 방법을 제안한다. 먼저, 기존 캐 쉬 교체 알고리즘에서 사용된 참조확률에 만기시간의 영향을 반영한 유효참조확률(effective referenceprobability)의 개념을 제시한다. 그리고, 유효참조확률을 정형적으로 정의한 후, 확률적 모델 하에서 이 론적으로 유도한다. 기존의 교체 알고리즘에서 참조확률을 유효탐조확률로 대체하면 기존 교체 알고리즘에만기시간의 영향을 반영할 수 있다. 성능평가 결과, 유효참조확률을 사용한 알고리즘이 그렇지 않은 알고 리즘보다 항상 우수한 결과를 보였다. 이것은 제안한 방법이 만기시간을 고려하여 캐쉬효과를 얻을 이론적 인 확률을 정확히 반영한 방법으로서, 만기시간의 영향을 보다 효과적으로 반영하기 때문이다. 특히, 유효 참조확률은 캐쉬비율이 0.05이고 갱신이 비교적 자주 일어날 경우(갱신횟구가 참조횟수의 1/10이상인 경우)에 LRU-2의 경우 30% 이상. Aggarwal의 방법(refresh overhead factor가 통합된 PSS)의 경우 13%이상 성능을 개선하였다. 이 같은 결과는 유효참조확률이 만기시간이 주어지는 웹 캐쉬에서 크게 성능을 개선할 수 있음을 보여주고 있다.

  • PDF