• 제목/요약/키워드: 캐시 교체정책

검색결과 43건 처리시간 0.026초

연속미디어 파일 시스템의 버퍼 캐시에서 데이터 참조 유형의 고려 (Considering Data Reference Pattern in Buffer Cache for Continuous Media File System)

  • 조경운;류연승;고건
    • 정보처리학회논문지A
    • /
    • 제9A권2호
    • /
    • pp.163-170
    • /
    • 2002
  • 연속미디어 파일을 위한 버퍼 캐시 기법들은 연속 미디어의 순차적 접근만을 고려하고 반복참조는 고려하지 않았다. 그러나, 외국어 영상 학습의 경우 사용자가 어떤 장면을 반복 구간으로 설정하면 자동으로 수회 반복 상영하는 기능이 있을 수 있다. 본 논문에서는 순차 참조와 반복 참조가 혼재하는 연속미디어 파일 시스템을 위한 새로운 버퍼 캐시 기법을 제안한다. 제안한 기법은 파일의 참조 유형을 탐지하고 파일 별로 적절한 교체 정책을 적용하여 버퍼 캐시 적중률을 높인다.

변위 히스토리 버퍼를 이용한 명령어 및 데이터 프리페치 기법 (Instructions and Data Prefetch Mechanism using Displacement History Buffer)

  • 정용수;김진혁;조태환;최상방
    • 전자공학회논문지
    • /
    • 제52권10호
    • /
    • pp.82-94
    • /
    • 2015
  • 본 논문에서는 변위 필드를 이용해 히스토리 레코드를 생성하는 방법과 히스토리 레코드의 기준이 되는 트리거 블록에 우선 순위를 부여하여 효율적인 캐시 교체를 가능하게 하는 하드웨어 프리페치 기법을 제안한다. 히스토리 레코드의 트리거 블록을 기준으로 히스토리를 생성하기 때문에 프로그램의 시퀀스를 고려할 수 있으며, 히스토리를 변위 값으로 저장하기 때문에 트리거 주소와 변위필드에 저장된 값을 더해 빠르게 명령어 또는 데이터 주소를 프리페치 할 수 있다. 또한, 트리거 블록에 우선순위를 부여하고 캐시 교체 정책으로 랜덤 교체 방법을 사용해 캐시 공간이 가득 찼을 때 우선순위가 낮은 블록부터 랜덤하게 교체하는 방법을 제안한다. 제안하는 하드웨어 프리페처의 성능을 평가하기 위해 메모리 분석 시뮬레이터인 gem5와 PARSEC 벤치마크 프로그램을 사용하였다. 그 결과 비트벡터를 이용해 공간영역을 생성하는 기존의 하드웨어 프리페처와 비교해 L1 데이터 캐시의 미스율은 평균 약 44.5% 감소하였고 L1 명령어 캐시의 미스율은 평균 약 31% 감소하였다. 또한 IPC (Instruction Per Cycle)는 평균 약 23.7% 향상을 보였다.

SSD 캐시를 위한 이웃 프리페칭 기법 (A Neighbor Prefetching Scheme for a Hybrid Storage System)

  • 백승훈
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제14권5호
    • /
    • pp.40-52
    • /
    • 2018
  • 플래시 기반의 SSD(solid state drive)를 HDD(hard disk drive)의 2차 캐시로 사용하는 기술이 많이 연구되었다. SSD를 이용한 캐시에 대한 캐시 교체 정책 및 관리에 관한 연구뿐만 아니라 프리페칭 연구도 필요하게 되었다. 본 논문은 SSD를 스토리지급 캐시로 사용하는 시스템을 위한 프리페칭 기술을 제시한다. 이 프리페칭 기술은 스토리지급 크기의 캐시에 맞게 대규모의 프리페칭이며, 단기적인 프리페칭은 1차 캐시인 주메모리에서 수행되므로 장기적 스케줄링을 기반한 프리페칭이며, 기존 프리페칭은 읽기만을 고려하였지만, 지속 가능한 SSD 캐시를 위해 쓰기 요청도 고려한 프리페칭이다. 어떤 사용자의 14일간의 입출력에서, 64GB 용량의 SSD에 프리페칭 용량이 4GiB일 때에, 2.3%에서 17.8%의 캐시 적중률 향상을 보였다. 본 기술은 구현이 간단하여 스토리지급 캐시 시스템에 쉽게 적용할 수 있다.

Designing a low-power L1 cache system using aggressive data of frequent reference patterns

  • Jung, Bo-Sung;Lee, Jung-Hoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권7호
    • /
    • pp.9-16
    • /
    • 2022
  • 오늘날, 4차산업혁명의 도래와 함께 사물인터넷(Internet of Things (IoT)) 시스템이 빠르게 발전하고 있다. 이러한 이유로, 고성능 및 대용량의 다양한 애플리케이션이 등장하고 있다. 따라서, 이러한 애플리케이션을 가지는 컴퓨팅 시스템을 위한 저전력 및 고성능 메모리가 필요하다. 본 논문에서는 컴퓨팅 시스템에서 가장 많은 에너지 소비가 발생하는 L1 캐시 메모리에 대한 효과적인 구조를 제안하였다. 제안된 캐시 시스템은 크게 L1 메인 캐시와 버퍼캐시로 구성되어 진다. 메인 캐시는 2-뱅크 시스템으로, 각 뱅크는 2-웨이 연관사상으로 구성된다. L1캐시에서 접근 성공이 발생하면 제안된 알고리즘에 따라 데이터가 버퍼캐시에 복사가 된다. 시뮬레이션 결과에 따르면, 제안된 L1 캐시 시스템은 기존 4웨이 연관사상 캐시 메모리에 비해 에너지-지연에서 약65%의 성능향상을 보였다.

NAND 플래시 메모리 파일 시스템을 위한 더블 캐시를 활용한 페이지 관리 정책 (A Policy of Page Management Using Double Cache for NAND Flash Memory File System)

  • 박명규;김성조
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제36권5호
    • /
    • pp.412-421
    • /
    • 2009
  • NAND 플래시 메모리는 특성상 덮어쓰기 연산이 불가능하기 때문에 지움 연산이 선행되어야 하므로 I/O 처리 속도가 느려지게 되어 성능저하의 원인이 된다. 또한 지움 횟수가 제한적 이어서 지움 연산이 빈번히 발생하게 되면, NAND 플래시 메모리의 수명이 줄어든다. 이러한 문제점을 해결하기 위해 NAND 플래시 메모리의 특성을 고려한 쓰기 지연 기법을 사용하면, 쓰기 횟수가 줄어들어 I/O 성능 향상에 도움이 되지만, 캐시 적중률이 낮아진다. 본 논문은 NAND 플래시 메모리 파일 시스템을 위한 더블캐시를 활용한 페이지 관리 정책을 제안한다. 더블 캐시는 실질적인 캐시인 Real Cache와 참조 페이지의 패턴을 관찰하기 위한 Ghost Cache로 구성된다. 이 정책은 Ghost Cache에서 쓰기를 지연함으로써 Real Cache에서의 적중률을 유지할 수 있고, Ghost Cache를 Dirty 리스트와 Clean 리스트로 구성하여 Dirty 페이지에 대한 탐색 시간을 줄임으로써 쓰기 연산 성능을 높인다. 기존 정책들과의 성능을 비교한 결과 제안된 정책이 기존 정책들에 비해 평균적으로 적중률은 20.57%, 그리고 I/O 성능은 20.59% 우수했고, 쓰기 횟수는 30.75% 줄었다.

플래시 메모리를 위한 Not-cold-Page 쓰기지연을 통한 LRU 버퍼교체 정책 개선 (Enhancing LRU Buffer Replacement Policy with Delayed Write of Not-cold-dirty-pages for Flash Memory)

  • 정호영;박성민;차재혁;강수용
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권9호
    • /
    • pp.634-641
    • /
    • 2006
  • 플래시 메모리는 비휘발성이며 빠른 I/O 처리 속도와 같은 많은 장점들이 있으나, in-placeupdate가 불가능하고 읽기/쓰기/지우기 작업의 속도가 다르다는 단점을 지니고 있다. 버퍼 캐시를 통해 플래시 메모리 기반 저장장치의 성능을 향상시키기 위해서는 수행 속도가 느림은 물론 지우기 작업의 수행 횟수에 직접적인 영향을 끼치는 쓰기 작업의 횟수를 줄이는 알고리즘이 필요하다. 본 논문에서는 기존의 LRU 버퍼교체 정책에 not-cold-dirty-page에 대한 교체를 지연하는 알고리즘을 적용한 새로운 버퍼교체 정책(LRU-Dirty Page Later-Cold Detection, 이하 LRU-DPL-CD)을 제시하고 성능을 분석한다. 트레이스 기반 시뮬레이션 실험에서 LRU-DPL-CD는 버퍼 적중률의 큰 감소 없이 쓰기 작업과 지우기 작업의 횟수를 감소시켰으며, 그 결과 전체 플래시 메모리의 I/O 수행속도가 증가하는 결과를 보였다.

비휘발성 메모리 시스템을 위한 저전력 연쇄 캐시 구조 및 최적화된 캐시 교체 정책에 대한 연구 (A Study on Design and Cache Replacement Policy for Cascaded Cache Based on Non-Volatile Memories)

  • 최주희
    • 반도체디스플레이기술학회지
    • /
    • 제22권3호
    • /
    • pp.106-111
    • /
    • 2023
  • The importance of load-to-use latency has been highlighted as state-of-the-art computing cores adopt deep pipelines and high clock frequencies. The cascaded cache was recently proposed to reduce the access cycle of the L1 cache by utilizing differences in latencies among banks of the cache structure. However, this study assumes the cache is comprised of SRAM, making it unsuitable for direct application to non-volatile memory-based systems. This paper proposes a novel mechanism and structure for lowering dynamic energy consumption. It inserts monitoring logic to keep track of swap operations and write counts. If the ratio of swap operations to total write counts surpasses a set threshold, the cache controller skips the swap of cache blocks, which leads to reducing write operations. To validate this approach, experiments are conducted on the non-volatile memory-based cascaded cache. The results show a reduction in write operations by an average of 16.7% with a negligible increase in latencies.

  • PDF

트랜잭셔널 메모리를 위한 효율적인 캐시 구조 (Efficient Cache Architecture for Transactional Memory)

  • 최동민;김승훈;노원우
    • 전자공학회논문지CI
    • /
    • 제48권4호
    • /
    • pp.1-8
    • /
    • 2011
  • 트랜잭셔널 메모리 시스템에서 오버플로우(overflow) 발생 시 이를 처리하기 위한 데이터의 기록은 그 복잡성으로 인해 전체 시스템 성능 저하의 주요 요인이 된다. 특히, 오버플로우 된 데이터가 일으킬 수 있는 충돌감지를 위해 캐시 일관성 프로토콜 상에 추가적인 상태 설정이 요구되며 이로 인해 트랜잭션간 커뮤니케이션에 지연이 발생한다. 이러한 문제점을 해결하기 위해 우리는 트랜잭셔널 메모리 시스템에서 오버플로우에 의해 발생하는 오버 헤드를 줄이기 위한 효율적인 캐시 구조를 연구하였다. 본 논문에서 제안하는 보조 캐시(supportive cache)는 1차 캐시와 동일한 교체 정책을 사용하며 병렬 룩업이 가능하도록 작동한다. 보조 캐시의 성능 평가를 위해 하드웨어 트랜잭셔널 메모리 시스템인 LogTM-SE를 사용하였으며 시뮬레이션 결과 평균적으로 37%의 성능 향상을 보였다.

Write Back 모드용 FIFO 버퍼 기능을 갖는 비동기식 데이터 캐시 (Design of an Asynchronous Data Cache with FIFO Buffer for Write Back Mode)

  • 박종민;김석만;오명훈;조경록
    • 한국콘텐츠학회논문지
    • /
    • 제10권6호
    • /
    • pp.72-79
    • /
    • 2010
  • 본 논문에서는 32bit 비동기 임베디드 프로세서용 쓰기 버퍼 기능을 갖는 데이터 캐시 구조를 제안하고 성능을 검증하였다. 데이터 캐시는 비동기 시스템에서 메인 메모리 장치와 프로세서 사이의 데이터 처리속도 향상을 목적으로 한다. 제안된 데이터 캐시의 메모리 크기는 8KB, 매핑 방식으로는 4 words(16byte)의 라인 크기를 가지며, 사상 기법으로는 4 way set associative, 교체 알고리즘으로는 pusedo LRU방식을 사용하였으며, 쓰기 정책을 위한 dirty 레지스터와 쓰기 버퍼를 적용시켰다. 설계한 데이터 캐시는 $0.13-{\mu}m$ CMOS공정으로 합성하였으며, MI벤치마크 검증 결과 평균 히트율은 94%이고 처리 속도가 46% 향상되었다.

순환 참조 특성을 기반한 선반입 성능의 개선 (Performance Enhancement through Prefetching Based On Looping Reference Characteristics)

  • 이효정;도인환;노삼혁
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2007년도 한국컴퓨터종합학술대회논문집 Vol.34 No.1 (B)
    • /
    • pp.327-332
    • /
    • 2007
  • 버퍼캐시에서 선반입은 교체정책과 함께 중요한 성능 향상 기법 중의 하나이다. 하지만 참조 패턴의 특성에 따라서는 선반입을 수행하면 오히려 전체 수행시간을 증가시키는 경우도 보고된 바 있다. 본 논문에서는 참조 패턴을 탐지하고 탐지된 패턴에 적절히 대응하여, 선반입의 이익은 유지하되 성능에 악영향을 미치지 않는 선반입 기법으로 순환 참조 선반입을 제안한다. 성능 평가를 위해서 리눅스에서 현재 사용되고 있는 미리 읽기 선반입과 순환 참조 선반입의 수행 시간을 비교했다. 다양한 참조 패턴을 가지는 트레이스들에 대한 시뮬레이션 성능 평가 결과, 순차 참조를 많이 포함하는 트레이스에 대해서는 순환참조 선반입이 리눅스의 미리 읽기 선반입과 유사한 정도의 $3\sim5%$ 성능향상을 보였다. 뿐만 아니라, 미리 읽기 선반입 정책을 적용했을 때 오히려 40% 가량의 성능 악화를 초래하는 특정 트레이스에 대해서도 순환 참조 선반입을 적용할 경우 0.07%의 아주 미미한 성능 저하만을 유발하였다. 본 연구에서 제안하는 순환 참조 선반입 기법은 이득이 있을 때만 적극적인 선반입을 수행하여 시스템 성능을 향상시키며, 손해가 발생할 때는 선반입을 중지하여 시스템 성능 악화를 방지함을 실험을 통해 알 수 있다.

  • PDF