• 제목/요약/키워드: Cache Policy

검색결과 136건 처리시간 0.028초

블록 분류에 기반한 데이타베이스의 효율적 캐쉬 관리 기법 (Efficient Cache Management Scheme in Database based on Block Classification)

  • 신일훈;고건
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권7호
    • /
    • pp.369-376
    • /
    • 2002
  • LRU는 비균등 참조 패턴을 보이는 데이타베이스의 캐쉬 교체 정책으로 적합하지 않음에도 불구하고, 적절한 대안 부재로 인해 대부분의 데이타베이스 시스템에서 캐쉬 교체 정책으로 이용되어 왔다. 본 논문은 실제 데이타베이스 트레이스 분석을 통해 데이타베이스의 블록 참조 패턴을 추출하고, 이를 바탕으로 새로운 캐쉬 교체 정책을 제안한다. 데이타베이스의 트레이스 분석 결과, 전체 시간동안 거의 참조되지 않는 블록이 전체의 70% 가량을 차지하였다. 그리고 블록의 재참조 가능성에 미치는 최근도(recency)의 영향력이 시간적 지역성으로 인해 처음엔 강력하지만, LRU 스택거리가 증가함에 따라 급격히 감소하여, 결국엔 사라지는 현상을 관찰하였다. 이 관찰을 토대로, 본 논문은 전체 블록을 재참조 가능성과 재참조 가능성에 대한 최근도의 영향력을 기준으로 4개의 그룹으로 분류하고, 각 그룹의 참조 특징에 적합한 우선순위 평가 방법을 운용하는 RCB(Reference Characteristic Based) 캐쉬 교체 정책을 제안한다. RCB 정책은 재참조 가능성이 극히 낮은 블록은 다른 블록보다 캐쉬에서 빨리 교체하며, 오랜 시간 참조되지 않은 블록에 대해서는 참조빈도에 의거하여 블록의 우선순위를 결정한다. 실제 데이터베이스 워크로드를 통한 모의실험 수행 결과, RCB 정책은 기존의 다른 교체 정책들(LRU, 2Q, LRU-K, LRFU)보다 우수한 성능을 나타냈으며, 특히 LRU에 비해서는 약 5 ~ 12.7% 정도, 캐쉬적중실패 회수를 줄였다. RCB 정책의 시간복잡도는 O(l)로서 LRU, 2Q 등과 동일하며, 캐쉬 크기를 N이라 할 때 시간복잡도가 $O(log_2N)$인 LFU와 LRU-K, 그리고 O(1)부터 $O(log_2N)$ 사이의 값을 갖는 LRFU보다 우수하다.

캐시 버퍼와 읽기 요청을 고려한 낸드 플래시 기반 솔리드 스테이트 디스크의 요청 스케줄링 기법 (A Cache buffer and Read Request-aware Request Scheduling Method for NAND flash-based Solid-state Disks)

  • 방관후;박상훈;이혁준;정의영
    • 전자공학회논문지
    • /
    • 제50권8호
    • /
    • pp.143-150
    • /
    • 2013
  • 솔리드 스테이트 디스크 (SSD)는 고성능 개인용 컴퓨터나 서버 분야에서 뛰어난 특성과 성능을 바탕으로 입지를 넓혀 나가고 있다. 특히 낸드 플래시 메모리에 기반한 SSD가 주류를 이루며 이미 거대한 시장을 확보하고 있는 낸드 플래시 메모리 시장의 큰 부분을 차지하고 있다. 이러한 낸드 플래시 메모리 기반 SSD에는 보통 낸드 플래시 메모리의 특성을 숨기기 위하여 DRAM으로 제작되는 캐시 버퍼가 장착되는데 이 캐시 버퍼는 보다 높은 성능을 달성하기 위해 나중 쓰기 방식을 활용하고 이는 기존의 낸드 플래시 메모리 만을 고려한 스케줄링 기법들을 I/F에서 효과적으로 활용할 수 없게 한다. 따라서 본 논문에서는 I/F에서 사용할 수 있는 캐시 버퍼를 고려한 스케줄링 기법을 제안하고자 한다. 스케줄링 기법은 크게 두 가지 기준을 가지고 스케줄링을 진행하는데 캐시 버퍼의 적중 여부와 읽기 요청에 대한 우선순위이다. 이는 캐시 버퍼에 적중한 요청들을 먼저 처리하여 처리속도를 증가시키고 시스템 성능에 보다 큰 영향을 끼치는 읽기 요청의 지연시간을 줄이기 위함이다. 실험 결과에 따르면 제안하는 스케줄링 기법을 사용했을 때 약 26% 향상된 읽기 성능을 보여주었다.

변위 히스토리 버퍼를 이용한 명령어 및 데이터 프리페치 기법 (Instructions and Data Prefetch Mechanism using Displacement History Buffer)

  • 정용수;김진혁;조태환;최상방
    • 전자공학회논문지
    • /
    • 제52권10호
    • /
    • pp.82-94
    • /
    • 2015
  • 본 논문에서는 변위 필드를 이용해 히스토리 레코드를 생성하는 방법과 히스토리 레코드의 기준이 되는 트리거 블록에 우선 순위를 부여하여 효율적인 캐시 교체를 가능하게 하는 하드웨어 프리페치 기법을 제안한다. 히스토리 레코드의 트리거 블록을 기준으로 히스토리를 생성하기 때문에 프로그램의 시퀀스를 고려할 수 있으며, 히스토리를 변위 값으로 저장하기 때문에 트리거 주소와 변위필드에 저장된 값을 더해 빠르게 명령어 또는 데이터 주소를 프리페치 할 수 있다. 또한, 트리거 블록에 우선순위를 부여하고 캐시 교체 정책으로 랜덤 교체 방법을 사용해 캐시 공간이 가득 찼을 때 우선순위가 낮은 블록부터 랜덤하게 교체하는 방법을 제안한다. 제안하는 하드웨어 프리페처의 성능을 평가하기 위해 메모리 분석 시뮬레이터인 gem5와 PARSEC 벤치마크 프로그램을 사용하였다. 그 결과 비트벡터를 이용해 공간영역을 생성하는 기존의 하드웨어 프리페처와 비교해 L1 데이터 캐시의 미스율은 평균 약 44.5% 감소하였고 L1 명령어 캐시의 미스율은 평균 약 31% 감소하였다. 또한 IPC (Instruction Per Cycle)는 평균 약 23.7% 향상을 보였다.

스트리밍 미디어의 캐쉬 서버를 위한 재배치 정책의 설계와 성능분석 (Design and Performance Evaluation of Replication Policy For Streaming Media Cache Server)

  • 임은지;정성인
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(하)
    • /
    • pp.921-924
    • /
    • 2003
  • 본 논문은 인터넷 상에서 서비스되는 스트리밍 미디어를 캐쉬 서버에서 캐슁할 때 적용할 수 있는 재배치 정책에 관한 것이다. 스트리밍 미디어의 특성에 적합한 재배치 기준을 제시하고, 그에 따라 미디어 데이터를 캐슁하고 재배치하는 방법을 제안한다. 또한, 제안한 재배치 정책과 기존의 알려진 방법들에 대한 성능 비교 분석을 수행 한다.

  • PDF

파일 접근 패턴과 캐쉬 영역을 고려한 선반입 기법 (Prefetching Policy based on File Acess Pattern and Cache Area)

  • 임재덕;황보준형;고광식;서대화
    • 정보처리학회논문지A
    • /
    • 제8A권4호
    • /
    • pp.447-454
    • /
    • 2001
  • 디스크 I/O성능 개선을 위한 여러 선반입 알고리즘이 연구되어져 왔다. 선반입 알고리즘은 디스크 접근 횟수를 줄임으로써 병렬파일시스템의 I/O성능을 높여준다. 본 논문에서는 OBA 선반입 기법의 확장 버전인 AMBA 선반입 기법을 제안한다. AMBA 선반입 기법은 현재 사용되고 있는 다음 블록 하나만 선반입하는 것이 아니라, 디스크의 대역폭이 충분하다면 여러 파일 블록을 연속해서 선반입 하는 방법이다. 이는 응용프로그램에서의 데이터 요청이 빈번해도 이전에 연속해서 선반입한 파일 블록에 의해 선반입 효과를 기대할 수 있다. 그리고 버퍼캐쉬 영역 내에 선반입된 파일 블록의 수를 제한함으로써 버퍼캐쉬의 효율성을 높여준다. 제안된 선반입 기법은 리눅스 운영체제 기반의 사용자 수준의 파일 시스템에서 구현하고 실험하였다. 실험 결과 제안된 AMBA 선반입 기법은 순차적으로 접근되는 큰 파일에 대해서는 기존 시스템에 비해 30∼40%의 성능을 개선해준다.

  • PDF

가상화 환경에서 저널링 기법에 의한 입출력 성능저하 분석 및 개선 (Analysis and Improvement of I/O Performance Degradation by Journaling in a Virtualized Environment)

  • 김성환;이은지
    • 한국인터넷방송통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.177-181
    • /
    • 2016
  • 본 논문에서는 저널링을 사용하는 전가상화 시스템에서 호스트 캐시의 효율을 높이기 위한 기법을 제안한다. 게스트의 저널링 데이터는 쓰기를 위해 호스트 캐시에 한번만 접근되는 패턴과 빈번한 sync 명령으로 인해 캐시의 효율을 감소시킨다. 이러한 성능 감소를 줄이기 위하여 본 논문에서는 게스트의 저널링 데이터가 호스트 캐시에 접근하는 것을 막는 PDC라는 기법을 제안한다. PDC는 Linux 4.14 버전에서 QEMU-KVM 2.1 버전을 기반으로 구현하였으며, 다양한 워크로드에서 3-32%의 성능 향상을 보였다.

Implementation of Memory Efficient Flash Translation Layer for Open-channel SSDs

  • Oh, Gijun;Ahn, Sungyong
    • International journal of advanced smart convergence
    • /
    • 제10권1호
    • /
    • pp.142-150
    • /
    • 2021
  • Open-channel SSD is a new type of Solid-State Disk (SSD) that improves the garbage collection overhead and write amplification due to physical constraints of NAND flash memory by exposing the internal structure of the SSD to the host. However, the host-level Flash Translation Layer (FTL) provided for open-channel SSDs in the current Linux kernel consumes host memory excessively because it use page-level mapping table to translate logical address to physical address. Therefore, in this paper, we implemente a selective mapping table loading scheme that loads only a currently required part of the mapping table to the mapping table cache from SSD instead of entire mapping table. In addition, to increase the hit ratio of the mapping table cache, filesystem information and mapping table access history are utilized for cache replacement policy. The proposed scheme is implemented in the host-level FTL of the Linux kernel and evaluated using open-channel SSD emulator. According to the evaluation results, we can achieve 80% of I/O performance using the only 32% of memory usage compared to the previous host-level FTL.

칩의 크기가 제한된 단일칩 프로세서를 위한 레벨 1 캐시구조 (A Level One Cache Organization for Chip-Size Limited Single Processor)

  • 주영관;김석일
    • 정보처리학회논문지A
    • /
    • 제12A권2호
    • /
    • pp.127-136
    • /
    • 2005
  • 이 논문에서는 단일 칩 프로세서에서 제한된 공간의 레벨 1 캐시를 구성하고 있는 선인출 캐시 $L_P$와 요구인출 캐시 $L_1$의 합이 일정한 때, $L_1$$L_P$의 크기의 적정한 비율을 실험을 통하여 분석하였다. 실험 결과, $L_1$$L_P$의 합이 16KB일 경우에는 $L_1$을 12KB, $L_P$를 4KB로 구성하고 $L_P$의 선인출 기법과 캐시교체정책은 각각 OBL과 FEO을 적용시키는 레벨 1 캐시 구조가 가장 성능이 우수함을 보였다. 또한 이 분석은 $L_1$$L_P$의 합이 32KB 이상인 경우에는 $L_P$의 선인출 기법으로는 동적필터 기법을 사용하는 것이 유리함을 보였고 32KB의 공간이 가용한 경우에는 $L_1$을 28KB, $L_P$를 4KB로, 64KB가 가용한 경우에는 $L_1$을 48KB, $L_P$를 16KB로 레벨 1 캐시를 분할하는 것이 가장 좋은 성능을 발휘함을 보였다.

캐시의 역할 구분을 이용한 확장성이 있는 캐시 그룹 구성 정칙 (A Scalable Cache Group Configuration Policy using Role-Partitioned Cache)

  • 현진일;장태무
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (3)
    • /
    • pp.28-30
    • /
    • 2001
  • 동적 캐시 그룹 구성 정책으로 중첩된 그룹 캐시 구조가 제시되면서 중첩 캐시의 운영 방안에 대한 연구가 필요하게 되었다. 그 기반 연구로 계층 캐시의 효율적 캐시 분배 정책을 그대로 살리되 중첩 그룹 캐시를 이용하는 방안으로 그룹 내 멀티캐스팅 페이지 분배 정책이 제시되고 있다. 그러나 그룹내의 모든 캐시에 해당 페이지를 분배하는 방안은 불필요한 저장 공간 낭비를 가져올 뿐 아니라 그룹 내 통신량 증가라는 문제점을 내포하고 있다. 따라서 본 논문에서는 그룹 내 캐시의 역할을 두 개의 기능으로 나누어 보다 효율적 페이지 분배와 그룹 유지 운영 방안을 제시하려 한다. 또한 중첩 그룹 캐시에서 제기되는 요청 진행 방향 문제에 대한 해결 방안으로 그를 아이디를 활용한 진행 방향 테이블 운영 방안을 제시하려 한다.

  • PDF

연속 미디어 서버를 위한 이중 모드 버퍼 캐쉬 관리 기법 (A Dual Mode Buffer Cache Management Policy for a Continuous Media Server)

  • 서원일;박용운;정기동
    • 한국정보처리학회논문지
    • /
    • 제6권12호
    • /
    • pp.3642-3651
    • /
    • 1999
  • 본 논문에서는 연속미디어 데이터의 접근 유형을 캐쉬 정책에 반영하기 위하여 사용자 접근 패턴을 관찰한 다음, 관찰된 접근 유형을 기준으로 데이터의 캐슁 모드를 구간 단위 또는 오브젝트 단위로 운영하는 이중적 버퍼 캐쉬 운영 정책을 제안한다. 시뮬레이션을 통하여 제안한 알고리즘을 평가한 결과 제안한 방법이 기존의 구간 캐슁 방법보다 효율적이고 가변적인 시스템 환경에 안정적인 성능을 보인다는 것을 알 수 있었다.

  • PDF