• 제목/요약/키워드: cache storage

Search Result 138, Processing Time 0.128 seconds

이기종 저장장치를 위한 제거 비용 평가 기반 캐시 관리 기법 (A Cache Management Technique Based on Eviction Cost Estimation for Heterogeneous Storage Devices)

  • 박세진;박찬익
    • 대한임베디드공학회논문지
    • /
    • 제7권3호
    • /
    • pp.129-134
    • /
    • 2012
  • The objective of cache is to reduce I/O access of physical storage device so that user accesses their data faster. Traditionally, the most important metric to measure the performance of cache is hitratio. Thus, when the cache maintains hitratio high, it is regarded as a good cache replacement policy. However, the cache miss latency is different when the storages are heterogeneous. Though the cache hitratio is high, if the cache often misses with low performance disk, then the user experiences low performance. To address this problem we proposed eviction cost estimation based cache management. In our result, the eviction cost estimation based cache management has 10~30% throughput improvement compared with LRU cache management.

CPC: A File I/O Cache Management Policy for Compute-Bound Workloads

  • Bahn, Hyokyung
    • International journal of advanced smart convergence
    • /
    • 제11권2호
    • /
    • pp.1-6
    • /
    • 2022
  • With the emergence of the new era of the 4th industrial revolution, compute-bound workloads with large memory footprint like big data processing increase dramatically. Even in such compute-bound workloads, however, we observe bulky I/Os while loading big data from storage to memory. Although file I/O cache plays a role of accelerating the performance of storage I/O, we found out that the cache hit rate in such environments is not improved even though we increase the file I/O cache capacity because of some special I/O references generated by compute-bound workloads. To cope with this situation, we propose a new file I/O cache management policy that improves the cache hit rate for compute-bound workloads significantly. Trace-driven simulations by replaying file I/O reference logs of compute-bound workloads show that the proposed cache management policy improves the cache hit rate compared to the well-acknowledged CLOCK algorithm by a large margin.

비휘발성 캐시를 사용하는 플래시 메모리 SSD의 데이터베이스 로깅 성능 분석 (Performance Analysis of Flash Memory SSD with Non-volatile Cache for Log Storage)

  • 홍대용;오기환;강운학;이상원
    • 정보과학회 논문지
    • /
    • 제42권1호
    • /
    • pp.107-113
    • /
    • 2015
  • 데이터베이스 시스템에서, 트랜잭션이 수행한 변경 사항은 커밋 전 2차 저장장치에 보존되어야 한다. 일반적 2차 저장장치는 비휘발성 미디어의 처리 지연을 보완하기 위해 휘발성 DRAM 캐시를 가지고 있다. 그러나 휘발성 DRAM에만 쓰여지는 로그들은 영구성을 보장할 수 없으므로, DRAM 캐시에서 저장매체로 로그를 쓰는 지연 시간을 감출 수 없다. 최근 이러한 단점 극복을 목적으로 DRAM 캐시에 커패시터를 장착한 플래시 SSD가 등장하였다. 이러한 비휘발성 캐시를 가지는 저장 장치는 DRAM 캐시에 로그를 쓰고 즉시 커밋 가능하므로, 커밋 대기를 줄이고 트랜잭션 처리량을 증가시킬 것이다. 본 논문은 커패시터 백업 캐시를 사용한 SSD를 로그 저장소로 사용한 경우 데이터베이스의 트랜잭션 처리 성능에 대해 실험 및 분석 한다. 로그를 낸드 플래시에 저장하지 않고 DRAM 캐시에 저장한 직후 커밋 함으로써, 3배 이상의 처리량 향상이 가능하다. 또한 적절한 튜닝을 거친 후 이상적 로그 성능의 73% 이상을 보인다.

DM-Cache를 이용해 구현한 SSD 캐시의 성능 평가 (Performance Evaluation of SSD Cache Based on DM-Cache)

  • 이재면;강경태
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제3권11호
    • /
    • pp.409-418
    • /
    • 2014
  • 최근 클라우드 서비스와 소셜 네트워크 서비스가 활성화되면서 스토리지 서버에 저장해야 할 데이터의 용량이 급격히 증가하고 있으며, 사용자의 고품질 미디어 데이터에 대한 높은 수요는 이러한 경향을 더더욱 가속화하고 있다. 이와 더불어 데이터의 효율적 참조를 통한 처리시간 감소는 이미 과거로부터 꾸준히 요구되어온 시스템 설계 주 고려사항이다. 이런 이유로 하이브리드 디스크의 효율적인 사용에 대한 많은 기술연구가 진행되고 있다. 그 핵심이라고 할 수 있는 리눅스 기반 SSD 캐시 기법은 내장된 DM-cache를 활용하여 구현하는데, 현재 이에 대한 최적화 관련 정책 연구가 많이 부족한 실정이다. 본 연구에서는, 다양한 환경에서 성능 평가를 통하여 현재 제공되고 있는 DM-cache의 문제점을 파악하였다. 그 결과, 일반 운영체제에서 실험한 DM-cache는 읽기 명령 시 나름대로의 효과를 보고 있지만, 특히 가상 머신이 탑재된 운영체제 환경에서는 DM-cache의 사용으로 인한 성능 개선을 찾을 수 없었으며 오히려 캐시 오버헤드로 성능 저하가 발생함을 확인하였다.

SSD 캐시를 위한 이웃 프리페칭 기법 (A Neighbor Prefetching Scheme for a Hybrid Storage System)

  • 백승훈
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제14권5호
    • /
    • pp.40-52
    • /
    • 2018
  • 플래시 기반의 SSD(solid state drive)를 HDD(hard disk drive)의 2차 캐시로 사용하는 기술이 많이 연구되었다. SSD를 이용한 캐시에 대한 캐시 교체 정책 및 관리에 관한 연구뿐만 아니라 프리페칭 연구도 필요하게 되었다. 본 논문은 SSD를 스토리지급 캐시로 사용하는 시스템을 위한 프리페칭 기술을 제시한다. 이 프리페칭 기술은 스토리지급 크기의 캐시에 맞게 대규모의 프리페칭이며, 단기적인 프리페칭은 1차 캐시인 주메모리에서 수행되므로 장기적 스케줄링을 기반한 프리페칭이며, 기존 프리페칭은 읽기만을 고려하였지만, 지속 가능한 SSD 캐시를 위해 쓰기 요청도 고려한 프리페칭이다. 어떤 사용자의 14일간의 입출력에서, 64GB 용량의 SSD에 프리페칭 용량이 4GiB일 때에, 2.3%에서 17.8%의 캐시 적중률 향상을 보였다. 본 기술은 구현이 간단하여 스토리지급 캐시 시스템에 쉽게 적용할 수 있다.

An Index Structure for Main-memory Storage Systems using The Level Pre-fetching

  • Lee, Seok-Jae;Yoon, Jong-Hyun;Song, Seok-Il;Yoo, Jae-Soo
    • International Journal of Contents
    • /
    • 제3권1호
    • /
    • pp.19-23
    • /
    • 2007
  • Recently, several main-memory index structures have been proposed to reduce the impact of secondary cache misses. In mainmemory storage systems, secondary cache misses have a substantial effect on the performance of index structures. However, recent studies still stiffer from secondary cache misses when visiting each level of index tree. In this paper, we propose a new index structure that minimizes the total amount of cache miss latency. The proposed index structure prefetched grandchildren of a current node. The basic structure of the proposed index structure is based on that of the CSB+-Tree, which uses the concept of a node group to increase fan-out. However, the insert algorithm of the proposed index structure significantly reduces the cost of a split. The superiority of our algorithm is shown through performance evaluation.

XML 질의 캐쉬의 저장 기법 (Storage Schemes for XML Query Cache)

  • 김영현;강현철
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제33권5호
    • /
    • pp.551-562
    • /
    • 2006
  • 최근 XML 데이타베이스 기반 웹 응용을 위한 XML 질의 캐쉬 기법이 활발히 연구되고 있다. 이와 같은 XML 질의 캐쉬의 실용적인 중요성에도 불구하고, 캐쉬된 질의 결과를 어떻게 저장하는 것이 효율적인지에 대해서는 아직 아무런 연구가 없는 실정이다. 본 논문에서는 XML 질의 캐쉬의 저장 기법을 다룬다. XML 질의 캐쉬의 효율적인 저장 구조 설계에 있어 근본적으로 고려해야 하는 점은 캐쉬된 질의 결과에 대한 대표적인 두 종류 연산 간에 성능 트레이드오프가 존재한다는 것이다. 이 두 종류의 연산은 (1) 캐쉬된 질의 결과를 반환하기 위하여 캐쉬 전체를 검색하는 것과 (2) 소스 데이타의 변경에 대하여 캐쉬를 점진적으로 갱신하기 위하여 캐쉬의 일부분을 변경하는 것이다. 본 논문에서는 모두 여덟 개의 XML 질의 캐쉬 저장 기법을 제시한다. 이들은 크게 세 개의 그룹으로 나누어지는데, (1) 일반적인 텍스트 화일을 기반으로 한 기법 (2) 영속성 있는 DOM(PDOM) 화일에 기반을 둔 기법 (3) RDBMS를 사용하는 기법이다. 이들 모두를 구현하여 성능을 비교하였고, 기존의 XML 저장 기술에 기반을 둔 질의 캐쉬 저장 기법과도 비교 평가하였다.

가상화 환경에서 스토리지 성능 향상을 위한 호스트 캐시 마이그레이션 엔진 설계 및 구현 (Design and Implementation of Host-side Cache Migration Engine for High Performance Storage in A Virtualization Environment)

  • 박준영;박현찬;유혁
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제22권6호
    • /
    • pp.278-283
    • /
    • 2016
  • 최근 폭발적으로 증가하는 사용자 데이터가 클라우드에 저장됨에 따라 고품질의 일관된 성능으로 클라우드 스토리지 서비스를 제공하는 것이 더욱 더 중요해지고 있다. 하지만 클라우드 관리를 위한 가상머신 이주(migration)로 인해 스토리지 서비스의 품질이 저하될 수 있다. 특히 플래시 캐시를 사용하는 환경에서는 가상머신 이주가 실행 될 경우 기존 서버에 예열된 캐시를 잃고 새로운 머신에서 콜드 스타트하는 문제가 발생한다. 본 논문은 위의 문제를 해결하기 위해 가상머신 이주로 인한 캐시의 콜드 스타트 문제를 시연 및 분석하고 플래시 캐시의 효율적인 핫 스타트를 수행하는 캐시미어 기법을 제안한다.

1회성 쓰기 참조 특성을 고려하는 스마트폰 버퍼캐쉬 관리 기법 (Buffer Cache Management of Smartphones Exploiting Write-Only-Once Characteristics)

  • 김도희;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권6호
    • /
    • pp.129-134
    • /
    • 2015
  • 본 논문에서는 스마트폰 앱의 파일 접근 중 상당 부분이 1회성 쓰기 참조라는 것을 분석하고 이러한 특성을 고려한 버퍼캐쉬 관리 기법을 제안한다. 버퍼캐쉬는 여러 번 참조되는 파일 데이터를 스토리지 접근 없이 메모리에서 처리하여 성능 개선을 도모하지만, 쓰기 참조가 발생한 경우에는 짧은 시간 내에 스토리지에 직접 반영하여 시스템 크래쉬에 대비한다. 제안하는 기법은 1회의 쓰기만 발생한 캐쉬 데이터의 경우 스토리지 반영 직후 버퍼캐쉬에서 쫓아내어 캐쉬의 공간 효율을 높인다. 다양한 스마트폰 앱에 적용한 시뮬레이션 실험 결과 제안하는 기법은 기존 버퍼캐쉬 관리 기법에 비해 캐쉬적중률을 5-33% 향상시키고, 전력소모를 27-92% 줄일 수 있음을 보인다.

소형셀 환경에서 사용자 컨텍스트 기반 무선 캐시 알고리즘 (Wireless Caching Algorithm Based on User's Context in Smallcell Environments)

  • 정현기;정소이;이동학;이승규;김재현
    • 한국통신학회논문지
    • /
    • 제41권7호
    • /
    • pp.789-798
    • /
    • 2016
  • 본 논문에서는 home 소형셀 대비 넓은 커버리지를 갖고 많은 사용자를 서비스 하는 enterprise/urban 소형셀 환경에서 적용할 수 있는 사용자 컨텍스트 기반 캐시 알고리즘을 제안한다. 소형셀 캐시 기법은 소형셀 사용자의 웹 트래픽을 소형셀 내부에 위치한 저장 공간에 저장하는 방법으로 코어망 트래픽을 감소시키는 효과가 있다. 본 논문에서는 기존의 알고리즘과 달리 Mobile Edge Computing(MEC)의 개념을 적용하여 소형셀 내부가 아닌 edge server에 사용자 트래픽을 캐시하며 사용자 특성을 반영하기 위해 사용자를 그룹화한다. 또한, 그룹별 저장 공간의 크기를 달리하고, 캐시 업데이트 주기를 캐시 적중률에 따라 변경하여 코어망으로부터 제공받는 트래픽을 감소하고자 하였다. 성능 분석 결과 기존 알고리즘 대비 캐시 적중률 측면에서 약 11%, cache efficiency 측면에서 약 5.5%의 성능 향상을 확인할 수 있었다.