• 제목/요약/키워드: Cache Flushing

검색결과 4건 처리시간 0.018초

퍼시스턴트 메모리를 위한 저전력 캐시 플러싱 명령어 구현에 대한 연구 (A Study on the Implementation of Low-Power Cache Flushing Instructions for Persistent Memory)

  • 최주희
    • 반도체디스플레이기술학회지
    • /
    • 제23권3호
    • /
    • pp.52-57
    • /
    • 2024
  • Persistent memory technology has been recognized as a next-generation memory solution because of its stability over traditional volatile memory. The primary advantage of persistent memory is its non-volatile nature, allowing data retention even when the power is off. Additionally, persistent memory offers faster read speeds compared to traditional HDDs and SSDs. However, ensuring data consistency through cache flushing commands is increasingly important so that performance and power consumption issue would be challenges. This paper proposes a new cache structure to mitigate the drawbacks of cache flushing by considering the number of flushes per cache line. On top of that, a counter and decision bit to track and manage these actions are added. As a result, this architecture decreases approximately 56% of the additional memory access.

  • PDF

영속 메모리를 이용한 스마트폰 버퍼 캐시의 선별적 플러시 정책 (Policy for Selective Flushing of Smartphone Buffer Cache using Persistent Memory)

  • 임수정;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제22권1호
    • /
    • pp.71-76
    • /
    • 2022
  • 버퍼 캐시는 스토리지의 느린 속도를 완충하는 중요한 역할을 하지만, 데이터의 유실을 막기 위한 주기적인 플러시 연산으로 인해 스마트폰에서 그 효과가 크게 떨어진다. 본 논문에서는 소량의 영속 메모리에 선택적인 플러시 정책을 적용하여 스마트폰 버퍼 캐시의 플러시 오버헤드를 크게 줄일 수 있음을 보인다. 이는 스마트폰 앱의 I/O 분석 결과 대부분의 파일 쓰기가 소량의 핫 데이터에 집중돼 있는 반면 상당 부분의 파일 데이터는 1회성 쓰기에 국한한다는 점에 근거한다. 제안하는 기법은 플러시 상황 발생 시 자주 수정되는 데이터를 영속 메모리로 우회 플러시하고 그렇지 않은 데이터만을 스토리지로 플러시한다. 이를 통해 스토리지 쓰기량을 크게 줄이는 동시에 영속 메모리의 공간 효율성을 높인다. 인기 있는 스마트폰 앱의 I/O 트레이스를 이용한 재현 실험을 통해 제안하는 기법이 스토리지 쓰기량을 평균 25.8%, 최대 37.8%까지 줄임을 보인다.

A Data-Consistency Scheme for the Distributed-Cache Storage of the Memcached System

  • Liao, Jianwei;Peng, Xiaoning
    • Journal of Computing Science and Engineering
    • /
    • 제11권3호
    • /
    • pp.92-99
    • /
    • 2017
  • Memcached, commonly used to speed up the data access in big-data and Internet-web applications, is a system software of the distributed-cache mechanism. But it is subject to the severe challenge of the loss of recently uncommitted updates in the case where the Memcached servers crash due to some reason. Although the replica scheme and the disk-log-based replay mechanism have been proposed to overcome this problem, they generate either the overhead of the replica synchronization or the persistent-storage overhead that is caused by flushing related logs. This paper proposes a scheme of backing up the write requests (i.e., set and add) on the Memcached client side, to reduce the overhead resulting from the making of disk-log records or performing the replica consistency. If the Memcached server fails, a timestamp-based recovery mechanism is then introduced to replay the write requests (buffered by relevant clients), for regaining the lost-data updates on the rebooted Memcached server, thereby meeting the data-consistency requirement. More importantly, compared with the mechanism of logging the write requests to the persistent storage of the master server and the server-replication scheme, the newly proposed approach of backing up the logs on the client side can greatly decrease the time overhead by up to 116.8% when processing the write workloads.

하이브리드 하드디스크를 위한 효율적인 데이터 블록 교체 및 재배치 기법 (An Efficient Data Block Replacement and Rearrangement Technique for Hybrid Hard Disk Drive)

  • 박광희;이근형;김덕환
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권1호
    • /
    • pp.1-10
    • /
    • 2010
  • 최근 낸드 플래시 메모리가 하드디스크 수준으로 읽기 성능이 향상되고, 전력소비가 훨씬 적음에 따라, 플래시메모리와 하드디스크를 같이 사용하는 하이브리드 하드디스크와 같은 이기종 저장장치들이 출시되고 있다. 하지만 낸드 플래시 메모리의 쓰기 및 삭제 속도가 기존 자기디스크의 쓰기 성능에 비해 매우 느릴 뿐 아니라, 사용자 층에서 쓰기 요청이 집중될 경우 CPU, 메인 메모리에 심각한 오버헤드를 발생시킨다. 본 논문에서는 비휘발성 캐시의 역할을 하는 낸드 플래시 메모리의 성능을 향상시키기 위해 읽기의 참조 빈도는 낮고, 쓰기의 갱신 빈도가 높은 데이터 블록들을 교체하는 LFU(Least Frequently Used)-Hot 기법을 제시하고, 교체 될 데이터 블록들을 재배치하여 자기디스크로 플러싱하는 기법을 제시한다. 실험 결과, 본 논문에서 제안하는 LFU-Hot 블록 교체 기법과 멀티존 기반의 데이터 블록 재배치기법 실행시간이 기존 LRU, LFU 블록 교체 기법들보다 입출력 성능 면에서 최대 38% 빠르고, 비휘발성 캐시의 수명을 약 40% 이상 향상 시킴을 증명하였다.