• Title/Summary/Keyword: 페이지 복사 오버헤드

Search Result 3, Processing Time 0.019 seconds

Block Linked List Scheme to Reduce GC (Garbage Collection) Overhead in Flash Memory (플래시 메모리 GC (가비지 콜렉션) 오버헤드를 줄이기 위한 블록 링크드 리스트 기법)

  • Koo, Sohyun;Kim, Sungsoo;Chung, Tae-Sun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.11a
    • /
    • pp.70-72
    • /
    • 2014
  • 플래시 메모리는 소형 저장 장치뿐만 아니라 대용량 저장장치까지 응용되고 있다. 하지만 기존의 하드디스크 (HDD)와 다르게 플래시 메모리는 읽기, 쓰기, 소거 연산의 속도가 다르고 쓰기 전 지우기(erase before write)라는 특성 때문에 FTL의 한 메커니즘인 GC (Garbage Collection)를 수행할 때 많은 오버헤드가 발생한다. 이에 이 논문은 DRAM의 공간을 효율적으로 활용하고 유효한 페이지 복사와 소거 연산의 횟수를 줄여 전체적인 플래시 메모리 GC 오버헤드를 줄이기 위한 블록 링크드 리스트 기법을 제안한다. 블록 링크드 리스트 기법은 같은 LBN에 해당하는 데이터를 로그 블록에 적고 해당 로그 블록들을 링크드 리스트로 관리해 소거 연산을 미룰 수 있다. 링크드 리스트들에 관한 정보는 DRAM에 테이블 형태로 적는다. 이때 테이블에는 블록 주소들이 적히므로 페이지 단위로 링크드 리스트를 관리하는 다른 기법에 비해 DRAM의 공간을 효율적으로 활용하게 된다.

Performance Comparison between Hardware & Software Cache Partitioning Techniques (하드웨어 캐시 파티셔닝과 소프트웨어 캐시 파티셔닝의 성능 비교)

  • Park, JiWoong;Yeom, HeonYoung;Eom, Hyeonsang
    • Journal of KIISE
    • /
    • v.42 no.2
    • /
    • pp.177-182
    • /
    • 2015
  • The era of multi-core processors has begun since the limit of the clock speed has been reached. These days, multi-core technology is used not only in desktops, servers, and table PCs, but also in smartphones. In this architecture, there is always interference between processes, because of the sharing of system resources. To address this problem, cache partitioning is used, which can be roughly divided into two types: software and hardware cache partitioning. When it comes to dynamic cache partitioning, hardware cache partitioning is superior to software cache partitioning, because it needs no page copy. In this paper, we compare the effectiveness of hardware and software cache partitioning on the AMD Opteron 6282 SE, which is the only commodity processor providing hardware cache partitioning, to see whether this technique can be effectively deployed in dynamic environments.

Analyzing the Overhead of the Memory Mapped File I/O for In-Memory File Systems (메모리 파일시스템에서 메모리 매핑을 이용한 파일 입출력의 오버헤드 분석)

  • Choi, Jungsik;Han, Hwansoo
    • KIISE Transactions on Computing Practices
    • /
    • v.22 no.10
    • /
    • pp.497-503
    • /
    • 2016
  • Emerging next-generation storage technologies such as non-volatile memory will help eliminate almost all of the storage latency that has plagued previous storage devices. In conventional storage systems, the latency of slow storage devices dominates access latency; hence, software efficiency is not critical. With low-latency storage, software costs can quickly dominate memory latency. Hence, researchers have proposed the memory mapped file I/O to avoid the software overhead. Mapping a file into the user memory space enables users to access the file directly. Therefore, it is possible to avoid the complicated I/O stack. This minimizes the number of user/kernel mode switchings. In addition, there is no data copy between kernel and user areas. Despite of the benefits in the memory mapped file I/O, its overhead still needs to be addressed, as the existing mechanism for the memory mapped file I/O is designed for slow block devices. In this paper, we identify the overheads of the memory mapped file I/O via experiments.