• Title/Summary/Keyword: 페이지 폴트 오버헤드

Search Result 4, Processing Time 0.022 seconds

Ickpt: An Efficient Incremental Checkpointing Using Page Writing Fault (Ickpt: 페이지 폴트를 사용한 효율적인 점진적 검사점)

  • 이상호;허준영;김상수;조유근;홍지만
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04a
    • /
    • pp.145-147
    • /
    • 2004
  • 점진적 검사점은 검사점 사이의 변경된 상태만을 기록하는 방식으로 검사점 오버헤드를 줄이는 기법으로 알려져 있다. 본 논문에서는 효율적인 점진적 검사점인 Ickpt의 설계 내용과 함께 리눅스 커널 2.4.20에서 구현하는 기법에 대해 설명한다. Ickpt는 리눅스 운영체제에서 제공하는 페이지 쓰기 결함을 이용하여, 변경된 페이지만을 새로운 검사점에 저장한다. Ickpt의 실험 결과는 비점진적 검사점을 사용한 것에 비하여 상당히 오버헤드를 줄일 수 있음을 보여준다.

  • PDF

Design and Implementation of Userspace Read-Copy Update scheme using Page Faults (페이지 폴트를 이용한 Userspace Read-Copy Update 기법 설계 및 구현)

  • Kim, Inhyuk;Shin, Eunhwan;Eom, Youngik
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.1721-1724
    • /
    • 2010
  • 멀티코어의 등장과 병렬 프로그래밍의 확산으로 lock-free 동기화 기법에 대한 관심과 필요성이 더욱 커지고 있지만, 대부분의 lock-free 동기화 기법들이 구현 복잡도와 동작시 오버헤드로 인해 실제 활용되는 사례는 미비하다. 하지만, RCU(Read-Copy Update) 기법의 등장으로 다양한 운영체제에서 이를 구현하여 활용하고, 최근에는 게임 서버와 같은 응용 프로그램에서도 이를 활용하려는 시도가 늘어나고 있지만, 기존에 제안된 URCU(Userspace RCU) 기법들은 메모리 순서오류 문제 해결을 위한 메모리 장벽 호출 및 reader와 updater 간의 IPC 등으로 충분한 성능을 보여주지 못하고 있다. 이에 본 논문에서는 페이지 폴트를 이용한 URCU 기법을 제안하고, 이를 구현하여 기존의 URCU 기법들과 실험을 통하여 평가하였다.

Analyzing the Overhead of the Memory Mapped File I/O for In-Memory File Systems (메모리 파일시스템에서 메모리 매핑을 이용한 파일 입출력의 오버헤드 분석)

  • Choi, Jungsik;Han, Hwansoo
    • KIISE Transactions on Computing Practices
    • /
    • v.22 no.10
    • /
    • pp.497-503
    • /
    • 2016
  • Emerging next-generation storage technologies such as non-volatile memory will help eliminate almost all of the storage latency that has plagued previous storage devices. In conventional storage systems, the latency of slow storage devices dominates access latency; hence, software efficiency is not critical. With low-latency storage, software costs can quickly dominate memory latency. Hence, researchers have proposed the memory mapped file I/O to avoid the software overhead. Mapping a file into the user memory space enables users to access the file directly. Therefore, it is possible to avoid the complicated I/O stack. This minimizes the number of user/kernel mode switchings. In addition, there is no data copy between kernel and user areas. Despite of the benefits in the memory mapped file I/O, its overhead still needs to be addressed, as the existing mechanism for the memory mapped file I/O is designed for slow block devices. In this paper, we identify the overheads of the memory mapped file I/O via experiments.

Improving the Read Performance of Compressed File Systems Considering Kernel Read-ahead Mechanism (커널의 미리읽기를 고려한 압축파일시스템의 읽기성능향상)

  • Ahn, Sung-Yong;Hyun, Seung-Hwan;Koh, Kern
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.16 no.6
    • /
    • pp.678-682
    • /
    • 2010
  • Compressed filesystem is frequently used in the embedded system to increase cost efficiency. One of the drawbacks of compressed filesystem is low read performance. Moreover, read-ahead mechanism that improves the read throughput of storage device has negative effect on the read performance of compressed filesystem, increasing read latency. Main reason is that compressed filesystem has too big read-ahead miss penalty due to decompression overhead. To solve this problem, this paper proposes new read technique considering kernel read-ahead mechanism for compressed filesystem. Proposed technique improves read throughput of device by bulk read from device and reduces decompression overhead of compressed filesystem by selective decompression. We implement proposed technique by modifying CramFS and evaluate our implementation in the Linux kernel 2.6.21. Performance evaluation results show that proposed technique reduces the average major page fault handling latency by 28%.