• Title/Summary/Keyword: 페이지 폴트

Search Result 19, Processing Time 0.031 seconds

Design of Virtual Memory Compression System on Mobile Device (모바일 환경에서의 가상 메모리 압축 시스템 설계)

  • 정진우;장승주
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04a
    • /
    • pp.46-48
    • /
    • 2002
  • 일반적으로 메모리 관리에서 가장 큰 문제점은 느린 보조기억 장치의 속도와 빠를 주기억장치의 속도 차이에서 나타나는 성능 저하라고 한 수 있다. 요구 페이징 기법에서 페이지 폴트가 일어나면 페이지 교체 정책에 의해 필요 없는 페이지들을 스왑 디바이스로 이동을 시킨다. 이때 느린 보조기억장치의 접근 속도로 인한 응답시간의 지연은 전체적인 시스템 성능의 저하를 초래한다. 이때 스왑 디바이스로의 접근 횟수와 페이지의 크기를 줄일 수 있다면 페이지 아웃되는 응답시간을 높일 수 있을 것이다. 따라서 본 논문에서는 가상 메모리 압축 시스템을 설계하여 스왑 아웃되는 시간을 줄이며 압축된 페이지들을 사용함으로써 메모리 공간을 절약하여 시스템의 전체적인 성능 향상을 위한 모바일 시스템을 설계한다.

  • PDF

A Method of Intercepting System Calls on Hardware-assisted Virtualization Environment (하드웨어 지원 가상화 환경에서의 시스템 콜 인터셉트 기법)

  • Lee, Dong-Woo;Kim, In-Hyuk;Eom, Young-Ik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.11a
    • /
    • pp.90-94
    • /
    • 2010
  • 최근 많은 보안 공격 도구들은 커널 레벨에서 동작하도록 설계 되고 있다. 악의적인 행동이 시스템 모니터링 프로그램과 같은 권한 레벨에서 이루어지기 때문에 공격 도구들은 공격 대상으로부터 자신의 존재를 숨기고 활동할 수 있다. 이러한 커널 레벨 악성코드들에 대한 대처 방법으로 가상화 기술을 이용하는 더 높은 권한 레벨을 가진 가상머신모니터(VMM)에서의 시스템 모니터링 방법이 소개 되었다. 그러나 많은 가상화 기반 모니터링 도구들이 주로 페이지 폴트 예외를 이용하여 시스템 콜 호출을 감시하기 때문에 신뢰성이 떨어지고 확장 페이지 테이블 (EPT) 과 같은 최신 하드웨어 가상화 기술 지원을 받지 못한다. 이에 본 논문에서는 일반 보호 예외를 이용하는 새로운 시스템 콜 인터셉트 기법을 제안함으로써 기존 기법의 기술적 한계를 극복하고 신뢰도 높은 모니터링 기법을 제공하고자 한다. 또 해당 기법의 구체적 구현 방법을 서술하고 구현 결과를 실험함으로서 제안 기법을 검증한다.

  • PDF

Design of Virtual Memory Compression System on the Embedded System (임베디드 시스템에서 가상 메모리 압축 시스템 설계)

  • Jeong, Jin-Woo;Jang, Seung-Ju
    • The KIPS Transactions:PartA
    • /
    • v.9A no.4
    • /
    • pp.405-412
    • /
    • 2002
  • The embedded system has less fast CPU and lower memory than PC(personal Computer) or Workstation system. Therefore embedded operating is system is designed to efficiently use the limited resource in the system. Virtual memory management or the embedded linux have a low efficiency when page fault is occurred to get a data from I/O device. Because a data is moving from the swap device to main memory. This paper suggests virtual memory compression algorithm for improving in virtual memory management and capacity of space. In this paper, we present a way to performance implement a virtual memory compression system that achieves significant improvement for the embedded system.

Design and Implementation of Memory Management Mechanism for Multimedia Applications (멀티미디어 지원을 위한 메모리 관리 기법 설계 및 구현)

  • Ko, Young-Woong;Ah, Jae-Young;Hong, Chul-Ho;Yoo, Chuck
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10c
    • /
    • pp.61-63
    • /
    • 2001
  • 가상 메모리 시스템은 다중 프로그래밍의 정도를 높이고 효율적으로 주기억 장치를 관리하는 장점을 제공해 주지만 예측할 수 없는 지연을 발생시키는 문제점을 가지고 있다. 따라서 가상 메모리 시스템은 시간 제약이 엄격한 경성 실시간 시스템에서 사용하기에 부적합하며, 시간 제약이 완화된 멀티미디어 분야에서도 태스크의 제한 시간 실패율을 높이는 원인을 제공함으로써 멀티미디어 서비스 품질을 저하시키고 있다. 본 논문에서는 동적으로 태스크가 유입되는 범용 시스템 환경에서 가상 메모리 시스템이 멀티미디어 태스크에 미치는 영향을 분석하고. 멀티미디어 태스크의 제한 시간 실패율을 최소화할 수 있는 메모리 관리 방법을 제시하였다. 본 논문에서는 동적으로 유입되는 태스크의 페이지 폴트를 제한된 비율로 유지시키는 기법을 사용하며. 이를 통해서 부하를 분산시키고. 결과적으로 멀티미디어 응용이 원활히 수행될 수 있도록 하였다.

  • PDF

A Cost-Based Buffer Replacement Algorithm in Object-Oriented Database Systems (객체지향 데이타베이스에서의 비용기반 버퍼 교체 알고리즘)

  • Park, Chong-Mok;Han, Wook-Shin;Whang, Kyu-Young
    • Journal of KIISE:Databases
    • /
    • v.27 no.1
    • /
    • pp.1-12
    • /
    • 2000
  • Many object oriented database systems manage object buffers to provide fast access to objects. Traditional buffer replacement algorithms based on fixed length pages simply assume that the cost incurred by operating a buffer is propertional to the number of buffer faults. However, this assumption no longer holds in an objects buffer where objects are of variable length and the cost of replacing an object varies for each object. In this paper, we propose a cost based replacement algorithm for object buffers. The proposed algorithm replaces the have minimum costs per unit time and unit space. The cost model extends the previous page based one to include the replacement costs and the sizes of objects. The performance tests show that proposed algorithm is almost always superior to the LRU-2 algorithm and in some cases is more than twice as fast. The idea of cost based replacement can be applied to any buffer management architectures that adopt earlier algorithms. It is especially useful in object oriented database systems where there is significant variation in replacement costs.

  • PDF

A Design for File Access in Storage Class Memory-based Computer Systems (스토리지 클래스 메모리에서의 파일 접근 설계)

  • Park, Sungmin;Won, Youjip;Kang, Sooyong
    • Journal of Digital Contents Society
    • /
    • v.14 no.2
    • /
    • pp.247-254
    • /
    • 2013
  • Storage Class Memory(SCM), such as PRAM, FRAM and MRAM, are expected to be comparable to DRAM in terms of access speed and to Flash memory in terms of capacity in a near future. In this paper, assuming that not only the secondary storage (HDD or Flash memory) but also the primary memory (DRAM) will be replaced by SCM in the future computer systems, we propose an efficient file access framework for the SCM based computer systems. The proposed framework do not assign exclusive area in the SCM to the file system and uses various memory-related techniques, such as unified data access path, zero-copy data read using file mapping, copy-on-write, and multiple page pre-faulting for file management. Based on the preliminary experimental results, we could conclude that the proposed framework can be an efficient baseline for designing a new operating system for the SCM based computer systems.

Call-Site Tracing-based Shared Memory Allocator for False Sharing Reduction in DSM Systems (분산 공유 메모리 시스템에서 거짓 공유를 줄이는 호출지 추적 기반 공유 메모리 할당 기법)

  • Lee, Jong-Woo
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.32 no.7
    • /
    • pp.349-358
    • /
    • 2005
  • False sharing is a result of co-location of unrelated data in the same unit of memory coherency, and is one source of unnecessary overhead being of no help to keep the memory coherency in multiprocessor systems. Moreover. the damage caused by false sharing becomes large in proportion to the granularity of memory coherency. To reduce false sharing in a page-based DSM system, it is necessary to allocate unrelated data objects that have different access patterns into the separate shared pages. In this paper we propose call-site tracing-based shared memory allocator. shortly CSTallocator. CSTallocator expects that the data objects requested from the different call-sites may have different access patterns in the future. So CSTailocator places each data object requested from the different call-sites into the separate shared pages, and consequently data objects that have the same call-site are likely to get together into the same shared pages. We use execution-driven simulation of real parallel applications to evaluate the effectiveness of our CSTallocator. Our observations show that by using CSTallocator a considerable amount of false sharing misses can be additionally reduced in comparison with the existing techniques.

Analyzing the Overhead of the Memory Mapped File I/O for In-Memory File Systems (메모리 파일시스템에서 메모리 매핑을 이용한 파일 입출력의 오버헤드 분석)

  • Choi, Jungsik;Han, Hwansoo
    • KIISE Transactions on Computing Practices
    • /
    • v.22 no.10
    • /
    • pp.497-503
    • /
    • 2016
  • Emerging next-generation storage technologies such as non-volatile memory will help eliminate almost all of the storage latency that has plagued previous storage devices. In conventional storage systems, the latency of slow storage devices dominates access latency; hence, software efficiency is not critical. With low-latency storage, software costs can quickly dominate memory latency. Hence, researchers have proposed the memory mapped file I/O to avoid the software overhead. Mapping a file into the user memory space enables users to access the file directly. Therefore, it is possible to avoid the complicated I/O stack. This minimizes the number of user/kernel mode switchings. In addition, there is no data copy between kernel and user areas. Despite of the benefits in the memory mapped file I/O, its overhead still needs to be addressed, as the existing mechanism for the memory mapped file I/O is designed for slow block devices. In this paper, we identify the overheads of the memory mapped file I/O via experiments.

Improving the Read Performance of Compressed File Systems Considering Kernel Read-ahead Mechanism (커널의 미리읽기를 고려한 압축파일시스템의 읽기성능향상)

  • Ahn, Sung-Yong;Hyun, Seung-Hwan;Koh, Kern
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.16 no.6
    • /
    • pp.678-682
    • /
    • 2010
  • Compressed filesystem is frequently used in the embedded system to increase cost efficiency. One of the drawbacks of compressed filesystem is low read performance. Moreover, read-ahead mechanism that improves the read throughput of storage device has negative effect on the read performance of compressed filesystem, increasing read latency. Main reason is that compressed filesystem has too big read-ahead miss penalty due to decompression overhead. To solve this problem, this paper proposes new read technique considering kernel read-ahead mechanism for compressed filesystem. Proposed technique improves read throughput of device by bulk read from device and reduces decompression overhead of compressed filesystem by selective decompression. We implement proposed technique by modifying CramFS and evaluate our implementation in the Linux kernel 2.6.21. Performance evaluation results show that proposed technique reduces the average major page fault handling latency by 28%.