• 제목/요약/키워드: page cache

검색결과 69건 처리시간 0.021초

An Efficient Cache Management Scheme of Flash Translation Layer for Large Size Flash Memory Drives

  • Choi, Hwan-Pil;Kim, Yong-Seok
    • 한국컴퓨터정보학회논문지
    • /
    • 제20권11호
    • /
    • pp.31-38
    • /
    • 2015
  • Nowadays, large size flash memory drives with more than a couple of hundreds of gigabytes are common. This paper presents an efficient cache management scheme of flash translation layer, called TPC-FTL, for large size flash memory drives. Since flash drives of large size usually contain large size RAM, we can enhance the performance of page mapping cache by using more RAM for the cache. But if the size exceeds a threshold, the existing schemes are impractical for real devices, because the time for cache manipulation becomes too long. TPC-FTL manages the cache in translation page unit, not in logical page number unit used in existing schemes. Since a translation page covers a large number of logical page numbers (for example, 512 for 2KB size page), the number of cache elements can be reduced up to a practical level. A performance evaluation shows that average response time, an important performance measure, is better than existing schemes via the effect of utilizing spacial locality in addition to temporal locality.

페이지 정렬을 이용한 효과적인 동의어 문제 해결 기법에 관한 연구 (A Study on an Efficient Solution to the Synonym Problem using Page Alignment)

  • 김제성;민상렬;전상훈;안병철;정덕균;김종상
    • 전자공학회논문지B
    • /
    • 제33B권2호
    • /
    • pp.37-46
    • /
    • 1996
  • This paper proposes a cost-effective solution to the synonym problem of virtual caches. In the proposed solution, a minimal hardware addition guarantees the correctness whereas the software counterpart helps improve the performance. The key to this proposed solution is an addition of a small physically-indexed cache called U-cache. The U-cache maintains the reverse translation information of the cache blocks that belong to unaligned virtual pages only, where aligned measns that the lower bits of the virtual page number match those of the corresponding physical page number. The page alignment is a simple software optimization to improve the performance of the U-cche hardware. With the combination of both hardware and software, the proposed solution reduces the hardware costs and minimizes software modification and performance degradation. Performance evaluation base on ATUM traces shows that a U-cache, with only a few entries, performs almost as well as fully-configured hardware-based solution when more than 95% of the pages are aligned.

  • PDF

NAND 플래시 변환 계층에서 전력 소모에 영향을 미치는 페이지 캐싱 전략의 비교·분석 (A Comparative Analysis on Page Caching Strategies Affecting Energy Consumption in the NAND Flash Translation Layer)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제13권3호
    • /
    • pp.109-116
    • /
    • 2018
  • SSDs that are not allowed in-place update within the allocated page cause another allocation of a new page that will replace the previous page at the moment data modification occurs. This intrinsic characteristic of SSDs requires many changes to the existing HDD-based IO theory. In this paper, we conduct a performance comparison of FTL caching strategy in perspective of cache hashing (Global vs. grouped) and caching algorithm (LRU vs. NUR) through a simulation. Experimental results show that in terms of energy consumption for flash operation the grouped management of cache is not suitable and NUR algorithm is superior to LRU algorithm. In particular, we found that the cache hit ratio of LRU algorithm is about 10% point higher than that of NUR algorithm while the energy consumption of LRU algorithm is about 32% high.

내장형 시스템에서 암호화 파일 시스템을 위한 효율적인 암복호화 기법 (An Efficient Encryption/Decryption Approach to Improve the Performance of Cryptographic File System in Embedded System)

  • 허준영;박재민;조유근
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권2호
    • /
    • pp.66-74
    • /
    • 2008
  • 내장형 시스템은 민감한 데이타를 다루고 저장하기 때문에 정보를 암호화하여 보호하는 암호화 파일 시스템이 필요하지만, 암호화 파일 시스템 적용은 성능 저하가 크기 때문에 내장형 시스템에는 널리 적용되지 못하였다. 기존의 암호화 파일 시스템은 시스템 구조상 불필요한 성능저하를 가져온다. 본 논문에서 제안하는 ISEA(Indexed and Separated Encryption Approach)는 이러한 불필요한 성능 저하를 제거하고, 시스템이 효율적으로 암복호화를 지원하는 새로운 암복호화 기법이다. ISEA는 암호화와 복호화를 페이지 캐쉬를 기준으로 서로 다른 계층에서 수행한다. 즉, 암호화는 페이지 캐쉬 하위 계층에서 수행하고 복호화는 페이지 캐쉬 상위 계층에서 수행한다. 복호화한 내용은 페이지 캐쉬에 저장하여 후속 I/O 요구에 사용할 수 있게 한다. 또한, ISEA는 페이지를 암호화 블록 단위로 나누어 관리하는 페이지 인덱싱 기법을 제공한다. 페이지 인덱싱은 필요에 따라 페이지를 부분적으로 복호화하여 불필요한 복호화 연산을 제거한다. 페이지 캐쉬 탐색 성공률과 읽기/쓰기 사이즈를 종합한 성능 평가에서 ISEA는 효율적인 성능개선을 보여준다.

Effect of ASLR on Memory Duplicate Ratio in Cache-based Virtual Machine Live Migration

  • Piao, Guangyong;Oh, Youngsup;Sung, Baegjae;Park, Chanik
    • 대한임베디드공학회논문지
    • /
    • 제9권4호
    • /
    • pp.205-210
    • /
    • 2014
  • Cache based live migration method utilizes a cache, which is accessible to both side (remote and local), to reduce the virtual machine migration time, by transferring only irredundant data. However, address space layout randomization (ASLR) is proved to reduce the memory duplicate ratio between targeted migration memory and the migration cache. In this pager, we analyzed the behavior of ASLR to find out how it changes the physical memory contents of virtual machines. We found that among six virtual memory regions, only the modification to stack influences the page-level memory duplicate ratio. Experiments showed that: (1) the ASLR does not shift the heap region in sub-page level; (2) the stack reduces the duplicate page size among VMs which performed input replay around 40MB, when ASLR was enabled; (3) the size of memory pages, which can be reconstructed from the fresh booted up state, also reduces by about 60MB by ASLR. With those observations, when applying cache-based migration method, we can omit the stack region. While for other five regions, even a coarse page-level redundancy data detecting method can figure out most of the duplicate memory contents.

페이지 접근 정보에 기반한 효율적인 명령어 캐쉬 선인출 기법 (An Efficient Instruction Prefetching Scheme Based on the Page Access Information)

  • 신숭현;김철홍;전주식
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권5호
    • /
    • pp.306-315
    • /
    • 2006
  • 컴퓨터 시스템의 1차 캐쉬 적중률은 시스템의 성능을 평가함에 있어 가장 중요한 요소 중 하나이다. 하위 메모리 구조로부터 1차 캐쉬로의 선인출은 1차 캐쉬의 적중률을 증가시키기 위해 사용되는 대표적인 기술 중 하나이다. 본 논문에서는 명령어 캐쉬의 선인출 효율은 높이고 선인출에 소모되는 비용은 감소시키는 재 접근 페이지 선인출 정책을 제안하고자 한다. 재 접근 페이지 선인출 정책은 수행되는 명령어들의 소속 페이지를 추적하여, 이 정보를 바탕으로 일정 횟수 이상 같은 페이지를 접근하는 경우에 한하여 선인출을 수행함으로써, 명령어 캐쉬로의 선인출 횟수는 줄이고 선인출 성공률은 향상시킨다. 또한, 일반적인 컴퓨터 시스템에서 하나의 2차 캐쉬 블록에 여러 개의 1차 캐쉬 블록이 포함되는 특성을 이용하여 미스 블록과 선인출 블록이 같은 2차 캐쉬 블록에 포함된 경우로 선인출을 한정함으로써 선인출에 소모되는 비용을 줄인다. 모의 실험에 따르면 제안하는 구조는 최대 6.7%의 성능향상을 보인다.

모바일 웹 서비스를 위한 요소분할 캐싱 기법 (Separate Factor Caching Scheme for Mobile Web Service)

  • 심근정;강의선;김종근;고희애;임영환
    • 정보처리학회논문지D
    • /
    • 제14D권4호
    • /
    • pp.447-458
    • /
    • 2007
  • 본 논문은 기존의 Mobile Gate System에서 모바일 웹 서비스를 위해 사용하던 Contents Cache 의 성능을 향상시킴으로 보다 더 빠르게 모바일 웹 서비스를 하는 데 그 목적을 두고 있다. Contents Generator에 의해 변환된 마크-업 페이지에는 두 요소가 존재함을 알 수 있었다. 하나의 요소는 단지 요청된 DIDL 페이지와 마크-업 종류에만 의존적인 것이었고, 다른 하나의 요소는 요청된 DIDL 페이지, 마크-업 종류, 서비스를 요청한 모바일 장치의 Display 크기, 지원되는 이미지 형식, 지원되는 이미지의 색 심도 수에 각각 의존적이었다. 기존의 Contents Cache는 이렇게 두 요소를 함께 가진 마크-업 페이지 전체를 모두 저장했다. 이는 다른 요소들이 모두 같다 하더라도 하나의 요소가 달라지면 그 요소 때문에 재사용 가능한 요소들까지 Cache 메모리 영역에 중복 저장함으로써 저장 공간을 효율적으로 사용하지 못하게 하는 문제를 발생시켰다. 이 때문에 동일한 Cache 메모리 크기 하에 더 많은 변환된 마크-업 페이지를 저장할 수 있었음에도 그렇게 하지 못했다. 따라서 본 논문에서는 Contents Generator에 의해 변환된 마크-업 페이지를 두 요소로 나누고 각각을 분류하여 저장하였다. 또한 Cache 내의 데이터와 신규 데이터간의 대체 요구에 응하기 위해 LFU, LRU 두 대체 알고리즘을 적용하였다. 이를 통해 동일한 Cache 저장 공간 내에 더 많은 변환된 마크-업 페이지를 저장하게 함으로 더 빠른 속도의 Cache 성능을 구현할 수 있는 방법을 제안하였다.

WWW Cache Replacement Algorithm Based on the Network-distance

  • Kamizato, Masaru;Nagata, Tomokazu;Taniguchi, Yuji;Tamaki, Shiro
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -1
    • /
    • pp.238-241
    • /
    • 2002
  • With the popularity of utilization of the Internet among people, the amount of data in the network rapidly increased. So that, the fall of response time from WWW server, which is caused by the network traffic and the burden on m server, has become more of an issue. This problem is encouraged the rearch by redundancy of requesting the same pages by many people, even though they browse the same the ones. To reduce these redundancy, WWW cache server is used commonly in order to store m page data and reuse them. However, the technical uses of WWW cache that different from CPU and Disk cache, is known for its difficulty of improving the cache hit rate. Consecuently, it is difficult to choose effective WWW data to be stored from all data flowing through the WWW cache server. On the other hand, there are room for improvement in commonly used cache replacement algorithms by WWW cache server. In our study, we try to realize a WWW cache server that stresses on the improvement of the stresses of response time. To this end, we propose the new cache replacement algorithm by focusing on the utilizable information of network distance from the WWW cache server to WWW server that possessing the page data of the user requesting.

  • PDF

Prefetch R-tree: 디스크와 CPU 캐시에 최적화된 다차원 색인 구조 (Prefetch R-tree: A Disk and Cache Optimized Multidimensional Index Structure)

  • 박명선
    • 정보처리학회논문지D
    • /
    • 제13D권4호
    • /
    • pp.463-476
    • /
    • 2006
  • R-tree는 일반적으로 트리 노드의 크기를 디스크 페이지의 크기와 같게 함으로써 I/O 성능이 최적화 되도록 구현한다. 최근에는 주메모리 환경에서 CPU 캐시 성능을 최적화하는 R-tree의 변형이 개발되었다. 이는 노드의 크기를 캐시 라인 크기의 수 배로 하고 MBR에 저장되는 키를 압축하여 노드 하나에 더 많은 엔트리를 저장함으로써 성능을 높였다. 그러나, 디스크 최적 R-tree와 캐시 최적 R-tree의 노드 크기 사이에는 수십-수백 바이트와 수-수십 킬로바이트라는 큰 차이가 있으므로, I/O 최적 R-tree는 캐시 성능이 나쁘고 캐시 최적 R-tree는 디스크 I/O 성능이 나쁜 문제점을 가지고 있다. 이 논문에서는 CPU 캐시와 디스크 I/O에 모두 최적인 R-tree, PR-tree를 제안한다. 캐시 성능을 위해 PR-tree 노드의 크기를 캐시 라인 크기보다 크게 만든 다음 CPU의 선반입(prefetch) 명령어를 이용하여 캐시 실패 횟수를 줄이고, 트리 노드를 디스크 페이지에 낭비가 적도록 배치함으로써 디스크 I/O 성능도 향상시킨다. 또한, 이 논문에서는 PR-tree에서 검색 연산을 수행하는데 드는 캐시 실패 비용을 계산하는 분석 방법을 제시하고, 최적의 캐시와 I/O 성능을 보이는 PR-tree를 구성하기 위해, 가능한 크기의 내부 단말 노드, 중간 노드를 갖는 PR-tree 생성하여 성능을 비교하였다. PR-tree는 디스크 최적 R-tree보다 삽입 연산은 3.5에서 15.1배, 삭제 연산은 6.5에서 15.1배, 범위 질의는 1.3에서 1.9배, k-최근접 질의는 2.7에서 9.7배의 캐시 성능 향상이 있었다. 모든 실험에서 매우 작은 I/O 성능 저하만을 보였다.

하드웨어 캐시 파티셔닝과 소프트웨어 캐시 파티셔닝의 성능 비교 (Performance Comparison between Hardware & Software Cache Partitioning Techniques)

  • 박지웅;염헌영;엄현상
    • 정보과학회 논문지
    • /
    • 제42권2호
    • /
    • pp.177-182
    • /
    • 2015
  • 오늘날에는 코어당 클락 속도 발전이 한계에 부딪히게 되면서 멀티 코어 프로세서의 시대가 도래하였다. 최근에는 서버나 데스크톱 환경뿐만 아니라 모바일 환경까지 널리 보급되고 있다. 이러한 구조에서는 프로세스간 성능 간섭 현상이 발생하게 되는데, 이를 방지하기 위해서 사용되는 캐시 파티셔닝 기법은 소프트웨어적인 방법과 하드웨어적인 방법 크게 두 가지로 나누어진다. 하지만 동적 캐시 파티셔닝시에 소프트웨어 캐시 파티셔닝 기법은 페이지 복사 오버헤드로 인해서 성능 향상을 기대하기 힘든데, 이에 반해서 하드웨어 캐시 파티셔닝은 이러한 페이지 복사에서 자유롭다는 장점이 있다. 이 논문에서는 상용 프로세서 중에서 하드웨어적으로 캐시 파티셔닝 기능을 제공하는 AMD Opteron 프로세서에서 소프트웨어적 캐시 파티셔닝 기법인 페이지 컬러링과 하드웨어 캐시 파티셔닝의 성능을 정적 캐시 파티셔닝 환경에서 비교해봄으로써, 하드웨어 캐시 파티셔닝의 동적 캐시 파티셔닝 활용 가능성 여부를 알아본다.