• Title/Summary/Keyword: 캐시 성능

Search Result 407, Processing Time 0.038 seconds

On the Effectiveness of P2P-based web caching system (P2P 방식의 웹 캐싱 시스템에 대한 효용성 분석)

  • 장재완;김영석;홍정우;맹승렬;김진수
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04d
    • /
    • pp.346-348
    • /
    • 2003
  • 웹의 발전과 더불어 웹 캐시 시스템의 중요성이 증대되면서, 다양한 구조의 웹 캐시 시스템이 제안되고 있으며 최근에는 Squirrel 과 같은 P2P 방식을 이용한 웹 캐시 시스템도 출현하였다. 본 논문에서는 Squirrel과 같은 일반적인 P2P 웹 캐시를 서브넷에 국한시킨 경우의 P2P 웹 캐시의 효용성을 분석한다. 이를 위하여, P2P 웹 캐시를 이용하는 사용자들의 웹 접근 성향을 웹 로그 트레이스로 시뮬레이션 하여 P2P 웹 캐시가 서브넷에서도 웹 캐시로서의 효용성이 있음을 보인다. 또한 현실적인 접근법으로써 중앙 프락시 서버를 두고 P2P 웹 캐시를 사용하는 경우에도 성능상의 효용성이 있음을 기술한다.

  • PDF

Management Technique of Energy-Efficient Cache and Memory for Mobile IoT Devices (모바일 사물인터넷 디바이스를 위한 에너지 효율적인 캐시 및 메모리 관리 기법)

  • Bahn, Hyokyung
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.21 no.2
    • /
    • pp.27-32
    • /
    • 2021
  • This paper proposes an energy-efficient cache and memory management scheme for next-generation IoT devices. The proposed scheme adopts a low-power phase-change memory (PCM) as the main memory of IoT devices, aims at minimizing the write traffic to PCM, which is vulnerable to write operations. Specifically, when a cache block of the last-level cache memory is flushed to main memory, the cache block that causes less writes to PCM is preferentially replaced by tracking the modifications of each cache line that constitutes the cache block. In addition, by considering the reference bit of the cache block and the dirty bit of the cache lines, our scheme reduces the energy consumption without degrading the memory system performances. Through simulations using SPEC benchmarks, it is shown that the proposed scheme reduces the write traffic to PCM by 34.6% on average and the power consumption by 28.9%, without memory performance degradations.

Low-Power Partial Tag using Locality Buffer (지역 버퍼를 활용한 부분 태그 캐시 구조)

  • Kwak, Jong Wook;Jeon, Young Tae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.11a
    • /
    • pp.3-4
    • /
    • 2009
  • 내장형 시스템 시장의 확대는 시스템의 전체 성능 향상뿐만 아니라 전력 소모량을 줄이는 것도 고려하게 만들었다. 특히 시스템 내부적으로 많은 비중을 차지하는 캐시 시스템의 전력 소모량을 줄이는 것은 내장형 시스템 설계의 중요한 주제 가운데 하나로 부각 되었다. 본 논문에서는 태그 압축을 통한 저전력 캐시의 구현을 제안한다. 제안된 기법은 지역성이 높은 내장형 응용 프로그램의 특징을 활용한 것으로, 지역 버퍼와 태그 압축 비트를 활용하는 새로운 형태의 저전력 캐시용 태그 압축 기법이다. 모의실험 결과, 본 논문에서 제안된 기법은 시스템의 전체적인 성능 감소 없이, 기존 모델 대비 최대 27%, 평균 18%의 캐시 에너지 감소를 보였다.

Improved Cache-hot Page Allocation Technique for Reducing Page Initialization Latency of Linux Based Systems (리눅스 기반 시스템의 페이지 초기화 지연 단축을 위한 향상된 캐시-핫 페이지 할당 기법)

  • Yang, Seokwoo;Noh, Sunhyeon;Hong, Seongsoo
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.01a
    • /
    • pp.415-418
    • /
    • 2019
  • 최근 사용자 대화형(user-interactive) 응용들은 OS에게 많은 양의 메모리를 빈번하게 요구한다는 특징을 보인다. 응용의 메모리 할당 요청이 발생하면 OS는 할당할 페이지의 초기화 작업을 필수적으로 수행하는데, 빈번하게 발생하는 페이지 초기화 작업이 응용의 성능을 저하시키고 있다. 기존 리눅스 기반 시스템은 페이지 초기화 지연을 단축하기 위해 CPU의 캐시에 매핑되어 있어서 초기 값을 빠르게 쓸 수 있는 페이지인 캐시-핫(cache-hot) 페이지를 우선적으로 할당한다. 하지만 기존 리눅스는 각 코어별로 캐시-핫 페이지를 인식하고 관리하며, 다른 코어가 관리하는 캐시-핫 페이지에는 접근할 수 없다. 이러한 정책 때문에 다른 코어가 공유 캐시(shared cache)에 매핑된 캐시-핫 페이지를 관리하고 있더라도, 이를 할당받지 못하고 캐시-콜드(cache-cold) 페이지를 할당받는 경우가 발생한다. 본 논문에서는 공유 캐시에 매핑된 것으로 추정되는 캐시-핫 페이지를 별도로 인식하고 공유 캐시에 매핑된 것으로 추정되는 캐시-핫 페이지를 모든 코어가 활용할 수 있게 하여, 응용이 캐시-핫 페이지를 할당받을 확률을 기존 기법보다 높이는 향상된 캐시-핫 페이지 할당 기법을 제안한다. 제안된 기법은 페이지 할당 요청이 발생하면 먼저 각 코어의 사유 캐시에 매핑된 것으로 추정되는 캐시-핫 페이지를 우선적으로 할당하고, 할당에 실패하면 공유 캐시에 매핑된 것으로 추정되는 캐시-핫 페이지를 할당한다. 이를 통해 캐시-핫 페이지를 할당받을 확률을 기존 기법보다 높이고, 결과적으로 평균 페이지 초기화 지연을 단축한다. 제안된 기법을 리눅스 커널 4.18.10버전 기반 환경에서 구현하여 실험한 결과, 평균 페이지 초기화 지연이 기존 리눅스 시스템과 비교하여 약 7% 단축되었다.

  • PDF

A Comparison Study on Data Caching Policies of CCN (콘텐츠 중심 네트워킹의 데이터 캐시 정책 비교 연구)

  • Kim, Dae-Youb
    • Journal of Digital Convergence
    • /
    • v.15 no.2
    • /
    • pp.327-334
    • /
    • 2017
  • For enhancing network efficiency, various applications/services like CDN and P2P try to utilize content which have previously been cached somewhere. Content-centric networking (CCN) also utilizes data caching functionality. However, dislike CDN/P2P, CCN implements such a function on network nodes. Then, any intermediated nodes can directly respond to request messages for cached data. Hence, it is essential which content is cached as well as which nodes cache transmitted content. Basically, CCN propose for every nodes on the path from the content publisher of transmitted object to a requester to cache the object. However, such an approach is inefficient considering the utilization of cached objects as well as the storage overhead of each node. Hence, various caching mechanisms are proposed to enhance the storage efficiency of a node. In this paper, we analyze the performance of such mechanisms and compare the characteristics of such mechanisms. Also, we analyze content utilization patterns and apply such pattern to caching mechanisms to analyze the practicalism of the caching mechanisms.

Design of A Media Processor Equipped with Dual Cache (복수 캐시로 구성한 미디어 프로세서의 설계)

  • Moon, Hyun-Ju;Jeon, Joong-Nam;Kim, Suk-Il
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.29 no.10
    • /
    • pp.573-581
    • /
    • 2002
  • In this paper, we propose a mediaprocessor of dual-cache architecture which is composed of the multimedia data cache and the general-purpose data cache to prevent performance degradation caused by memory delay. In the proposed processor architecture, multimedia data that are written in subword instructions are loaded in the multimedia data cache and the remaining data are loaded in the general-purpose data cache. Also, Ive use multi-block prefetching scheme that fetches two consecutive data blocks into a cache at a time to exploit the locality of multimedia data. Experimental results on MPEG and JPEG benchmark programs show that the proposed processor architecture results in better performance than the processor equipped with single data cache.

Dynamic Hashing Method for A Wireless Internet Proxy Server Cluster (무선 인터넷 프록시 서버 클러스터를 위한 동적 해싱 기법)

  • Kwak, Hu-Keun;Chung, Kyu-Sik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10a
    • /
    • pp.526-531
    • /
    • 2006
  • 무선 인터넷 프록시 서버 클러스터는 성능 및 저장 공간의 확장성이 보장되어야 한다. 일반적으로 사용되는 RR 스케줄링의 경우 성능의 확장성은 보장되지만, 요청 URL 데이터의 중복 저장으로 인해 저장 공간의 확장성이 없는 단점을 가진다. 또한 저장 공간의 확장성을 위해 많이 사용되는 해싱 스케줄링의 경우, 요청 URL이 캐시 서버에 고정되어 있어 사용자의 요청 패턴 혹은 Hot-Spot 시에 성능의 확장성이 없는 단점을 가진다. 이에 본 논문에서는 성능 및 저장 공간의 확장성을 보장하는 새로운 동적 해싱 기법을 제안한다. 제안된 동적 해싱 기법은 캐시 서버의 부하 상태에 따라 요청 URL을 캐시 서버들 사이로 이동함으로써 사용자의 요청 패턴 혹은 Hot-Spot 시에 성능의 확장성을 보장한다. 제안된 방법은 16대의 컴퓨터를 사용하여 실험을 수행하였고, 실험 결과를 통해 제안된 방법이 기존 방법에 비해 성능 및 저장 공간의 확장성을 보장함을 확인하였다.

  • PDF

Improving Instruction Cache Performance by Dynamic Management of Cache-Image (캐시 이미지의 동적 관리 방법을 이용한 명령어 캐시 성능 개선)

  • Suh, Hyo-Joong
    • KIISE Transactions on Computing Practices
    • /
    • v.23 no.9
    • /
    • pp.564-571
    • /
    • 2017
  • The burst loading of a pre-created cache-image is an effective method to reduce the instruction cache misses in the early stage of the program execution. It is useful to alleviate the performance degradation as well as the energy inefficiency, which is induced by the concentrated cold misses at the instruction cache. However, there are some defects, including software overhead on the compiler and installer. Furthermore, there are several mismatches as a result of the dynamic properties for specific applications. This paper addresses these issues and proposes a cache-image maintenance/recreation policy that can conduct dynamic management using a hardware-assisted method. The results of the simulation show that the proposed method can maintain the cache-image with a proper size and validity.

Dead Block-Aware Adaptive Write Scheme for MLC STT-MRAM Caches

  • Hong, Seokin
    • Journal of the Korea Society of Computer and Information
    • /
    • v.25 no.3
    • /
    • pp.1-9
    • /
    • 2020
  • In this paper, we propose an efficient adaptive write scheme that improves the performance of write operation in MLC STT-MRAM caches. The key idea of the proposed scheme is to perform the write operation fast if the target MLC STT-MRAM cells contain a dead block. Even if the fast write operation on the MLC STT-MRAM evicts a cache block from the MLC STT-MRAM cells, its performance impact is low if the evicted block is a dead block which is not used in the future. Through experimental evaluation with a memory simulator, we show that the proposed adaptive write scheme improves the performance of the MLC STT-MRAM caches by 17% on average.

Cache Policies for Multimedia Web Server (멀티미디어 웹 서비스를 위한 캐시 정책)

  • 최영주;임재현;김치수;이준연
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2003.11a
    • /
    • pp.379-382
    • /
    • 2003
  • 본 논문에서는 멀티미디어 웹 서버에 나타나는 통신량을 추적하여 사용자의 액세스 패턴을 분석하고 그에 따른 캐싱 모델을 수립하였다. 적중률과 바이트적중률을 동시에 향상시키기 위한 파일 타입 캐시 정책을 제안하였으며, 성능을 평가한 결과 캐시의 유용성을 개선하였다.

  • PDF