• Title/Summary/Keyword: Cache Hit-Rate

Search Result 58, Processing Time 0.044 seconds

Neighbor Cooperation Based In-Network Caching for Content-Centric Networking

  • Luo, Xi;An, Ying
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권5호
    • /
    • pp.2398-2415
    • /
    • 2017
  • Content-Centric Networking (CCN) is a new Internet architecture with routing and caching centered on contents. Through its receiver-driven and connectionless communication model, CCN natively supports the seamless mobility of nodes and scalable content acquisition. In-network caching is one of the core technologies in CCN, and the research of efficient caching scheme becomes increasingly attractive. To address the problem of unbalanced cache load distribution in some existing caching strategies, this paper presents a neighbor cooperation based in-network caching scheme. In this scheme, the node with the highest betweenness centrality in the content delivery path is selected as the central caching node and the area of its ego network is selected as the caching area. When the caching node has no sufficient resource, part of its cached contents will be picked out and transferred to the appropriate neighbor by comprehensively considering the factors, such as available node cache, cache replacement rate and link stability between nodes. Simulation results show that our scheme can effectively enhance the utilization of cache resources and improve cache hit rate and average access cost.

최신 마이크로프로세서에서 2차 캐쉬 적중률 증가를 고려한 LU-SGS 코드의 가속 (Acceleration of LU-SGS Code on Latest Microprocessors Considering the Increase of Level 2 Cache Hit-Rate)

  • 최정열;오세종
    • 한국항공우주학회지
    • /
    • 제30권7호
    • /
    • pp.68-80
    • /
    • 2002
  • 최신 마이크로프로세서에서 성능 최적화된 수치 코드를 작성하는 접근법을 제시하였다. 국소화로 지칭한 이 코드 최적화 방법은 모든 최신 마이크로프로세서에서 채용되는 2차 캐시의 사용을 최대화하고 시스템의 주기억장치에 대한 접근을 최소화하는 개념이다. 본 연구에서는 유체역학 문제의 해결을 위한 LU-SGS 해법을 3 단계에 걸쳐 국소화 하였으며, 요즈음 널리 이용되고 있는 여러 가지 마이크로프로세서들에 대해 시험을 수행하였다. 국소 최적화 개념의 시험 결과는, 컴퓨터 시스템에 따라서는, 같은 컴퓨터에서 완전히 동일한 해를 기본 알고리즘에 비해 7.35배까지 빨리 얻을 수 있는 주목할 만한 성능을 보여 주었다.

고성능 DSP에서 동영상 인코더의 최적화 구현을 위한 캐쉬 및 내부 메모리 성능 분석 (Performance Analysis of Cache and Internal Memory of a High Performance DSP for an Optimal Implementation of Motion Picture Encoder)

  • 임세훈;정선태
    • 한국콘텐츠학회논문지
    • /
    • 제8권5호
    • /
    • pp.72-81
    • /
    • 2008
  • 고성능 DSP는 보통 캐쉬와 내부 메모리를 지원한다. 이러한 고성능 DSP에 멀티미디어 스트림 응용을 최적화하여 구현하고자 하는 경우에는, DSP 가 지원하는 캐쉬와 내부 메모리를 효율적으로 잘 활용하여야 한다. 본 논문에서는 2단계 레벨 캐쉬 구조 및 내부 메모리 구성을 지원하는 고성능 DSP인 TMS320C6000 시리즈에 대해 동영상 인코더와 같은 멀티미디어 스트림 처리 응용을 최적으로 구현하기 위해서 필요한 캐쉬 성능 분석, 내부 메모리 구성 및 배치에 따른 성능 분석과 개선 방안에 대해 연구하였다. 분석 및 실험 결과, L2 메모리의 경우, 이중 집합연관 캐쉬로 구성하고, 남은 메모리는 내부 메모리로 구성하는 것이 수행 시간 성능 개선에 효과적임을 확인하였다. 또한, L1P 캐쉬의 경우는 자주 호출되고 시간이 많이 소요되는 루틴들을 연속적으로 내부 메모리에 배치하는 것이 L1P 캐쉬의 히트 율을 개선하며, L1D 캐쉬의 경우는 사용하는 데이터의 크기를 조절하므로 써 쉽게 히트 율을 개선할 수 있다는 것을 밝혔다. 본 논문의 연구 결과는 고성능 DSP 에 멀티미디어 스트림 처리 응용을 최적화로 구현하는데 도움을 줄 것으로 기대한다.

Forecasting Load Balancing Method by Prediction Hot Spots in the Shared Web Caching System

  • Jung, Sung-C.;Chong, Kil-T.
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.2137-2142
    • /
    • 2003
  • One of the important performance metrics of the World Wide Web is how fast and precise a request from users will be serviced successfully. Shared Web Caching (SWC) is one of the techniques to improve the performance of the network system. In Shared Web Caching Systems, the key issue is on deciding when and where an item is cached, and also how to transfer the correct and reliable information to the users quickly. Such SWC distributes the items to the proxies which have sufficient capacity such as the processing time and the cache sizes. In this study, the Hot Spot Prediction Algorithm (HSPA) has been suggested to improve the consistent hashing algorithm in the point of the load balancing, hit rate with a shorter response time. This method predicts the popular hot spots using a prediction model. The hot spots have been patched to the proper proxies according to the load-balancing algorithm. Also a simulator is developed to utilize the suggested algorithm using PERL language. The computer simulation result proves the performance of the suggested algorithm. The suggested algorithm is tested using the consistent hashing in the point of the load balancing and the hit rate.

  • PDF

동적 디렉터리 테이블 : 공유 캐시 블록의 디렉터리 엔트리 동적 할당 (Dynamic Directory Table: On-Demand Allocation of Directory Entries for Active Shared Cache Blocks)

  • 배한준;최린
    • 정보과학회 논문지
    • /
    • 제44권12호
    • /
    • pp.1245-1251
    • /
    • 2017
  • 디렉터리 기반의 캐시 일관성 유지 프로토콜을 사용하는 멀티 코어 시스템은 성능 향상을 위해 더 많은 코어를 집적하려 하지만 캐시 일관성 유지를 위한 오버헤드가 커져 코어 수를 늘리는 데에 제한이 생긴다. 기존의 연구들은 주로 디렉터리 엔트리의 크기를 줄이는 데에 집중하고 있다. 이 논문에서는 캐시 블록이 두 개 이상의 코어에 의해 공유될 때에 디렉터리 엔트리를 동적으로 할당하는 디렉터리 구조를 제안한다. 이에 따라 하나의 코어에 의해서만 접근되는 블록들에 대해 디렉터리 정보를 관리하지 않음으로써 디렉터리 엔트리의 수를 줄일 수 있다. 우리는 PARSEC 벤치마크에서의 시뮬레이션을 통해 풀맵에 비해 훨씬 적은 수의 디렉터리 엔트리에서 높은 DDT hit rate을 가져 shared cache의 디렉터리 정보를 충분히 관리할 수 있음을 확인함과 동시에 풀맵과 비슷한 성능으로 디렉터리의 크기를 풀맵 대비 17.84%까지 줄일 수 있음을 확인했다.

재구성 가능한 라스트 레벨 캐쉬 구조를 위한 코어 인지 캐쉬 교체 기법 (Core-aware Cache Replacement Policy for Reconfigurable Last Level Cache)

  • 손동오;최홍준;김종면;김철홍
    • 한국컴퓨터정보학회논문지
    • /
    • 제18권11호
    • /
    • pp.1-12
    • /
    • 2013
  • 멀티코어 프로세서에서 라스트 레벨 캐쉬는 코어와 메모리의 속도 차이를 줄여주는 역할을 하는 중요한 하드웨어 자원이다. 때문에 라스트 레벨 캐쉬의 효율적인 관리는 프로세서의 성능에 큰 영향을 미친다. 라스트 레벨 캐쉬를 구성하는 공유/비공유 캐쉬는 코어들이 공유하는 데이터와 각 코어의 독립된 데이터를 각각 적재한다. 최근 많은 연구를 통해 라스트 레벨 캐쉬 관리기법이 연구되었지만 주로 공유 캐쉬에 대한 연구만 이뤄지고 있으며 라스트 레벨 캐쉬의 비공유 캐쉬에 대한 연구는 아직 미약하다. 라스트 레벨 캐쉬의 비공유 캐쉬는 각 코어에 동일한 영역이 할당되기 때문에 코어별 작업량이 다를 경우 캐쉬 관리가 효과적이지 않다. 본 논문에서는 라스트 레벨 캐쉬 중 비공유 캐쉬의 효율적인 관리를 위해 코어 인지 캐쉬 교체 기법을 제안한다. 제안된 코어 인지 캐쉬 교체 기법은 비공유 캐쉬를 동적으로 재구성함으로써, 라스트 레벨 캐쉬의 적중률을 향상시킨다. 또한, 우리는 캐쉬 교체 기법의 성능 향상을 위해 2비트 포화 카운터를 적용하였다. 실험 결과 기존의 교체 기법과 비교하여 9.23%의 적중률 향상과 12.85%의 라스트 레벨 캐쉬 접근 시간 감소의 효과가 있었다.

A Video Cache Replacement Scheme based on Local Video Popularity and Video Size for MEC Servers

  • Liu, Pingshan;Liu, Shaoxing;Cai, Zhangjing;Lu, Dianjie;Huang, Guimin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권9호
    • /
    • pp.3043-3067
    • /
    • 2022
  • With the mobile traffic in the network increases exponentially, multi-access edge computing (MEC) develops rapidly. MEC servers are deployed geo-distribution, which serve many mobile terminals locally to improve users' QoE (Quality of Experience). When the cache space of a MEC server is full, how to replace the cached videos is an important problem. The problem is also called the cache replacement problem, which becomes more complex due to the dynamic video popularity and the varied video sizes. Therefore, we proposed a new cache replacement scheme based on local video popularity and video size to solve the cache replacement problem of MEC servers. First, we built a local video popularity model, which is composed of a popularity rise model and a popularity attenuation model. Furthermore, the popularity attenuation model incorporates a frequency-dependent attenuation model and a frequency-independent attenuation model. Second, we formulated a utility based on local video popularity and video size. Moreover, the weights of local video popularity and video size were quantitatively analyzed by using the information entropy. Finally, we conducted extensive simulation experiments based on the proposed scheme and some compared schemes. The simulation results showed that our proposed scheme performs better than the compared schemes in terms of hit rate, average delay, and server load under different network configurations.

고성능 데이터 캐시 메모리 구조 (High Performance Data Cache Memory Architecture)

  • 김홍식;김정길
    • 한국산학기술학회논문지
    • /
    • 제9권4호
    • /
    • pp.945-951
    • /
    • 2008
  • 공간적 지역성(spatial locality) 및 시간적 지역성(temporal locality)을 동시에 향상시킬 수 있는 새로운 고성능 데이터 캐시 구조를 제안한다. 제안된 캐시 메모리는 하드웨어 프리패치 유닛과 큰 블록 크기를 갖는 직접사상(DM: direct mapped) 캐시와 작은 블록 크기를 갖는 완전 사상(FA: fully associative) 캐시의 하위 캐시 유닛으로 구성된다. 공간적 지역성은 블록 데이터를 패치하여 직접 사상 캐시에 저장함으로써 보장되며, DM 캐시 히트가 발생한 경우에 그 이웃 데이터 블록을 프리패치 함으로써 최적화 된다. 시간적 지역성은 작은 블록 데이터가 DM 캐시로부터 제거 될때 그 블록의 과거 기록에 따라서 중요한 데이터는 완전사상 캐시에 저장함으로써 보장된다. Spec2000 벤치 마크 프로그램에 대한 실험 결과에 의하면 제안된 캐시 구조는 비슷한 크기의 직접사상 캐쉬, 4웨이 연관사상(4 way set associative cache) 및 SMI(selective-mode intelligent cache) 캐쉬 [8]등의 기존의 구조에 비해서 미스 비율(miss rate)을 평균적으로 $12.53\sim23.62%$ 그리고 AMAT(average memory access time)를 평균적으로 $14.67\sim18.60%$ 줄일 수 있음을 증명하였다.

동적 공간분배에 의한 적응형 웹캐시 대체정책 (Adaptive Web Cache Replacement Policy using Dynamic Distribution of Partitions in Proxy Server)

  • 이수행;정진하;최상방
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (3)
    • /
    • pp.643-645
    • /
    • 2001
  • 인터넷이라는 환경이 우리의 생활의 일부로 자리잡으면서, 급속히 늘어난 사용자들의 요구는 그 만큼 네트워크의 현저한 부하증가를 일으키고 네트워크의 성능저하를 유발하며 속도 면에서도 빠른 응답을 원하는 사용자들의 욕구를 충족시키지 못하게 된다. 이에 대한 하나의 대응책이, 프락시 서버를 사용함으로써 네트워크 대역폭을 효과적으로 절약하고 서버 측의 부하를 감소시키며 사용자의 요청에 대한 빠른 응답이 가능하게 하는 것이다. 그러나 프락시 서버는 제한된 캐시용량 때문에 새 개체를 위한 공간확보를 위해 기존 개체를 제거해야 하는데, 캐시의 성능을 최대화하도록 하는 효율적인 캐시대체 정책이 필요하다. 기존의 대체정책이 캐시성능판단의 두 기준인 히트율(Hit Rate)과 바이트히트율(Byte Hit Rate)을 만족시키지 못하던지 흑은 불필요한 개체에 공간을 낭비하는 등 최대한치 공간활용을 못하는 단점을 가지고 있다. 본 논문에서는 캐시를 상위층과 하위충의 2단계로 나누어 운용하면서, 상위층은 분할된 여러개의 파티션으로 관리하여 히트율과 바이트율을 높게 유지하고 하위층은 상위의 각각의 파티션들에 추가적으로 필요한 캐시공간을 제공함으로서 동적인 파티션공간분할 효과를 제공하는 프락시 서버의 캐시구조와 캐시대체정책을 제안한다.

  • PDF

Write Back 모드용 FIFO 버퍼 기능을 갖는 비동기식 데이터 캐시 (Design of an Asynchronous Data Cache with FIFO Buffer for Write Back Mode)

  • 박종민;김석만;오명훈;조경록
    • 한국콘텐츠학회논문지
    • /
    • 제10권6호
    • /
    • pp.72-79
    • /
    • 2010
  • 본 논문에서는 32bit 비동기 임베디드 프로세서용 쓰기 버퍼 기능을 갖는 데이터 캐시 구조를 제안하고 성능을 검증하였다. 데이터 캐시는 비동기 시스템에서 메인 메모리 장치와 프로세서 사이의 데이터 처리속도 향상을 목적으로 한다. 제안된 데이터 캐시의 메모리 크기는 8KB, 매핑 방식으로는 4 words(16byte)의 라인 크기를 가지며, 사상 기법으로는 4 way set associative, 교체 알고리즘으로는 pusedo LRU방식을 사용하였으며, 쓰기 정책을 위한 dirty 레지스터와 쓰기 버퍼를 적용시켰다. 설계한 데이터 캐시는 $0.13-{\mu}m$ CMOS공정으로 합성하였으며, MI벤치마크 검증 결과 평균 히트율은 94%이고 처리 속도가 46% 향상되었다.