• Title/Summary/Keyword: 캐시 교체 정책

Search Result 43, Processing Time 0.046 seconds

Delay Attenuation LFU (DA-LFU) Cache Replacement Policy to Improve Hit Rates in CCN (CCN에서 적중률 향상을 위한 지연감쇠 LFU(DA-LFU) 캐시 교체 정책)

  • Ban, Bin;Kwon, Tae-Wook
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.9 no.3
    • /
    • pp.59-66
    • /
    • 2020
  • Content Centric Network(CCN) with architecture that is completely different from traditional host-based networks has emerged to address problems such as the explosion of traffic load in the current network. Research on cache replacement policies is very active to improve the performance of CCN with the characteristics that all routers cache on the network. Therefore, this paper proposes a cache replacement policy suitable for situations in which popularity is constantly changing, taking into account the actual network situation. In order to evaluate the performance of the proposed algorithm, we experimented in an environment where the popularity of content is constantly changing, and confirmed that we are superior to the existing replacement policy through comparing hit rates and analyzing server load.

Advanced Replacement Policy Algorithm for Web Caching (웹 캐싱을 위한 개선된 교체 정책 알고리즘)

  • 김현섭;홍영식
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10a
    • /
    • pp.352-354
    • /
    • 2003
  • 인터넷 사용의 급격한 증가로 인해 웹 정보의 양적 팽창과 더불어 네트워크 병목현상과 웹 서버의 과부하 문제가 증가함에 따라 사용자의 접근 지연시간도 증가하게 되었다. 이러한 접근 지연 시간을 줄이는 방안으로 프록시 캐싱(Proxy Caching)이 사용되었고, 효율적인 프록시 서버 캐시 운영을 위한 캐시 교체정책에 관한 연구가 많이 진행되어 지고 있다. 따라서, 본 논문에서는 서버의 오버헤드를 줄이면서, 캐시에 저장되어 있는 오브젝트를 요청한 클라이언트에게 짧은 지연시간에 전달하고자 하는 개선된 교체 정책 알고리즘을 제안하고 실험을 통해 성능을 평가한다.

  • PDF

Cooperative Cache Replacement Policy based on Object Size in Mobile P2P Environment (모바일 P2P 환경에서 객체 크기 기반의 협력적인 캐시 교체 정책)

  • Park Kyo-Sung;Song Jin-Woo;Yang Sung-Bong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.1135-1138
    • /
    • 2006
  • 최근 모바일 환경에서의 P2P 협력적인 캐싱 기술에 대한 연구가 활발히 이루어지고 있다. 모바일 P2P 협력적인 캐싱이란 객체를 요청한 피어의 전파 범위 안에 있는 다른 피어들을 찾아 원하는 데이터가 있는지 살펴본 후 원하는 데이터가 주변 피어에 없을 때에만 서버에 요청을 보내는 방식으로 데이터 탐색 성능 개선과 제한된 피어의 저장 공간을 효율적으로 이용할 수 있는 장점이 있다. 본 논문에서는 모바일 P2P 네트워크 환경에서 이동성을 가진 피어의 저장 공간을 효과적으로 이용하기 위한 객체 크기 기반 P2P 협력적인 캐시 교체 정책을 제안하고자 한다. 가까운 위치 좌표를 가진 피어들을 하나의 그룹으로 묶은 그룹 기반의 모델링 환경에서 객체의 크기에 따른 캐시 교체 정책을 실제 웹 로그 트레이스에 적용하여 실험하였다. 실험 결과, 제안하는 교체 정책이 기존의 교체 정책들과 비교하여 더 우수한 성능을 보였다.

  • PDF

Proxy Cache Replacement Policy reflecting Network Transmission Costs in Web and Multimedia Environments (웹과 멀티미디어 요청이 혼재한 환경에서 네트워크 전송 비용을 고려한 프락시 캐시 교체 정책)

  • 서진모;강지숙;남동훈;박승규
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04a
    • /
    • pp.10-12
    • /
    • 2002
  • 사용자의 요구와 인터넷 어플리케이션의 발달로 규모가 큰 미디어 오브젝트의 수가 급증하고 있다. 따라서 네트워크 전송비용은 반드시 고려해야 하는 중요한 요소이다. 본 논문에서는 기존 프락시 캐시 교체 정책들을 분석하고, 이를 개선한 G-N 및 L-N 정책을 제안한다. 이것은 프락시 캐시 소프트웨어인 'Squid'에서 채택하고있는 GDSF와 LFU-DA 정책에 네트워크 전송 비용을 추가하여 확장한 알고리즘이다. 시뮬레이션을 통하여 기존의 알고리즘과 비교해 본 결과, 평균 응답 시간을 10%이상 감소시킬 수 있었으며, 추가로 드는 비용(Processing Overhead)은 3게 증가하지 아니 하였음을 확인하였다.

  • PDF

Efficient Cache Replacement Policy over CCN With SVC Video Streaming (CCN 환경에서의 SVC 비디오 스트리밍을 위한 캐시 교체 정책에 관한 연구)

  • Lim, Kyu-Bo;Lee, Jung-Hwan;Yoo, Chuck
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06d
    • /
    • pp.235-237
    • /
    • 2012
  • 오늘날 인터넷 사용자들의 관심을 컨텐츠가 저장되어 있는 장치가 아닌 컨텐츠 자체로 변경되었다. 이로 인해 기존의 인터넷 구조와 사용자의 새로운 성향 간의 충돌이 발생한다. 이러한 문제를 해결하기 위하여 컨텐츠의 이름을 주소체계 기반으로 사용하는 CCN(Contents-Centric Networking)이 만들어 졌다. 본 연구에는 CCN과 같은 네트워크 캐시가 있는 환경에서 계층적 비디오 스트리밍의 성능을 향상시킬 수 있는 새로운 캐시 교체 알고리즘을 CCN 노드에 적용하였다. 기존의 FIFO 캐시 교체 알고리즘 사용시와 새로운 캐시 교체 알고리즘 적용시의 캐시 효율성 비교를 통하여 CCN 네트워크 상에서 계층적 비디오 스트리밍의 효율이 향상될 수 있음을 보인다.

Design of a Replacement Poloicy for WWW Proxy Cache using Genetic Algorithm (유전 알고리즘을 이용한 웹프락시 캐시의 교체 정책 설계)

  • Ban, Hyo-Gyeong;Jo, Gyeong-Un;Go, Geon;Mun, Byeong-Ro
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.26 no.6
    • /
    • pp.729-741
    • /
    • 1999
  • WWW의 사용량이 대단히 빠르게 늘어남에 따라 웹 프락시 서버의 캐싱 기능은 그 중요성이 날로 증가하고 있다. 본 논문에서는 이러한 웹 프락시 캐시의 교체 정책을 웹 요구의 특성과 프락시 서버환경자체를 고려하여 주어진 환경에 맞는 교체 정책이 되도록 유전 알고리즘을 사용하여 설계하는 방법을 제시하였다. 이 방법은 대부분의 기존 연구에서처럼 특정한 교체 정책 자체를 제시하는 것이 아니라, 주어진 프락시 환경에 적합한 교체 정책을 동적으로 설계할 수 있는 방법을 제시한다는 점메서 기존의 연구보다 일반성이 높다.

A Study on Performance and Area Comparison according to cache replacement policy (캐시 교체 정책에 따른 성능 및 면적 비교 연구)

  • Sang-Won Jo;Hyunjin Park
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.1127-1128
    • /
    • 2023
  • 캐시는 현대 컴퓨터 시스템에서 중요한 성능 개선 요소 중 하나로, 효율적인 데이터 저장 및 액세스를 보장한다. 교체 정책은 캐시의 한정된 용량 내에서 어떤 데이터를 보관하고 어떤 데이터를 대체할지 결정하는 데 중요한 역할을 한다. 이 논문은 Pseudo LRU 와 LRU 교체 정책을 대상으로 cache 에서의 throughput 과 gate count 를 각각 비교한다. LRU 방식을 적용한 cache 와 Pseudo LRU 방식을 적용한 cache 는 Locality 0 과 100 에서 0.001GB/s 미만의 차이를 보이며 각각 0.095GB/s, 0.211GB/s 로 동일했으며 Gate Count 는 각각 134,516 과 130,016 으로 4500 의 감소 효과가 있었다.

A Real-time Content Popularity-Based Cache Policy in Content Centric Network (CCN에서 실시간 콘텐츠 인기도 기반 캐시 정책)

  • Min-Keun Seo;Tae-Wook Kwon
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.18 no.6
    • /
    • pp.1095-1102
    • /
    • 2023
  • Content Centric Network (CCN) is a network that emerged to improve the existing network structure and communicates based on content names instead of addresses. It utilises caches to distribute traffic and reduce response time by delivering content from intermediate nodes. In this paper, we propose a popularity-based caching policy to efficiently utilise the limited CS space in CCN environment. The performance of CCNs can vary significantly depending on which content is prioritised to be stored and released. To achieve the most efficient cache replacement, we propose a real-time content popularity-based efficient cache replacement policy that calculates and prioritises content popularity based on constructor popularity, constructor distance, and content hits, and demonstrate the effectiveness of the new policy through experiments.

Design of Push Agent Model Using Dual Cache for Increasing Hit-Ratio of Data Search (데이터 검색의 적중률 향상을 위한 이중 캐시의 푸시 에이전트 모델 설계)

  • Kim Kwang-jong;Ko Hyun;Kim Young-ja;Lee Yon-sik
    • Journal of the Korea Society of Computer and Information
    • /
    • v.10 no.6 s.38
    • /
    • pp.153-166
    • /
    • 2005
  • Existing single cache structure has shown difference of hit-ratio according to individually replacement strategy However. It needs new improved cache structure for reducing network traffic and providing advanced hit-ratio. Therefore, this Paper design push agent model using dual cache for increasing hit-ratio by reducing server overload and network traffic by repetition request of persistent and identical information. In this model proposes dual cache structure to do achievement replace gradual cache using by two caches storage space for reducing server overload and network traffic. Also, we show new cache replace techniques and algorithms which executes data update and delete based on replace strategy of Log(Size) +LRU, LFU and PLC for effectiveness of data search in cache. And through an experiment, it evaluates Performance of dual cache push agent model.

  • PDF

Remote Cache Replacement Policy based on Processor Locality (프로세서 지역성에 기반 한 원격 캐시 교체 정책)

  • 한상윤;곽종옥;전주식
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10a
    • /
    • pp.4-6
    • /
    • 2004
  • 본 논문에서는 원격 캐쉬를 추가시킨 분산 메모리 구조 다중 프로세서 시스템의 성능 향상을 위해 새로운 원격 캐쉬 교체 정색을 제안한다. 일반적으로 다중 계층 내포성(MLI)을 치키는 다중 계층 메모리 구조에서 LRU 교체 정책을 사용할 경우, 상위 계층 캐쉬의 LRU 정보와 하위 계층 캐쉬의 LRU 정보가 서로 상이함으로 인해 하위 계층 캐쉬에서의 교체가 상위 계층에서 사용 중인 캐처 라인의 교체를 발생시켜 전체 시스템의 성능을 저하시키는 원인이 된다. 이러한 LRU 캐쉬 교체 정책의 단점을 보완하고자 각 노드 당 프로세서들의 원격 메모리 접근 지역성을 이용한 원격 캐쉬 교체정책의 사용으로 상위 캐쉬의 유용한 캐쉬 라인의 접근 실패율을 감소시킴으로써 다중 프로세서 시스템의 성능 향상을 꾀한다. 프로그램 기반 시뮬레이터를 통해 제안한 원격 캐쉬 교체 정책을 적용하였을 때, 기존의 LRU 교체 정책과 비교하여 무효화 수와 캐쉬 접근 실패가 평균 5%. 최대 10% 감소하였다.

  • PDF