• Title/Summary/Keyword: 캐시 정책

Search Result 84, Processing Time 0.052 seconds

Cooperative Cache Replacement Policy based on Object Size in Mobile P2P Environment (모바일 P2P 환경에서 객체 크기 기반의 협력적인 캐시 교체 정책)

  • Park Kyo-Sung;Song Jin-Woo;Yang Sung-Bong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.1135-1138
    • /
    • 2006
  • 최근 모바일 환경에서의 P2P 협력적인 캐싱 기술에 대한 연구가 활발히 이루어지고 있다. 모바일 P2P 협력적인 캐싱이란 객체를 요청한 피어의 전파 범위 안에 있는 다른 피어들을 찾아 원하는 데이터가 있는지 살펴본 후 원하는 데이터가 주변 피어에 없을 때에만 서버에 요청을 보내는 방식으로 데이터 탐색 성능 개선과 제한된 피어의 저장 공간을 효율적으로 이용할 수 있는 장점이 있다. 본 논문에서는 모바일 P2P 네트워크 환경에서 이동성을 가진 피어의 저장 공간을 효과적으로 이용하기 위한 객체 크기 기반 P2P 협력적인 캐시 교체 정책을 제안하고자 한다. 가까운 위치 좌표를 가진 피어들을 하나의 그룹으로 묶은 그룹 기반의 모델링 환경에서 객체의 크기에 따른 캐시 교체 정책을 실제 웹 로그 트레이스에 적용하여 실험하였다. 실험 결과, 제안하는 교체 정책이 기존의 교체 정책들과 비교하여 더 우수한 성능을 보였다.

  • PDF

A Comparison Study on Data Caching Policies of CCN (콘텐츠 중심 네트워킹의 데이터 캐시 정책 비교 연구)

  • Kim, Dae-Youb
    • Journal of Digital Convergence
    • /
    • v.15 no.2
    • /
    • pp.327-334
    • /
    • 2017
  • For enhancing network efficiency, various applications/services like CDN and P2P try to utilize content which have previously been cached somewhere. Content-centric networking (CCN) also utilizes data caching functionality. However, dislike CDN/P2P, CCN implements such a function on network nodes. Then, any intermediated nodes can directly respond to request messages for cached data. Hence, it is essential which content is cached as well as which nodes cache transmitted content. Basically, CCN propose for every nodes on the path from the content publisher of transmitted object to a requester to cache the object. However, such an approach is inefficient considering the utilization of cached objects as well as the storage overhead of each node. Hence, various caching mechanisms are proposed to enhance the storage efficiency of a node. In this paper, we analyze the performance of such mechanisms and compare the characteristics of such mechanisms. Also, we analyze content utilization patterns and apply such pattern to caching mechanisms to analyze the practicalism of the caching mechanisms.

Caching Proxy Technique for the World Wide Web (웹 환경에서의 캐시 프록시 기술)

  • Im, Yeon-Ho;Park, Chan-Beom
    • Electronics and Telecommunications Trends
    • /
    • v.12 no.1 s.43
    • /
    • pp.63-71
    • /
    • 1997
  • 웹 이용자가 폭발적으로 증가함에 따라 여러가지 기술적으로 대처해야 할 문제점들이 대두되고 있다. 웹 서버에 접근하는 클라이언트 요구가 급증하면 이에 따라 많은 비용을 들여 네트워크 대역폭과 서버의 처리능력을 확장하지 않으면 안된다. 이러한 문제들을 적은 비용으로 해결할 수 있는 가장 좋은 방법은 캐시를 이용하는 것이다. 캐시는 서버 및 네트워크 부하를 경감시키고, 사용자가 웹 서버로부터 문서를 가져오는 데 걸리는 시간을 현격히 감소시킨다. 최근 네트워크상에 프록시 서버를 설치하고 이 곳에 캐시를 두는 캐시 프록시에 관한 연구가 다각도로 이루어지고 있다. 본 고에서는 캐시의 일치성 유지, 삭제 정책 및 다중 캐시 구성 등 캐시 프록시에 관한 주요 기술적 이슈를 살펴보고 앞으로 해결해야 할 과제에 대해서 고찰하였다.

Improved Cache-hot Page Allocation Technique for Reducing Page Initialization Latency of Linux Based Systems (리눅스 기반 시스템의 페이지 초기화 지연 단축을 위한 향상된 캐시-핫 페이지 할당 기법)

  • Yang, Seokwoo;Noh, Sunhyeon;Hong, Seongsoo
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.01a
    • /
    • pp.415-418
    • /
    • 2019
  • 최근 사용자 대화형(user-interactive) 응용들은 OS에게 많은 양의 메모리를 빈번하게 요구한다는 특징을 보인다. 응용의 메모리 할당 요청이 발생하면 OS는 할당할 페이지의 초기화 작업을 필수적으로 수행하는데, 빈번하게 발생하는 페이지 초기화 작업이 응용의 성능을 저하시키고 있다. 기존 리눅스 기반 시스템은 페이지 초기화 지연을 단축하기 위해 CPU의 캐시에 매핑되어 있어서 초기 값을 빠르게 쓸 수 있는 페이지인 캐시-핫(cache-hot) 페이지를 우선적으로 할당한다. 하지만 기존 리눅스는 각 코어별로 캐시-핫 페이지를 인식하고 관리하며, 다른 코어가 관리하는 캐시-핫 페이지에는 접근할 수 없다. 이러한 정책 때문에 다른 코어가 공유 캐시(shared cache)에 매핑된 캐시-핫 페이지를 관리하고 있더라도, 이를 할당받지 못하고 캐시-콜드(cache-cold) 페이지를 할당받는 경우가 발생한다. 본 논문에서는 공유 캐시에 매핑된 것으로 추정되는 캐시-핫 페이지를 별도로 인식하고 공유 캐시에 매핑된 것으로 추정되는 캐시-핫 페이지를 모든 코어가 활용할 수 있게 하여, 응용이 캐시-핫 페이지를 할당받을 확률을 기존 기법보다 높이는 향상된 캐시-핫 페이지 할당 기법을 제안한다. 제안된 기법은 페이지 할당 요청이 발생하면 먼저 각 코어의 사유 캐시에 매핑된 것으로 추정되는 캐시-핫 페이지를 우선적으로 할당하고, 할당에 실패하면 공유 캐시에 매핑된 것으로 추정되는 캐시-핫 페이지를 할당한다. 이를 통해 캐시-핫 페이지를 할당받을 확률을 기존 기법보다 높이고, 결과적으로 평균 페이지 초기화 지연을 단축한다. 제안된 기법을 리눅스 커널 4.18.10버전 기반 환경에서 구현하여 실험한 결과, 평균 페이지 초기화 지연이 기존 리눅스 시스템과 비교하여 약 7% 단축되었다.

  • PDF

A Study on Performance and Area Comparison according to cache replacement policy (캐시 교체 정책에 따른 성능 및 면적 비교 연구)

  • Sang-Won Jo;Hyunjin Park
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.1127-1128
    • /
    • 2023
  • 캐시는 현대 컴퓨터 시스템에서 중요한 성능 개선 요소 중 하나로, 효율적인 데이터 저장 및 액세스를 보장한다. 교체 정책은 캐시의 한정된 용량 내에서 어떤 데이터를 보관하고 어떤 데이터를 대체할지 결정하는 데 중요한 역할을 한다. 이 논문은 Pseudo LRU 와 LRU 교체 정책을 대상으로 cache 에서의 throughput 과 gate count 를 각각 비교한다. LRU 방식을 적용한 cache 와 Pseudo LRU 방식을 적용한 cache 는 Locality 0 과 100 에서 0.001GB/s 미만의 차이를 보이며 각각 0.095GB/s, 0.211GB/s 로 동일했으며 Gate Count 는 각각 134,516 과 130,016 으로 4500 의 감소 효과가 있었다.

IT-based Technology An Efficient Global Buffer Management ,algorithm for SAN Environments (SAN 환경을 위한 효율적인 전역버퍼 관리 알고리즘)

  • 이석재;박새미;송석일;유재수;이장선
    • The Journal of the Korea Contents Association
    • /
    • v.4 no.3
    • /
    • pp.71-80
    • /
    • 2004
  • In distributed file-systems, cooperative caching algorithm which owns the data cached at each node jointly is used to reduce an expense of disk access. Cooperative caching algorithm is the method that increases a cache hit-ratio and decrease a disk access as it holds the cache information of distributed systems in common and makes cache larger virtually. Recently, several cooperative caching algorithms decrease the message costs by using approximate information of the cache and increase the cache hit-ratio by using local and global cache fields dynamically. And they have an advantage that increases the whole field hit-ratio by sending a replaced buffer to the idle node on buffers replacement in order to maintain the replaced cache in the cache field. However the wrong approximate information deteriorates the performance, the consistency maintenance goes to great expense to exchange messages and the cost that manages Age-information of each node to choose the idle node increases. In this thesis, we propose a cooperative cache algorithm that maintains correct cache information, minimizes the maintenance cost for consistency and the management cost for buffer Age-information. Also, we show the superiority of our algorithm through the performance evaluation.

  • PDF

Hybrid Main Memory based Buffer Cache Scheme by Using Characteristics of Mobile Applications (모바일 애플리케이션의 특성을 이용한 하이브리드 메모리 기반 버퍼 캐시 정책)

  • Oh, Chansoo;Kang, Dong Hyun;Lee, Minho;Eom, Young Ik
    • Journal of KIISE
    • /
    • v.42 no.11
    • /
    • pp.1314-1321
    • /
    • 2015
  • Mobile devices employ buffer cache mechanisms, just as in computer systems such as desktops or servers, to mitigate the performance gap between main memory and secondary storage. However, DRAM has a problem in that it accelerates battery consumption by performing refresh operations periodically to maintain the stored data. In this paper, we propose a novel buffer cache scheme to increase the battery lifecycle in mobile devices based on a hybrid main memory architecture consisting of DRAM and non-volatile PCM. We also suggest a new buffer cache policy that allocates buffers based on process states to optimize the performance and endurance of PCM. In particular, our algorithm allocates each page to the appropriate position corresponding to the state of the application that owns the page, and tries to ensure a rapid response of foreground applications even with a small amount of DRAM memory. The experimental results indicate that the proposed scheme reduces the elapsed time of foreground applications by 58% on average and power consumption by 23% on average without negatively impacting the performance of background applications.

A Policy of Page Management Using Double Cache for NAND Flash Memory File System (NAND 플래시 메모리 파일 시스템을 위한 더블 캐시를 활용한 페이지 관리 정책)

  • Park, Myung-Kyu;Kim, Sung-Jo
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.36 no.5
    • /
    • pp.412-421
    • /
    • 2009
  • Due to the physical characteristics of NAND flash memory, overwrite operations are not permitted at the same location, and therefore erase operations are required prior to rewriting. These extra operations cause performance degradation of NAND flash memory file system. Since it also has an upper limit to the number of erase operations for a specific location, frequent erases should reduce the lifetime of NAND flash memory. These problems can be resolved by delaying write operations in order to improve I/O performance: however, it will lower the cache hit ratio. This paper proposes a policy of page management using double cache for NAND flash memory file system. Double cache consists of Real cache and Ghost cache to analyze page reference patterns. This policy attempts to delay write operations in Ghost cache to maintain the hit ratio in Real cache. It can also improve write performance by reducing the search time for dirty pages, since Ghost cache consists of Dirty and Clean list. We find that the hit ratio and I/O performance of our policy are improved by 20.57% and 20.59% in average, respectively, when comparing them with the existing policies. The number of write operations is also reduced by 30.75% in average, compared with of the existing policies.

Efficient Cache Replacement Policy over CCN With SVC Video Streaming (CCN 환경에서의 SVC 비디오 스트리밍을 위한 캐시 교체 정책에 관한 연구)

  • Lim, Kyu-Bo;Lee, Jung-Hwan;Yoo, Chuck
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06d
    • /
    • pp.235-237
    • /
    • 2012
  • 오늘날 인터넷 사용자들의 관심을 컨텐츠가 저장되어 있는 장치가 아닌 컨텐츠 자체로 변경되었다. 이로 인해 기존의 인터넷 구조와 사용자의 새로운 성향 간의 충돌이 발생한다. 이러한 문제를 해결하기 위하여 컨텐츠의 이름을 주소체계 기반으로 사용하는 CCN(Contents-Centric Networking)이 만들어 졌다. 본 연구에는 CCN과 같은 네트워크 캐시가 있는 환경에서 계층적 비디오 스트리밍의 성능을 향상시킬 수 있는 새로운 캐시 교체 알고리즘을 CCN 노드에 적용하였다. 기존의 FIFO 캐시 교체 알고리즘 사용시와 새로운 캐시 교체 알고리즘 적용시의 캐시 효율성 비교를 통하여 CCN 네트워크 상에서 계층적 비디오 스트리밍의 효율이 향상될 수 있음을 보인다.

Design of Push Agent Model Using Dual Cache for Increasing Hit-Ratio of Data Search (데이터 검색의 적중률 향상을 위한 이중 캐시의 푸시 에이전트 모델 설계)

  • Kim Kwang-jong;Ko Hyun;Kim Young-ja;Lee Yon-sik
    • Journal of the Korea Society of Computer and Information
    • /
    • v.10 no.6 s.38
    • /
    • pp.153-166
    • /
    • 2005
  • Existing single cache structure has shown difference of hit-ratio according to individually replacement strategy However. It needs new improved cache structure for reducing network traffic and providing advanced hit-ratio. Therefore, this Paper design push agent model using dual cache for increasing hit-ratio by reducing server overload and network traffic by repetition request of persistent and identical information. In this model proposes dual cache structure to do achievement replace gradual cache using by two caches storage space for reducing server overload and network traffic. Also, we show new cache replace techniques and algorithms which executes data update and delete based on replace strategy of Log(Size) +LRU, LFU and PLC for effectiveness of data search in cache. And through an experiment, it evaluates Performance of dual cache push agent model.

  • PDF