• Title/Summary/Keyword: 캐시 중복

Search Result 26, Processing Time 0.024 seconds

An Efficient Algorithm for Restriction on Duplication Caching between Buffer and Disk Caches (버퍼와 디스크 캐시 사이의 중복 캐싱을 제한하는 효율적인 알고리즘)

  • Jung, Soo-Mok
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • v.10 no.1
    • /
    • pp.95-105
    • /
    • 2006
  • The speed of hard disk which is based on mechanical operation is more slow than processor. The growth of processor speed is rapid by semiconductor technology, but the growth of disk speed which is based on mechanical operation is not enough. Buffer cache in main memory and disk cache in disk controller have been used in computer system to solve the speed gap between processor and I/O subsystem. In this paper, an efficient buffer cache and disk cache management scheme was proposed to restrict duplicated disk block between buffer cache and disk cache. The performance of the proposed algorithm was evaluated by simulation.

  • PDF

SSD Caching based De-Duplication for Virtualization Environment (가상화 환경을 위한 SSD 캐시 기반의 중복 제거 기법)

  • Kang, Dong-Woo;Kim, Se-Woog;Lee, Nam-Su;Choi, Jong-Moo;Kim, Jun-Mo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06a
    • /
    • pp.293-295
    • /
    • 2012
  • 가상화 기술은 물리적 컴퓨팅 자원을 사용자에게 논리적으로 제공하여 시스템의 효율성을 높이고 유연성을 향상시키기 위한 기술로 서버 통합이나 아마존 EC2와 같은 클라우드 컴퓨팅 환경에서 사용되고 있다. 이러한 가상화 환경에서는 다수의 가상머신들의 동시적인 I/O 수행으로 인해 저장장치에 병목현상이 발생된다. 또한 각 가상머신들의 중복된 데이터들을 저장하기 위해 불필요한 쓰기 비용이 발생하여 시스템의 성능 저하가 발생하게 된다. 본 논문에서는 이러한 가상화 환경에서의 I/O비용을 감소시키기 위해 SSD를 캐시로 사용하는 중복 제거 기법을 제안한다. 제안된 기법은 중복된 데이터를 제거하여 불필요한 디스크에 대한 I/O 수행을 감소시키며, 중복 발생 패턴의 특성을 고려하여 SSD의 빠른 쓰기 성능을 효과적으로 사용할 수 있는 캐시 구조 모델을 통해 가상화 환경에서 I/O 성능을 향상 시킬 수 있음을 보인다.

A Comparison Study on Data Caching Policies of CCN (콘텐츠 중심 네트워킹의 데이터 캐시 정책 비교 연구)

  • Kim, Dae-Youb
    • Journal of Digital Convergence
    • /
    • v.15 no.2
    • /
    • pp.327-334
    • /
    • 2017
  • For enhancing network efficiency, various applications/services like CDN and P2P try to utilize content which have previously been cached somewhere. Content-centric networking (CCN) also utilizes data caching functionality. However, dislike CDN/P2P, CCN implements such a function on network nodes. Then, any intermediated nodes can directly respond to request messages for cached data. Hence, it is essential which content is cached as well as which nodes cache transmitted content. Basically, CCN propose for every nodes on the path from the content publisher of transmitted object to a requester to cache the object. However, such an approach is inefficient considering the utilization of cached objects as well as the storage overhead of each node. Hence, various caching mechanisms are proposed to enhance the storage efficiency of a node. In this paper, we analyze the performance of such mechanisms and compare the characteristics of such mechanisms. Also, we analyze content utilization patterns and apply such pattern to caching mechanisms to analyze the practicalism of the caching mechanisms.

A Study on Memory Deduplication using Page Cache Information in Virtualization Environment (가상화 환경에서 페이지 캐시 정보를 이용한 메모리 중복제거 기법에 관한 연구)

  • Lee, Se-Ho;Kim, In-Hyeok;Eom, Young-Ik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06a
    • /
    • pp.149-151
    • /
    • 2012
  • 서버가상화는 제한된 컴퓨팅 자원을 이용하여 다수의 운영체제를 가동시키는 기술이다. 한정된 컴퓨팅 자원을 이용하는 가상화 기술은 메모리 공간 부족이라는 문제를 야기했다. 이를 해결하기 위한 메모리 중복제거 기술들이 소개되고 있다. 그러나 많은 논문들 호스트와 가상 머신간의 메모리 사용 정보 부족으로 인해 많은 오버헤드를 가지고 메모리 중복제거 기술을 제공하고 있다. 본 논문은 메모리 공유 비중이 가장 큰 가상 머신의 페이지 캐시 정보를 제공하는 파일 시스템을 기반으로 페이지 스캐닝을 통한 효율적인 메모리 중복제거 기법을 제안한다.

Group-based Intra-AS Cooperative Caching Strategy in Content-Centric Networking (컨텐츠 중심 네트워킹에서 Intra-AS를 위한 그룹 기반 협력 캐싱 전략)

  • Kim, Seongmin;Kim, Kwangsoo;Choi, Seungoh;Roh, Byeong-hee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.307-309
    • /
    • 2013
  • 미래 인터넷 기술 중 하나인 컨텐츠 중심 네트워킹 (CCN)은 컨텐츠의 이름을 이용해 사용자가 원하는 컨텐츠를 요청하고 이를 받음으로써 현재 위치 기반에서 이름 기반으로 변화하고 있는 컨텐츠 패러다임을 반영하고 있다. 사용자가 요청한 컨텐츠가 서버에서 라우터를 거쳐 이동할 때 각 라우터마다 내장되어 있는 캐시에 저장하여 관리하는 방식을 사용하기 때문에 같은 컨텐츠가 중복으로 저장되는 문제가 발생한다. 본 논문에서는 AS 외부에 위치하는 서버로부터 컨텐츠를 받을 때 주변 라우터를 그룹으로 묶어 캐시를 관리함으로써 중복 저장되는 빈도를 낮추고 캐시 적중률 향상과 지연 시간 감소를 이끄는 전략을 제안하고 실험적으로 검증한다.

Performance Analysis of Cellular IP using Combined Cache and Improved Adaptive Semi-soft Handoff Method (통합 캐시 및 개선된 적응형 세미소프트 핸드오프를 이용한 셀룰러 IP의 성능분석)

  • Choi Jung-Hun;Kim Nam;Jeong Seung-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.4 no.4
    • /
    • pp.113-121
    • /
    • 2004
  • Existing Cellular IP increases the network traffic load, packet loss and handoff latency because of duplicate packet. In this paper, we propose using a Combined Cache that unites a pasing cache with a routing cache and a Improved Adaptive Semi-soft handoff that minimizes to occur the duplicate packet. As a computer simulation, we consider packet loss, handoff latency and traffic load in network. In proportion the number of nodes, mobile hosts and downlinks of node in access network increased, the proposed method is largely improved in comparison with existing Cellular If that uses semi-soft handoff.

  • PDF

Group-based Cache Sharing Scheme Considering Peer Connectivity in Mobile P2P Networks (모바일 P2P 네트워크에서 피어의 연결성을 고려한 그룹 기반 캐시 공유 기법)

  • Kim, Jaegu;Yoon, Sooyong;Lim, Jongtae;Lee, Seokhee;Bok, Kyoungsoo;Yoo, Jaesoo
    • The Journal of the Korea Contents Association
    • /
    • v.14 no.10
    • /
    • pp.20-31
    • /
    • 2014
  • Recently, cache sharing methods have been studied in order to effectively reply to user requests in mobile P2P networks. In this paper, we propose a cache sharing scheme based on a cluster considering the peer connectivity in mobile P2P networks. The proposed scheme shares caches by making a cluster that consists of peers preserving the connectivity among them for a long time. The proposed scheme reduces data duplication to efficiently use the cache space in a cluster. The cache space is divided into two parts with a data cache and a temporary cache for a cache space. It is possible to reduce the delay time when the cluster topology is changed or the cache data is replaced utilizing a temporary cache. The proposed scheme checks the caches of peers in a route to a cluster header and the caches of one-hop peers in order to reduce the communication cost. It is shown through performance evaluation that the proposed scheme outperforms the existing schemes.

Design of Push Agent Model Using Dual Cache for Increasing Hit-Ratio of Data Search (데이터 검색의 적중률 향상을 위한 이중 캐시의 푸시 에이전트 모델 설계)

  • Kim Kwang-jong;Ko Hyun;Kim Young-ja;Lee Yon-sik
    • Journal of the Korea Society of Computer and Information
    • /
    • v.10 no.6 s.38
    • /
    • pp.153-166
    • /
    • 2005
  • Existing single cache structure has shown difference of hit-ratio according to individually replacement strategy However. It needs new improved cache structure for reducing network traffic and providing advanced hit-ratio. Therefore, this Paper design push agent model using dual cache for increasing hit-ratio by reducing server overload and network traffic by repetition request of persistent and identical information. In this model proposes dual cache structure to do achievement replace gradual cache using by two caches storage space for reducing server overload and network traffic. Also, we show new cache replace techniques and algorithms which executes data update and delete based on replace strategy of Log(Size) +LRU, LFU and PLC for effectiveness of data search in cache. And through an experiment, it evaluates Performance of dual cache push agent model.

  • PDF

Memory De-duplication Mechanism using File I/O Operations in Mobile Devices (모바일 환경에서 파일 입출력 연산을 활용한 메모리 중복 제거 기법)

  • Lee, Seho;Kim, Inhyeok;Eom, Young Ik
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.44-45
    • /
    • 2013
  • 전 세계의 스마트폰 보급률이 증가와 함께 새로운 형태의 스마트 워치, 구글 글래스 등의 모바일 장비들이 등장하고 있다. 이는 제한된 자원을 사용하는 스마트폰 환경에서 효율적으로 CPU, 메모리, 저장 장치들을 효과적으로 사용하기 위한 연구를 필요로 한다. 이에 본 논문에서는 안드로이드 환경에서 부족 메모리의 공간 확보를 위해 동일한 내용의 페이지 캐시를 찾고, 중복 제거하는 기법을 제안한다. 이는 부족한 메모리 공간 확보와 캐시를 지속하여 I/O 연산의 빈도를 줄여 스마트폰 성능 향상을 가져올 것으로 기대된다.

Mapping Cache for High-Performance Memory Mapped File I/O in Memory File Systems (메모리 파일 시스템 기반 고성능 메모리 맵 파일 입출력을 위한 매핑 캐시)

  • Kim, Jiwon;Choi, Jungsik;Han, Hwansoo
    • Journal of KIISE
    • /
    • v.43 no.5
    • /
    • pp.524-530
    • /
    • 2016
  • The desire to access data faster and the growth of next-generation memories such as non-volatile memories, contribute to the development of research on memory file systems. It is recommended that memory mapped file I/O, which has less overhead than read-write I/O, is utilized in a high-performance memory file system. Memory mapped file I/O, however, brings a page table overhead, which becomes one of the big overheads that needs to be resolved in the entire file I/O performance. We find that same overheads occur unnecessarily, because a page table of a file is removed whenever a file is opened after being closed. To remove the duplicated overhead, we propose the mapping cache, a technique that does not delete a page table of a file but saves the page table to be reused when the mapping of the file is released. We demonstrate that mapping cache improves the performance of traditional file I/O by 2.8x and web server performance by 12%.