• 제목/요약/키워드: cache management

검색결과 212건 처리시간 0.031초

분할 영역 기반의 웹 캐싱 알고리즘 (A Web Caching Algorithm with Divided Cache Scope)

  • 고일석;나윤지;임춘성
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2003년도 추계학술발표논문집 (중)
    • /
    • pp.1007-1010
    • /
    • 2003
  • Efficient using of web cache is becoming important factor that decide system management efficiency in web-Based system. Cache performance depends heavily on replacement algorithms, which dynamically select a suitable subset of objects for caching in a finite space. However, replacement algorithm on web cache has many differences than traditional replacement algorithm. In this paper, a web-caching algorithm is proposed for efficient operation of web base system. The algorithm is designed based on a divided scope that considered size reference characteristic and heterogeneity on web object. The performance of the algorithm is analyzed with an experiment. With the experiment results, the algorithm is compared with previous replacement algorithms, and its performance is confirmed ith an improvement of response speed.

  • PDF

비디오를 위한 효율적인 프록시 서버 캐쉬의 관리 (Efficient Management of Proxy Server Cache for Video)

  • 조경산;홍병천
    • 한국시뮬레이션학회논문지
    • /
    • 제12권2호
    • /
    • pp.25-34
    • /
    • 2003
  • Because of explosive growth in demand for web-based multimedia applications, proper proxy caching for large multimedia object (especially video) has become needed. For a video object which is much larger in size and has different access characteristics than the traditional web object such as image and text, caching the whole video file as a single web object is not efficient for the proxy cache. In this paper, we propose a proxy caching strategy with the constant-sized segment for video file and an improved proxy cache replacement policy. Through the event-driven simulation under various conditions, we show that our proposal is more efficient than the variable-sized segment strategy which has been proven to have higher hit ratio than other traditional proxy cache strategies.

  • PDF

NAND 플래시 변환 계층에서 전력 소모에 영향을 미치는 페이지 캐싱 전략의 비교·분석 (A Comparative Analysis on Page Caching Strategies Affecting Energy Consumption in the NAND Flash Translation Layer)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제13권3호
    • /
    • pp.109-116
    • /
    • 2018
  • SSDs that are not allowed in-place update within the allocated page cause another allocation of a new page that will replace the previous page at the moment data modification occurs. This intrinsic characteristic of SSDs requires many changes to the existing HDD-based IO theory. In this paper, we conduct a performance comparison of FTL caching strategy in perspective of cache hashing (Global vs. grouped) and caching algorithm (LRU vs. NUR) through a simulation. Experimental results show that in terms of energy consumption for flash operation the grouped management of cache is not suitable and NUR algorithm is superior to LRU algorithm. In particular, we found that the cache hit ratio of LRU algorithm is about 10% point higher than that of NUR algorithm while the energy consumption of LRU algorithm is about 32% high.

버퍼 캐쉬와 가상메모리 파일을 이용한 대형 데이터화일의 처리방법 설계 및 구현 (A Design and Implementation on Large Data File Management Using Buffer Cache and Virtual Memory File)

  • 김병철;신병석;조동섭;황희영
    • 대한전기학회논문지
    • /
    • 제41권7호
    • /
    • pp.784-792
    • /
    • 1992
  • In this paper we design and implement a method for application programs to allow handling of large data files in DOS environment. In this method we use extended memory and hard disk as a data buffer. And we use a part of the conventional DOS memory as a buffer cache which allows the application program to use extended memory and hard disks transparently. Using buffer cache also allows us some speed improvement for the application program.

  • PDF

파일 타입을 이용한 웹 캐싱 (Web Caching using File Type)

  • 임재현;이준연
    • 정보처리학회논문지C
    • /
    • 제9C권6호
    • /
    • pp.961-968
    • /
    • 2002
  • 본 논문에서는 웹상의 높은 가변성을 고려하여 웹 캐시 공간을 관리하는 새로운 접근 방법을 제안한다. 모든 문서를 저장하는데 하나의 캐시를 사용하는 것 대신에, 캐시를 분할하여 파일 타입에 따라 저장한다. 제안된 방법은 LFU, LRU와 SIZE 기반 알고리즘을 사용하여 현재의 캐시 관리 정책과 비교한다. 2가지의 서로 다른 실제 작업부하를 사용하며, 시뮬레이션을 통해 파일 타입별 캐싱이 적중률과 바이트적중률을 개선시킴을 보인다.

적응형 패리티 그룹 구성을 이용한 RAID 5 제어기에서의 캐시 운영 (Cache Management using a Adaptive Parity Group Configuration in RAID 5 Controller)

  • 허정호;송자영;장태무
    • 정보처리학회논문지A
    • /
    • 제10A권2호
    • /
    • pp.83-92
    • /
    • 2003
  • RAID 5는 고 신뢰도 및 고성능 디스크 시스템을 구성하는 널리 사용되는 기법이다. 본 논문은 특히 OLTP(On-Line Transaction Processing System) 작업환경에서 RAID 5의 소규모 쓰기("small write") 문제를 해결하기 위해 캐시 상에서 적응형 패리티 그룹(APGOC : Adaptive Parity Group On Cache) 구성을 제안한다 이 방법에서는 사용자 프로세스가 한 파일에 대한 접근을 커널에 요청할 때 파일 시스템의 파일 데이터 구조에 읽기/쓰기에 관련된 정보를 추가한다. 이 정보를 이용한 패리티 읽기를 통하여 데이터와 패리티 캐시를 연관 운영한다. 그리하여 캐시의 활용도를 높이고 디스크 요청에 대한 응답시간을 개선할 수 있다. 제안된 방법을 분석하고 시뮬레이션을 통하여 실험한 결과 기존의 방법에 비하여 6~l3% 정도의 성능 향상을 관찰할 수 있었다.관찰할 수 있었다.

캐시 주소의 태그 이력을 활용한 에너지 효율적 고성능 데이터 캐시 구조 (An Energy Efficient and High Performance Data Cache Structure Utilizing Tag History of Cache Addresses)

  • 문현주;지승현
    • 정보처리학회논문지A
    • /
    • 제14A권1호
    • /
    • pp.55-62
    • /
    • 2007
  • 모바일 기기와 같이 배터리에 의존적인 시스템에서 사용되는 임베디드 프로세서는 총 소모 전력의 많은 부분을 캐시에서 소모한다. 본 논문에서는 임베디드 프로세서용 고성능 선인출 데이터캐시의 저전력화 방안을 연구하였다. 고성능 선인출 데이터캐시에서 메모리 참조명령의 수행에 앞서 참조예측의 결과로 발생하는 선인출 명령은 캐시 적중률을 높여 메모리 참조 시간을 단축하는 반면 선인출 명령의 수에 비례하여 전력 소모가 증가한다. 본 논문에서는 선인출 데이터캐시에 태그이력표(tag history table)를 구비하여 병렬태그탐색을 최소화함으로써 전력 소모를 줄이는 캐시 구조를 제안하였다. 실험을 통해 확인한 결과 제안한 데이터캐시 구조가 기존 데이터캐시 구조에 비하여 수행 시간과 전력 소모를 모두 줄일 수 있음을 확인하였다.

상이한 메모리 크기를 가지는 분산 환경에서 부하 분산을 위한 캐시 관리 기법 (An Efficient Cache Management Scheme for Load Balancing in Distributed Environments with Different Memory Sizes)

  • 최기태;윤상원;박재열;임종태;이석희;복경수;유재수
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권8호
    • /
    • pp.543-548
    • /
    • 2015
  • 최근 소셜 미디어의 성장과 디지털 기기의 활용이 증가함에 따라 기하급수적으로 데이터가 급증하고 있다. 기존 디스크 기반 분산 파일 시스템은 I/O 처리 비용 및 병목 현상으로 인해 데이터 처리나 데이터 접근 성능에 한계가 발생한다. 이러한 문제점을 해결하기 위해 메모리에 데이터를 관리하는 캐시 기법이 활용되고 있다. 본 논문에서는 분산 메모리 환경에서 부하 분산을 처리하기 위한 캐시 관리 기법을 제안한다. 제안하는 기법은 노드의 메모리의 크기가 서로 상이한 환경에서 메모리 크기에 따라 데이터를 분배하고 노드의 부하가 발생할 경우 핫 데이터를 재분배한다. 또한, 캐시 항목의 재사용 가능성, 사용 빈도수, 접근 시간을 고려한 캐시 교체 기법을 제안한다. 성능 평가를 통해 제안하는 분산 캐시 기법이 기존에 캐시 관리 기법에 비해 우수함을 입증한다.

압축 기능을 가진 웹캐시 시스템 개발 (Development of A Web-cache System with Compression Capability)

  • 박진원;김명균;홍윤환
    • 정보처리학회논문지A
    • /
    • 제11A권1호
    • /
    • pp.29-36
    • /
    • 2004
  • 인터넷 사용자의 수가 폭발적으로 늘어나고 엘 컨텐츠의 양이 많아지면서 웹서버의 부하를 줄이면서 사용자에게 보다 빠르게 웹서비스를 제공하는 것이 중요한 문제가 되었다. 웹캐시 시스템은 사용자와 웹서버 사이에 위치하여 웹서버의 부하를 줄여주고 사용자의 서비스 응답시간을 줄여주기 위한 효과적인 방법으로 많이 사용되고 있다. 본 논문에서는 소스가 공개되어 있는 스퀴드 웹캐시 시스템을 이용하여 데이터 압축기능을 가진 웹캐시 시스템을 개발하였다. 압축기능을 가진 웹캐시 시스템은 웹캐시 시스템과 사용자 사이의 데이터론 압축하여 전송함으로써 네트워크의 트래픽을 줄여주고 사용자의 웹서비스 응답시간을 줄여주는 효과가 있다. 특히 리버스 캐시 시스템의 경우에는 종단간 병목구간인 인터넷 추간의 트래픽 양을 줄여주므로 그 효과는 더욱 크게 나타난다. 성능측정 결과 원래 웹 객체의 크기에 따라 압축율은 달라지지만 2배에서 크게는 8배 정도까지의 데이터 전송량이 줄었으며 사용자의 응답시간은 평균 37% 정도의 속도 향상이 있었으며 원래 데이터의 크기가 10Kbyte 이상인 경우에서는 평균 속도 향상율이 87% 정도로 향상 정도가 더욱 크다는 것을 알 수 있었다.

STP-FTL: An Efficient Caching Structure for Demand-based Flash Translation Layer

  • Choi, Hwan-Pil;Kim, Yong-Seok
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권7호
    • /
    • pp.1-7
    • /
    • 2017
  • As the capacity of NAND flash module increases, the amount of RAM increases for caching and maintaining the FTL mapping information. In order to reduce the amount of mapping information managed in the RAM, a demand-based address mapping method stores the entire mapping information in the flash and some valid mapping information in the form of cache in the RAM so that the RAM can be used efficiently. However, when cache miss occurs, it is necessary to read the mapping information recorded in the flash, so overhead occurs to translate the address. If the RAM space is not enough, the cache hit ratio decreases, resulting in greater overhead. In this paper, we propose a method using two tables called TPMT(Translation Page Mapping Table) and SMT(Segmented Translation Page Mapping Table) to utilize both temporal locality and spatial locality more efficiently. A performance evaluation shows that this method can improve the cache hit ratio by up to 30% and reduces the extra translation operations by up to 72%, compared to the TPM scheme.