• 제목/요약/키워드: Web cache

검색결과 150건 처리시간 0.03초

압축 기능을 가진 웹캐시 시스템 개발 (Development of A Web-cache System with Compression Capability)

  • 박진원;김명균;홍윤환
    • 정보처리학회논문지A
    • /
    • 제11A권1호
    • /
    • pp.29-36
    • /
    • 2004
  • 인터넷 사용자의 수가 폭발적으로 늘어나고 엘 컨텐츠의 양이 많아지면서 웹서버의 부하를 줄이면서 사용자에게 보다 빠르게 웹서비스를 제공하는 것이 중요한 문제가 되었다. 웹캐시 시스템은 사용자와 웹서버 사이에 위치하여 웹서버의 부하를 줄여주고 사용자의 서비스 응답시간을 줄여주기 위한 효과적인 방법으로 많이 사용되고 있다. 본 논문에서는 소스가 공개되어 있는 스퀴드 웹캐시 시스템을 이용하여 데이터 압축기능을 가진 웹캐시 시스템을 개발하였다. 압축기능을 가진 웹캐시 시스템은 웹캐시 시스템과 사용자 사이의 데이터론 압축하여 전송함으로써 네트워크의 트래픽을 줄여주고 사용자의 웹서비스 응답시간을 줄여주는 효과가 있다. 특히 리버스 캐시 시스템의 경우에는 종단간 병목구간인 인터넷 추간의 트래픽 양을 줄여주므로 그 효과는 더욱 크게 나타난다. 성능측정 결과 원래 웹 객체의 크기에 따라 압축율은 달라지지만 2배에서 크게는 8배 정도까지의 데이터 전송량이 줄었으며 사용자의 응답시간은 평균 37% 정도의 속도 향상이 있었으며 원래 데이터의 크기가 10Kbyte 이상인 경우에서는 평균 속도 향상율이 87% 정도로 향상 정도가 더욱 크다는 것을 알 수 있었다.

A Review of Web Cache Prefetching

  • Deng, YuFeng;Manoharan, Sathiamoorthy
    • Journal of information and communication convergence engineering
    • /
    • 제12권3호
    • /
    • pp.161-167
    • /
    • 2014
  • Web caches help to reduce latencies arising from slow networks through storing and reusing what was used before. Repeat access to a cached resource does not incur network latencies. However, resources that have never been used will not be found in the cache. Cache prefetching is a technique that helps to fill a cache with still-unused resources in anticipation that these resources will be used in the near future. Typically these unused resources are related to the resources that have been accessed in the recent past. While web caching exploits temporal locality, prefetching attempts to exploit spatial locality. Access to the prefetched resources will be cache hits, and therefore reduces the latency as perceived by the user. This paper reviews the cache infrastructure supported by the hypertext transfer protocol and discusses web cache prefetching in general, including Mozilla's prefetching infrastructure. It then classifies and reviews some prefetching techniques.

웹 캐시에서 사이트의 인기도에 의한 도큐먼트 교체정책 (Document Replacement Policy by Site Popularity in Web Cache)

  • 유행석;장태무
    • 한국게임학회 논문지
    • /
    • 제3권1호
    • /
    • pp.67-73
    • /
    • 2003
  • 대부분의 웹 캐시는 도큐먼트를 기반으로 하여 캐시 내에 임시적으로 도큐먼트를 저장하고 사용자의 요청이 있을 때 그에 해당된 도큐먼트가 캐시 내에 존재하면 그 도큐먼트를 사용자에게 전송해 주고, 캐시 내에 존재하지 않을 때에는 새로운 도큐먼트를 서버에게 요청하여 캐시 내에 복사를 하고 사용자에게 되돌려 준다. 이때 캐시의 용량 초과로 인해 새로운 도큐먼트를 기존의 도큐먼트와 교체하기 위해 도큐먼트 교체정책(replacement policy)을 사용한다. 일반적인 교체정책에는 도큐먼트를 기반으로 한 LRU기법이나 UFU기법 등이 있고, 그 밖의 여러 가지 교체정책을 사용하여 캐시내의 도큐먼트를 효과적으로 교체한다. 하지만, 위의 교체정책은 사이트의 인기도를 고려하지 않고 도큐먼트 요청 시간과 빈도수 만을 고려하여 교체정책을 수행한다. 따라서 본 논문에서는 요청이 빈번한 도큐먼트와 사이트의 인기도를 고려한 교체정책을 사용하여 요청이 빈번하지 않은 도큐먼트를 효과적으로 교체함으로써 캐시의 적중률(hit-ratio)을 높이고, 캐시의 내용을 효과적으로 관리할 수 있는 현대적인 네트워크 환경에 적합한 도큐먼트 교체정책인 사이트의 인기도를 고려한 도큐먼트 교체 정책을 제시한다.

  • PDF

웹 사이트의 인기도에 의한 도큐먼트 교체정책 (Document Replacement Policy by Web Site Popularity)

  • 유행석;장태무
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권1호
    • /
    • pp.227-232
    • /
    • 2008
  • 일반적으로 웹 캐시는 도큐먼트를 기반으로 하여 캐시 내에 임시적으로 도큐먼트를 저장하고 사용자의 요청이 있을 때 그에 해당된 도큐먼트가 캐시 내에 존재하면 그 도큐먼트를 사용자에게 전송해 주고, 캐시 내에 존재하지 않을 때에는 새로운 도큐먼트를 서버에게 요청하여 캐시 내에 복사를 하고 사용자에게 되돌려 준다. 이때 캐시의 용량 초과로 인해 새로운 도큐먼트를 기존의 도큐먼트와 교체하기 위해 도큐먼트 교체정책(replacement policy)을 사용한다. 일반적인 교체정책에는 도큐먼트를 기반으로 한 LRU기법이나 LFU기법 등이 있고, 그 밖의 여러 가지 교체정책을 사용하여 캐시내의 도큐먼트를 효과적으로 교체한다. 하지만. 위의 교체정책은 사이트의 인기도를 고려하지 않고 도큐먼트 요청 시간과 빈도수 만을 고려하여 교체정책을 수행한다. 따라서 본 논문에서는 요청이 빈번한 도큐먼트와 사이트의 인기도를 고려한 교체정책을 사용하여 요청이 빈번하지 않은 도큐먼트를 효과적으로 교체함으로써 캐시의 적중률(hit-ratio)을 높이고, 캐시의 내용을 효과적으로 관리할 수 있는 현대적인 네트워크 환경에 적합한 도큐먼트 교체정책인 웹사이트의 인기도를 고려한 도큐먼트 교체 정책을 제시한다.

  • PDF

웹 환경에 적합한 보관수명 기반 캐시 교체정책 (Shelf-Life Time Based Cache Replacement Policy Suitable for Web Environment)

  • 한성민;박흥순;권태욱
    • 한국통신학회논문지
    • /
    • 제40권6호
    • /
    • pp.1091-1101
    • /
    • 2015
  • 오랜기간 컴퓨터 분야의 연구주제였던 캐시 메커니즘은 네트워크 영역에서 웹 캐시로 응용되었다. 응답시간 감소, 네트워크 자원 절약 등의 다양한 이점을 갖는 웹 캐시는 교체정책에 의해 성능이 좌우되므로, 보다 나은 교체정책의 설계를 위해 웹 캐시가 운용되는 환경에 대한 분석과 고찰이 필수적이다. 따라서 과거에 비해 급속도로 다변화된 현재 웹 환경에서는 그러한 변화를 반영할 수 있는 교체정책이 요구된다. 따라서 본 논문에서는 현재 웹 환경의 특성을 규정하고, 이에 적합한 캐시 교체정책을 설계하고 평가한다.

웹 캐시 감염 방법 및 대응책 연구 (Research on Web Cache Infection Methods and Countermeasures)

  • 홍성혁;한군희
    • 융합정보논문지
    • /
    • 제9권2호
    • /
    • pp.17-22
    • /
    • 2019
  • 캐시는 클라이언트의 응답 시간을 향상 시켜 대역폭을 줄여 효과적인 면을 보이는 기법이다. 하지만 캐시 기법이 어느 기법들과 같이 취약점이 존재한다. 웹 캐시는 편리성이 있지만 해킹에 악용되어 문제가 발생할 가능성이 있다. 웹 캐시의 문제점은 주로 캐시 미스와 과도한 캐시 선인출로 인해 발생한다. 캐시 미스가 높고 과도하게 선인출을 하게 되면 캐시는 오히려 취약점이 되어 안전한 데이터를 변형 시키는 등 오류를 발생시키며 사용자의 클라이언트와 시스템 모두 문제가 생기게 된다. 사용자는 캐시 감염, 오류의 대응책을 미리 숙지를 하게 된다면 더 이상 캐시에 관한 오류, 감염 발생에 문제점을 느끼지 못하게 될 것이다. 따라서 본 연구서는 네 가지의 캐시 감염, 오류에 대한 대응책을 사용자에게 제안하여 웹캐시 감염에 대한 대응책을 제시하였다.

분할 영역 기반의 웹 캐싱 알고리즘 (A Web Caching Algorithm with Divided Cache Scope)

  • 고일석;나윤지;임춘성
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2003년도 추계학술발표논문집 (중)
    • /
    • pp.1007-1010
    • /
    • 2003
  • Efficient using of web cache is becoming important factor that decide system management efficiency in web-Based system. Cache performance depends heavily on replacement algorithms, which dynamically select a suitable subset of objects for caching in a finite space. However, replacement algorithm on web cache has many differences than traditional replacement algorithm. In this paper, a web-caching algorithm is proposed for efficient operation of web base system. The algorithm is designed based on a divided scope that considered size reference characteristic and heterogeneity on web object. The performance of the algorithm is analyzed with an experiment. With the experiment results, the algorithm is compared with previous replacement algorithms, and its performance is confirmed ith an improvement of response speed.

  • PDF

객체 참조 특성 기반의 분할된 영역 웹 캐시 대체 기법 (A Divided Scope Web Cache Replacement Technique Based on Object Reference Characteristics)

  • 고일석;임춘성;나윤지;조동욱
    • 정보처리학회논문지C
    • /
    • 제10C권7호
    • /
    • pp.879-884
    • /
    • 2003
  • 일반적으로 웹 기반 시스템의 성능을 높이기 위하여 웹 캐시를 사용하며, 대체 기법은 웹 캐시의 성능에 큰 영향을 미친다. 웹 캐시를 위한 대체 기법은 메모리 영역의 대체 기법과는 다르게, 대체되는 단위가 웹 객체이다. 또한 웹 객체는 사용자 참조 특성의 편차가 매우 크다. 따라서 웹 캐시론 위한 대체 기법은 이러한 웹 객체의 특성을 충분히 반영할 수 있어야한다. 하지만 기존의 기법에서는 이러한 특성을 충분히 반영하고 있지 못하다. 본 연구의 주된 관점은 참조특성 분석, 객체적중률의 향상, 응답시간의 개선이다. 이를 위해 로그분석을 이용하여 웹 객체의 참조특성을 분석하고, 이 참조특성의 분석 결과를 기반으로 분할된 웹 캐시 대체 기법을 제안하고 실험하였다. 실험 결과에서는, 제안 기법이 기존의 기법에 대해 객체 적중률과 응답속도의 성능이 개선되었음을 확인할 수 있다.

선호도 기반 웹 캐싱 전략 (Web Caching Strategy based on Documents Popularity)

  • 유해영;박철
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권9호
    • /
    • pp.530-538
    • /
    • 2002
  • 본 논문에서는 파일이 요청된 순간에는 파일의 선호도만을 조사하고, 일정 시간이 흐른 후에 선호도가 높은 파일들을 일괄적으로 캐싱하는 새로운 캐싱 전략을 소개한다. 이 전략에서는 일정 기간 동안 캐시의 상태가 변하지 않기 때문에 캐시 조작 비용이 거의 들지 않는 매우 효과적인 자료 구조의 사용이 가능하다는 장점을 가지고 있다. 뿐만 아니라, 국내외 5개 웹 서버로부터 수집한 log 파일을 대상으로 실험한 결과에 의하면, LRU를 사용하였을 때보다 오히려 캐시 히트율이 증가하였으며, 캐시 내 자료 재사용율도 증가하는 장점을 보석 주고 있다. 본 논문에서 제안하는 선호도 기반 게으른 캐싱전략(Popularity Based Lazy Caching Strategy)은 캐시에 포함되지 못한 파일의 선호도가 크게 증가하는 경우에 성능이 떨어지는 단점을 가지고는 있다. 그러나 이러한 경우는 자주발생하지 않으며, 웹 서버를 적응적으로 구현하여 해결할 수 있다.

A New Hybrid Architecture for Cooperative Web Caching

  • Baek, Jin-Suk;Kaur, Gurpreet;Yang, Jung-Hoon
    • Journal of Ubiquitous Convergence Technology
    • /
    • 제2권1호
    • /
    • pp.1-11
    • /
    • 2008
  • An effective solution to the problems caused by the explosive growth of World Wide Web is a web caching that employing an additional server, called proxy cache, between the clients and main server for caching the popular web objects near the clients. However, a single proxy cache can easily become the bottleneck. Deploying groups of cooperative caches provides scalability and robustness by eliminating the limitations caused by a single proxy cache. Two common architectures to implement the cooperative caching are hierarchical and distributed caching systems. Unfortunately, both architectures suffer from performance limitations. We propose an efficient hybrid caching architecture eliminating these limitations by using both the hierarchical and same level caches. Our performance evaluation with our investigated simulator shows that the proposed architecture offers the best of both existing architectures in terms of cache hit rate, the number of query messages from clients, and response time.

  • PDF