• 제목/요약/키워드: Byte Hit-Ratio

검색결과 9건 처리시간 0.031초

웹 서버 작업부하 감소를 위한 캐시 정책 (Cache Policies for WWW Sewers to Reduce Workload)

  • 임재현
    • 인터넷정보학회논문지
    • /
    • 제5권6호
    • /
    • pp.103-110
    • /
    • 2004
  • 본 논문에서는 웹 서버 성능에 있어 캐싱 정책의 영향을 분석하고 연구하였다. 새롭게 제안한 파일 타입 기반 캐싱 정책은 캐시안의 크고 작은 파일간에 균형 잡힌 결과를 갖도록 지원하며, 뿐만 아니라 작은 파일과 큰 파일에 대한 요청에 훌륭한 성능을 나타낸다. 본 논문에서는 파일 타입 기반 캐싱이 적중률과 바이트적중률 모두 다 좋은 결과를 나타냄을 보인다.

  • PDF

파일 타입을 이용한 웹 캐싱 (Web Caching using File Type)

  • 임재현;이준연
    • 정보처리학회논문지C
    • /
    • 제9C권6호
    • /
    • pp.961-968
    • /
    • 2002
  • 본 논문에서는 웹상의 높은 가변성을 고려하여 웹 캐시 공간을 관리하는 새로운 접근 방법을 제안한다. 모든 문서를 저장하는데 하나의 캐시를 사용하는 것 대신에, 캐시를 분할하여 파일 타입에 따라 저장한다. 제안된 방법은 LFU, LRU와 SIZE 기반 알고리즘을 사용하여 현재의 캐시 관리 정책과 비교한다. 2가지의 서로 다른 실제 작업부하를 사용하며, 시뮬레이션을 통해 파일 타입별 캐싱이 적중률과 바이트적중률을 개선시킴을 보인다.

Replacement Algorithm Selection Mechanism Considering File Size for Web Cache Server

  • Sontisiri, Tanasun;Sopechoke, Pawin;Thipchaksurat, Sakchai;Varakulsiripunth, Ruttikorn
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1084-1089
    • /
    • 2004
  • This paper describes the improvement of web cache server by scoping in replacement algorithm of data which are collected from the clients. We have found that each replacement algorithm is suitable for each type of data in the web pages. Therefore, we introduce the mechanism to select the replacement algorithm depending on the size of data called the Replacement Algorithm Selection Mechanism (RASM). RASM allows the web cache server to have the suitable replacement algorithm for each type of data. As the result, the byte hit ratio of web cache server can be increased and the congestion in the network can be alleviated.

  • PDF

웹 서비스를 위한 효율적인 캐쉬 관리 전략의 설계 및 성능 평가 (Design and Performance Analysis of an Efficient Cache Managing Strategy for Web Services)

  • 문진용
    • 디지털콘텐츠학회 논문지
    • /
    • 제9권4호
    • /
    • pp.653-659
    • /
    • 2008
  • 최근 인터넷의 폭발적인 인기로 인해 인터넷 객체의 캐슁 기법이 매우 중요한 문제가 되었다. 인터넷에서의 캐슁은 전통적인 캐슁 기법과 여러 면에서 다르다. 특히 일반적인 캐슁 알고리즘은 인터넷에 적합하지 못한데, 이는 크기가 서로 다른 객체들을 함께 처리함으로써 발생하는 작은 객체들의 불이익에 서 기인한다. 본 논문에서는 인터넷 캐슁을 위해 설계된 기존의 기법들을 살펴보고 새로운 알고리즘을 제안한다. 그리고 여러 가변 길이 대체 알고리즘에 대한 성능 평가의 결과를 제시하고, 객체들을 크기에 따라 구분하여 처리함으로써 바이트 적중률을 향상시키는 방안을 도출한다.

  • PDF

네트워크 응답시간을 고려한 웹 캐시 교체 정책 (A Web Cache Replacement Policy in Consideration of Netwok Response Time)

  • 신은희;서진모;신승훈;박승규
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (A)
    • /
    • pp.133-135
    • /
    • 2003
  • 최근 인터넷 기반 서비스 환경의 질적개선과 이에 따른 이용자 증가에 따라. 오디오나 동영상과 같은 규모가 크고 동적 특성을 가진 웹 컨텐츠의 수가 증가하는 추세이다. 이에 따라 'hit ratio' 뿐만 아니라 오브젝트의 크기를 기반으로 하는 'byte hit ratio' 또한 캐시 성능을 평가하는 중요한 측정 요소가 되었다. 이러한 측정기준을 대상으로 할 때, 기존의 웹 캐시 교체 정책중 HP연구소의 GDSF (Greedy-Dual-Size with Frequency)알고리즘과 LFU-DA(LFU with Dynamic Aging)알고리즘이 우수한 성능을 보이는 것으로 알려져있는데, 이러한 기존의 웹 캐시 교체 정책은 서버와의 네트워크 상태를 고려하지 않은 정책이고, 이에 따라 네트워크 상태에 따른 전송비용의 차이를 반영하지 못하고 있다. 따라서 본 논문에서는 서버와 웹 캐시 간의 네트워크 상태를 반영할 수 있는 캐시 교체 정책을 제안하고, 이에 대한 실험을 수행하였으며, 그 결과 사용자의 요구에 대한 응답시간의 감소 효과를 얻을 수 있었다.

  • PDF

캐쉬 메모리가 버스 트래픽에 끼치는 영향 (The Effects of Cache Memory on the System Bus Traffic)

  • 조용훈;김정선
    • 한국통신학회논문지
    • /
    • 제21권1호
    • /
    • pp.224-240
    • /
    • 1996
  • It is common sense for at least one or more levels of cache memory to be used in these day's computer systems. In this paper, the impact of the internal cache memory organization on the performance of the computer is investigated by using a simulator program, which is wirtten by authors and run on SUN SPARC workstation, with several real execution, with several real execution trace files. 280 cache organizations have been simulated using n-way set associative mapping and LRU(Least Recently Used) replacement algorithm with write allocation policy. As a result, 16-way setassociative cache is the best configuration, and when we select 256KB cache memory and 64 byte line size, the bus traffic ratio was decreased compared to that of the noncache system so that a single bus could support almost 7 processors without any delay and degradationof high ratio(hit ratio was 99.21%). The smaller the line size we choose, the little lower hit ratio we can get, but the more processors can be supported by a single bus(maximum 18 processors). Therefore, using a proper cache memory organization can make a single bus structure be able to support multiple processors without any performance degradation.

  • PDF

스트리밍 캐쉬 서버를 위한 가중치 윈도우 기반의 캐쉬 교체 정책 (A Weighted-window based Cache Replacement Policy for Streaming Cache Server)

  • 오재학;차호정;박병준
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권10호
    • /
    • pp.556-568
    • /
    • 2003
  • 본 논문에서는 스트리밍 미디어 캐슁 서버의 효율적인 캐슁을 위하여 가중치 윈도우에 기반한 캐쉬 교체 정책을 제시하고 성능을 분석한다. 제안된 캐쉬 교체 정책은 참조 횟수, 참조량, 참조 시간 등의 정량적인 인자들과 사용자 요구 주기를 적용하여 기존 캐쉬 교체 정책과 차등화된 개념을 도입하였으며, 최근 참조 경향에 높은 가중치를 부여함으로써 변화하는 콘텐츠 선호 경향에 빠르게 적응하는 구조를 제시하였다. 교체 정책 성능 분석은 시뮬레이션 환경 구축을 통해 실험하였으며 기존의 캐쉬 교체 정책인 LRU, LFU와 SEG보다 참조 적중률, 참조량 적중률, 시작 지연률과 반입량에서 향상된 결과를 보였다.

모바일 컴퓨팅 환경에서 데이터의 중요도에 기반한 캐시 교체와 일관성 유지 (Cache Replacement and Coherence Policies Depending on Data Significance in Mobile Computing Environments)

  • 김삼근;김형호;안재근
    • 한국통신학회논문지
    • /
    • 제36권2A호
    • /
    • pp.149-159
    • /
    • 2011
  • 최근 모바일 컴퓨팅 환경은 사회 전반으로 보편화가 진행되고 있다. 이러한 경향은 모바일 플랫폼 상에서 무선 네트워트를 통한 유선 네트워크 상의 데이터베이스 시스템의 접근 필요성을 부각시킨다. 그러나 모바일 컴퓨팅 환경은 전통적인 컴퓨팅 환경과는 본질적으로 다른 특성으로 인하여 데이터베이스 접근 방식을 그대로 적용하기 어렵다. 이 논문은 새로운 에이전트 기반 모바일 데이터베이스 접근 모델을 제시하고, 데이터 비축을 위한 캐시 교체와 일관성 유지 과정에서 대상 데이터를 선정하는 두 가지 데이터 중요도 함수를 제안한다. 이 함수들은 데이터의 접근 기간, 접근 빈도, 접근 경향, 갱신 빈도, 갱신 경향, 데이터 크기 분포 등을 종합적으로 반영한다. 모의실험에 의하면, 제안하는 함수를 사용한 정책은 LRU 정책, LIX 정책, SAIU 정책에 비하여 접근 지연 시간 감소, 캐시 바이트 적중률 향상, 캐시 바이트 오염률 감소 측면에서 경쟁력이 있음을 보인다.

트랜스코딩 프록시에서 세그먼트 기반 캐쉬 교체 정책 (Segment-based Cache Replacement Policy in Transcoding Proxy)

  • 박유현;김학영;김경석
    • 정보처리학회논문지A
    • /
    • 제15A권1호
    • /
    • pp.53-60
    • /
    • 2008
  • 최근 스트리밍 미디어는 인터넷 상의 많은 트래픽을 유발하고 있다. 기존의 웹을 위한 객체와 마찬가지로 스트리밍 객체 또한 프록시 시스템을 사용하게 되면 여러 이점이 있긴 하지만, 스트리밍 미디어를 캐슁 하는 방법은 기존의 웹을 위한 객체보다 매우 크고 높은 대역폭을 요구하기 때문에 고려해야 할 점이 많다. 또한 많은 종류의 단말들의 다양한 대역폭을 적절히 서비스 하기 위해서 프록시 기능과 트랜스코딩 기능을 함께 할 수 있는 트랜스코딩 프록시가 유용하다. 기존의 프록시는 객체가 프록시 서버에 저장되어 있거나, 그렇지 않은 경우로만 고려되었으나, 트랜스코딩 프록시에서는 같은 객체의 다양한 버전에 대해서 종합적인 효과를 고려하여 최적의 버전 집합을 저장 해야 한다. 또한 최근의 멀티미디어 캐슁 시스템들은 접근 빈도가 높은 앞부분을 캐슁하여 지연 시간을 줄이고 높은 효율을 얻을 수 있도록 하는 방법을 사용한다. 한편 많은 연구에서 멀티미디어 데이터의 효율적인 저장 관리를 위해서 객체를 세그먼트로 나누어 관리하는 방법을 사용하고 있다. 본 논문에서는 부분 캐슁을 사용하는 트랜스코딩 프록시에서 사용자 요청에 따른 후속 작업을 결정하기 위해 4개의 기본 이벤트를 이용하여 9개의 이벤트로 정의한다. 또한 트랜스코딩 프록시 시스템을 위하여 세그먼트 기반의 관리정책을 제안한다. 실험결과는 제안하는 방법이 사용자 지연시간, BHR와 트랜스코딩 데이터의 양이 적음을 보여준다.