• 제목/요약/키워드: Cache Policy

검색결과 136건 처리시간 0.025초

웹에서 LRFU기법을 이용한 캐쉬(cache) 성능 향상을 위한 도큐먼트 재배치 정책 (Document Replacement Policy for Improving of Cache Performance in the Web)

  • 윤태완;장태무
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 봄 학술발표논문집 Vol.28 No.1 (A)
    • /
    • pp.10-12
    • /
    • 2001
  • 웹에서 도큐먼트 재배치 정책은 캐쉬(cache)성능을 향상시키기 위한 방법중의 하나이다. 이 방법을 웹 캐쉬 공간이 한정되어 있으며 새로운 도큐먼트를 위한 공간을 만들기 위해 어느 도큐먼트를 축출(remove)[2]할 것인가를 결정하고 새로운 도큐먼트를 갱신(update)[6]하기 위한 방법을 제공한다. 도큐먼트 재배치 정책으로는 LRU(Least Recently Used), LFU(Least Frequently Used)등과 같은 방법이 보편적을 사용되고 있으나, 웹에 적용하기에는 몇 가지 단점이 있다. 본 논문에서는 LRU, LFU등의 도큐먼트 재배치 정책을 이용하면서도 웹에 적용하기 위해 몇 가지 단점을 보완한 LRFU(Least Recently/Frequently Used)[4]기법을 사용한다. 또한 본 논문에서는 인터넷(internet) 사용자의 지수적인(exponential) 증가와 이로 인한 병목현상(bottleneck)의 발생을 전제로 하여, 캐쉬성능을 향상시키기 위한 다각적인 시도로 지역성(locality), 일관성(consistency)[7][5], 확장성(scalability)[5]등의 문제에 관한 논의와 기존의 방법과는 다른 도큐먼트 재배치 정책에의 접근을 시도한다.

웹 서버의 참조 특성 분석과 성능 개선 (Analysis of Web Server Referencing Characteristics and performance Improvement of Web Server)

  • 안효범;조경산
    • 정보처리학회논문지A
    • /
    • 제8A권3호
    • /
    • pp.201-208
    • /
    • 2001
  • 웹의 기하급수적인 성장과 클라이언트의 비균일적 요청 특성은 웹 서버의 성능에 큰 영향을 주었으며, 이의 해결책으로 서버 캐쉬가 제안되었다. 본 논문에서는 웹 서버 참조의 반복성, 참조 크기 및 참조적 지역성 등의 특성들을 분석하고, 그 결과를 이용하여 서버 캐쉬의 히트율을 높이기 위한 기존 캐쉬 제거 방식의 예측을 통한 서버 캐쉬의 선인출 기법을 제안한다. 또한 웹사이트의 추적 자료에 의한 시뮬레이션을 수행하여 제안된 기법에 의한 성능 개선을 분석 제시한다.

  • PDF

모바일 애드 혹 스트리밍 서비스를 위한 프록시 기반 캐싱 최적화 (Proxy-based Caching Optimization for Mobile Ad Hoc Streaming Services)

  • 이종득
    • 디지털융복합연구
    • /
    • 제10권4호
    • /
    • pp.207-215
    • /
    • 2012
  • 본 논문에서는 무선 모바일 애드 혹 네트워크상에서 스트리밍 미디어 서비스 향상을 위한 프록시 기반 캐싱 최적화 기법을 제안한다. 제안된 기법은 WLAN상에서 미디어 서버와 노드들 간의 통신을 위해 프록시를 사용하며, 프록시는 무선 엑세스 포인터 근처에 설치한다. 그리고 캐싱 최적화가 수행되도록 NFCO(non-full cache optimization)과 CFO(cache full optimization)기법을 제안한다. NFCO와 CFO는 프록시에서 스트리밍이 수행될 때 캐시의 성능을 최적화하기 위해 사용된다. 제안된 기법의 성능을 알아보기 위하여 본 논문에서는 제안된 기법과 서버-중심 스트리밍 기법, 그리고 전송율 왜곡 스트리밍 기법과의 성능을 비교 분석하였다. 그 결과 제안된 기법이 서버-중심 스트리밍 기법과 전송율 왜곡 스트리밍 기법에 비해서 최적화 성능이 우수함을 알게 되었다.

웹 객체 크기 이질성 기반의 웹 캐시 대체 기법의 설계와 성능 평가 (A Design and Performance Analysis of Web Cache Replacement Policy Based on the Size Heterogeneity of the Web Object)

  • 나윤지;고일석;조동욱
    • 정보처리학회논문지C
    • /
    • 제12C권3호
    • /
    • pp.443-448
    • /
    • 2005
  • 웹 캐시의 효율적인 사용은 웹기반 시스템의 효율성을 판단하는 중요한 척도가 되고 있다. 캐시의 성능은 한정된 공간에서 객체를 동적으로 관리하는 대체 알고리즘에 크게 영향을 받는다. 본 연구에서는 웹기반 시스템의 효율을 높이기 위한 웹 캐싱 알고리즘을 제안한다. 제안 알고리즘은 분할 영역에 대해 웹 객체의 크기 참조 특성과 이질성을 고려하도록 설계되었다. 또한 실험 환경에서 제안 알고리즘이 기존의 대체 알고리즘을 비교하여, $15\%$ 이상 성능이 향상되었음을 확인하였다.

멀티미디어 저장 시스템에서 참조 유형을 고려한 혼성 버퍼 교체 기법 (Hybrid Buffer Replacement Scheme Considering Reference Pattern in Multimedia Storage Systems)

  • 류연승
    • 한국멀티미디어학회논문지
    • /
    • 제5권1호
    • /
    • pp.47-56
    • /
    • 2002
  • 멀티미디어 저장 시스템을 위한 기존의 버퍼 캐시 기법들은 멀티미디어 파일의 순차적 접근만을 고려하고 반복 참조는 고려하지 않고 있다. 그러나, 외국어 영상 학습의 경우 사용자가 어떤 장면을 반복 구간으로 설정하면 자동으로 수회 반복 상영하는 기능이 있을 수 있다. 본 논문에서는 순차 참조와 반복 참조가 혼재하는 멀티미디어 저장 시스템을 위한 새로운 버퍼 교체 기법인 HBM(Hybrid Buffer Management)을 제안한다. 제안한 기법은 응용 수준에서 파일의 참조 유형을 파일 시스템에게 알려주고 HBM이 각 파일에 적절한 버퍼교체 정책을 적용한다. 실험 결과, HBM은 DISTANCE나 LRU와 같은 이전 버퍼 교체 기법보다 캐시 적중률을 높일 수 있음을 알 수 있었다.

  • PDF

Joint Optimization Algorithm Based on DCA for Three-tier Caching in Heterogeneous Cellular Networks

  • Zhang, Jun;Zhu, Qi
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권7호
    • /
    • pp.2650-2667
    • /
    • 2021
  • In this paper, we derive the expression of the cache hitting probability with random caching policy and propose the joint optimization algorithm based on difference of convex algorithm (DCA) in the three-tier caching heterogeneous cellular network assisted by macro base stations, helpers and users. Under the constraint of the caching capacity of caching devices, we establish the optimization problem to maximize the cache hitting probability of the network. In order to solve this problem, a convex function is introduced to convert the nonconvex problem to a difference of convex (DC) problem and then we utilize DCA to obtain the optimal caching probability of macro base stations, helpers and users for each content respectively. Simulation results show that when the density of caching devices is relatively low, popular contents should be cached to achieve a good performance. However, when the density of caching devices is relatively high, each content ought to be cached evenly. The algorithm proposed in this paper can achieve the higher cache hitting probability with the same density.

모바일 애플리케이션의 특성을 이용한 하이브리드 메모리 기반 버퍼 캐시 정책 (Hybrid Main Memory based Buffer Cache Scheme by Using Characteristics of Mobile Applications)

  • 오찬수;강동현;이민호;엄영익
    • 정보과학회 논문지
    • /
    • 제42권11호
    • /
    • pp.1314-1321
    • /
    • 2015
  • 모바일 디바이스는 데스크톱이나 서버 등 일반 컴퓨터 시스템과 마찬가지로 주기억장치와 스토리지와의 성능 차이를 완화시키기 위해 버퍼 캐시를 사용한다. 그러나 DRAM 은 저장된 데이터를 유지하기 위해 주기적인 refresh 연산을 수행함으로써 제한된 크기의 배터리 소모를 가속화하는 문제점을 가지고 있다. 본 논문에서는 모바일 디바이스 환경에서 배터리의 수명을 연장하기 위해 DRAM과 비휘발성 메모리인 PCM으로 구성된 하이브리드 메인 메모리 구조기반의 버퍼캐시 정책을 소개한다. 또한, PCM의 성능 및 내구성 특성을 최적화시키기 위해 프로세스 상태 기반의 새로운 버퍼 캐시 정책을 제안한다. 제안 기법은 포그라운드 및 백그라운드 애플리케이션이 사용하는 페이지를 서로 다른 방법으로 배치함으로써 소량의 DRAM으로도 포그라운드 애플리케이션의 빠른 응답성을 보장한다. 실험 결과, 제안 기법은 포그라운드 애플리케이션의 총 수행시간을 평균 58% 감소시켰으며 전력 소비량도 평균 23% 감소시키는 것을 확인하였다.

Minix3 마이크로커널 기반 디스크 캐쉬 관리자의 설계 및 구현 (Disk Cache Manager based on Minix3 Microkernel : Design and Implementation)

  • 최욱진;강용호;김선종;권혁숭;김주만
    • 디지털융복합연구
    • /
    • 제11권11호
    • /
    • pp.421-427
    • /
    • 2013
  • 마이크로커널 기반의 기능성 서버인 디스크 캐쉬 관리자(DCM)은 공유 디스크의 입출력 성능을 향상하는 목적으로 설계 및 구현되었다. DCM은 Misix3 마이크로커널의 멀티 쓰레드 모드로 동작하는 시스템 엑터간의 포트를 통하여 다른 서버들과 메시지 교환으로 정합한다. 본 논문에서 제안된 DCM은 병렬 입출력이 가능하도록 공유 디스크를 논리적으로 Seven 디스크와 Sodd 디스크로 나누어 사용한다. 본 논문에서 제안하는 DCM은 특정 디스크의 사용 빈도에 따라 캐쉬 사이즈를 증감함으로써 이용율이 높은 디스크의 캐시 사이즈 확대하여 캐시 적중률을 높여주므로서 효과적인 성능을 향상할 수 있게 한다. 경험적 결과를 통해서, 본 논문에서 제안한 DCM은 높은 이용율을 갖는 공유 디스크에서 아주 효과적임을 보였다.

멀티미디어 응용을 위한 저전력 데이터 캐쉬 구조 및 마이크로 아키텍쳐 수준 관리기법 (Low-Power Data Cache Architecture and Microarchitecture-level Management Policy for Multimedia Application)

  • 양훈모;김정길;박기호;김신덕
    • 정보처리학회논문지A
    • /
    • 제13A권3호
    • /
    • pp.191-198
    • /
    • 2006
  • 최근 디지털 멀티미디어 응용기기는 휴대 편의성은 물론 하나의 기기에서 다양한 멀티미디어 데이터 처리를 가능하게 하는 기능적 집적이 이루어지고 있다. 이와 같은 추세는 기기가 처리해야 하는 데이터 양의 증가와 이를 수행하기 위하여 요구되는 온칩 메모리의 크기 및 연산 유닛의 고성능화를 요구하여 전력 소비량의 증가를 유발시킨다. 연산 엔진에서 사용되는 대표적인 온칩 메모리인 캐쉬는 전력 사용에 있어서 중요한 비율을 차지하는 구조로 저전력 설계를 위한 구조적 개선의 주요 대상이다. 본 논문에서는 멀티미디어 응용을 수행하는 연산 엔진의 데이터 캐쉬에서 소비되는 전력을 감소시키기 위하여 멀티미디어 응용의 데이터 사용 특성을 파악하여 이 특성을 전력소비를 감소시키는 목적으로 활용 가능한 분할된 캐쉬구조를 제안한다. 그리고 각각의 분할된 캐쉬에 대하여 특정 주소 영역의 데이터 참조를 고정시킴으로써 얻을 수 있는 전력 소비면의 성능 향상을 평가한다. 시뮬레이션 결과 제안하는 캐쉬 구조는 같은 크기의 직접사상 캐쉬, 2중연관 캐쉬, 4중연관 캐쉬에 대해 유사한 성능을 나타내면서, 각각의 기존 캐쉬 구조와 비교하였을 경우 33.2%, 53.3% 및 70.4%만큼 감소된 전력으로 동작 가능하다.

Cache Memory and Replacement Algorithm Implementation and Performance Comparison

  • Park, Na Eun;Kim, Jongwan;Jeong, Tae Seog
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권3호
    • /
    • pp.11-17
    • /
    • 2020
  • 본 논문은 캐시 시뮬레이션을 통해 각 교체 알고리즘의 캐시 히트(Cache Hit) 및 검색시간을 측정함으로써 캐시 교체 정책에 대한 실용적인 결과를 제시한다. 프로세서의 성능이 향상되면서 캐시 메모리 또한 성능을 향상하기 위한 많은 연구가 활발히 진행되고 있다. 캐시 메모리는 일반적으로 LRU(Least Recently Used) 교체방식을 사용하고 있으며 LRU 방식 이외에도 대표적으로 FIFO(First-In First-Out), LFU(Least Frequently Used) 및 Random 교체방식이 있다. 논문에서는 캐시 메모리 구조 및 교체 알고리즘을 소프트웨어로 구현하여 각 기법의 특징을 분석한다. 논문의 실험결과 LRU 알고리즘이 균등 분포에서 36.044%, 577.936ns, 편향 분포에서 45.636%, 504.692ns의 히트율(Hit ratio)과 검색시간을 보였으며, FIFO 알고리즘은 균등 분포에서 36.078%, 554.772ns, 편향 분포에서 45.662%, 489.574ns로 LRU와 유사한 성능을 보였다. Random 교체방식은 균등 분포에서 30.042%, 622.866ns, 편향 분포에서 36.36%, 553.878%로 가장 낮은 성능을 보였다. 이는 캐시 메모리에서 일반적으로 사용되는 LRU 교체방식이 타 교체 알고리즘보다 최선의 성능을 보이면서도 데이터의 참조 정보를 고려하는 합리적인 알고리즘임을 나타내는 것이다.