• 제목/요약/키워드: Cache Replacement Algorithm

검색결과 58건 처리시간 0.025초

공유 디스크 클러스터에서 버퍼 고체 알고리즘의 성능 평가 (Performance Evaluation of Disk Replacement Algorithms in a Shared Cluster)

  • 조행래
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제35권6호
    • /
    • pp.469-480
    • /
    • 2008
  • 공유 디스크(Shared Disk: SD) 클러스터는 온라인 트랜잭션 처리를 위해 다수 개의 처리 노드들을 연동하는 방식으로, 모든 노드는 디스크 계층에서 데이터 베이스를 공유한다. 빈번한 디스크 액세스를 피하기 위하여 각 노드는 자신의 메모리 버퍼에 최근에 액세스한 페이지들을 캐싱한다. 이때 동일한 페이지가 여러 노드의 메모리 버퍼에 동시에 캐싱될 수 있으므로 각 노드가 최신의 내용을 액세스하기 위해서는 캐싱된 페이지의 일관성이 유지되어야 한다. SD 클러스터에서 기존에 제안된 대부분의 캐쉬 일관성 기법들은 버퍼 교체 알고리즘으로 LRU를 가정하였다. 이와는 달리 본 논문에서는 SD 클러스터의 특징을 고려한 네 가지의 버퍼 교체 알고리즘들을 제안하고 성능을 평가한다. 클러스터 구성과 데이터베이스 부하를 다양하게 변경하면서 실험을 수행하였고, 제안한 알고리즘은 LRU에 비해 최대 5배까지 성능이 향상됨을 확인할 수 있었다.

무선랜에서 낮은 지연 특성을 가지는 인증유지 핸드오프 기법과 트래픽 관리 기법 (Authenticated Handoff with Low Latency and Traffic Management in WLAN)

  • 최재우;양대헌;강전일
    • 정보보호학회논문지
    • /
    • 제15권2호
    • /
    • pp.81-94
    • /
    • 2005
  • 최근 무선랜 환경을 우리 근체에 널리 퍼져있고 많은 사람들이 FDA를 비롯한 multimedia application들과 같은 휴대장치를 많이 사용함으로써 단말 장비들의 이동이 계속 늘어나고 있다 그러나 이러한 단말 장비들이 이동하여 현재 접속되어 있는 AP(Access Point)를 벗어나 다른 AP와 접속을 시도할 때 두 AP들 사이에는 핸드오프 지연이 발생한다. 이러한 핸드오프 지연을 줄이기 위해 이 논문에서는 효과적인 데이터 구조를 사용하는 WFH(Weighted Frequent Handoff)를 제안한다. WFH는 FHR(Frequent Handoff Region)에서 클라이언트의 이동확률 개념을 도입한 새로운 cache replacement algorithm을 사용하여 cache hit ratio를 높이고 토폴로지에서 불필요하게 중복되는 트래픽도 줄여준다. 이 알고리즘은 QoS를 기반으로 하는 클라이언트의 레벨과 이동 패턴에 따라서 인종되는 범위가 달라지는 FHR과 네트워크 이동 토폴로지를 동적을 캡처하는 neighbor graph을 이용하고 있다.

Write Back 모드용 FIFO 버퍼 기능을 갖는 비동기식 데이터 캐시 (Design of an Asynchronous Data Cache with FIFO Buffer for Write Back Mode)

  • 박종민;김석만;오명훈;조경록
    • 한국콘텐츠학회논문지
    • /
    • 제10권6호
    • /
    • pp.72-79
    • /
    • 2010
  • 본 논문에서는 32bit 비동기 임베디드 프로세서용 쓰기 버퍼 기능을 갖는 데이터 캐시 구조를 제안하고 성능을 검증하였다. 데이터 캐시는 비동기 시스템에서 메인 메모리 장치와 프로세서 사이의 데이터 처리속도 향상을 목적으로 한다. 제안된 데이터 캐시의 메모리 크기는 8KB, 매핑 방식으로는 4 words(16byte)의 라인 크기를 가지며, 사상 기법으로는 4 way set associative, 교체 알고리즘으로는 pusedo LRU방식을 사용하였으며, 쓰기 정책을 위한 dirty 레지스터와 쓰기 버퍼를 적용시켰다. 설계한 데이터 캐시는 $0.13-{\mu}m$ CMOS공정으로 합성하였으며, MI벤치마크 검증 결과 평균 히트율은 94%이고 처리 속도가 46% 향상되었다.

전역적 메모리에서의 블록 룩업과 재배치에 관한 연구 (A Study on the Block Lookup and Replacement in Global Memory)

  • 이영섭;김은경;정병수
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 추계종합학술대회 논문집(3)
    • /
    • pp.51-54
    • /
    • 2000
  • Due to the emerging of high-speed network, lots of interests of access to remote data have increased. Those interests motivate using of Cooperative Caching that uses remote cache like local cache by sharing other clients' cache. The conventional algorithm like GMS(Global Memory Service) has some disadvantages that occurred bottleneck and decreasing performance because of exchanges of many messages to server or manager. On the other hand, Hint-based algorithm resolves a GMS's server bottleneck as each client has hint information of all blocks. But Hint-based algorithm also causes some problems such as inaccurate information in it, if it has too old hint information. In this paper, we offer the policy that supplement bottleneck and inaccuracy; by using file identifier that can search for the lookup table and by exchanging oldest block information between each client periodically.

  • PDF

인간 기억 인출 과정을 응용하여 설계된 ACT-R 기반 페이지 교체 정책 (A novel page replacement policy associated with ACT-R inspired by human memory retrieval process)

  • 노홍찬;박상현
    • 정보처리학회논문지D
    • /
    • 제18D권1호
    • /
    • pp.1-8
    • /
    • 2011
  • 자주 접근되는 데이터에 대해서 빠른 접근을 보장하기 위해 사용되는 임시저장소인 캐쉬는 컴퓨터 시스템 내에서 다양한 계층에 존재하며, 이러한 캐쉬 저장 공간 내에서 효율적으로 데이터를 관리하기 위해 다양한 페이지 교체 알고리즘들이 연구되어 왔다. 대부분의 페이지 교체 알고리즘들은 얼마나 최근에 데이터가 접근 되었는가 또는 얼마나 자주 접근되었는가를 바탕으로 향후 다시 접근될 것 같은 데이터들을 캐쉬 안에 유지하는 휴리스틱 방법을 취하고 있다. 이러한 컴퓨터 내에서의 데이터의 인출 과정은 인간의 기억 인출 과정과 유사하며, 인간의 기억 인출 과정 역시 캐쉬 구조처럼 기억이 얼마나 최근에 그리고 자주 인출되었는가에 의해 그 기억 인출의 확률과 인출속도가 결정된다는 것이 최근 연구에 의해서 밝혀진바 있다. 본 연구에서는 인간의 기억 인출 과정에서의 과거 해당 기억에 대한 인출 기록들의 최근성과 빈도가 인출 확률에 영향을 미치는 관계를 분석하고 이를 페이지 교체 알고리즘에 응용하여 기존의 페이지 교체 알고리즘의 성능을 개선하였다. 또한, 실험을 통해 제안하는 페이지 교체 알고리즘이 기존에 데이터베이스 버퍼 캐쉬에서 가장 좋은 성능을 보이는 것으로 알려진 LRFU보다 파라미터에 민감하지 않고 우수한 성능을 보인다는 것을 입증하였다.

프록시 캐쉬블록사이즈 변화에 따른 replacement 정책의 효율 비교 (Efficiency comparison between varying cache block size and replacement algorithm)

  • 신승훈;남동훈;박승규
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 봄 학술발표논문집 Vol.28 No.1 (A)
    • /
    • pp.34-36
    • /
    • 2001
  • 인터넷 상에서의 동영상이나 음성 등에 대한 서비스가 증가함에 따라, 이러한 미디어스트림을 제공하는 서버의 부하를 줄이기 위해 프록시 서버 사용이 요우되고 있다. 하지마, 미디어스트림을 용량이 크기 때문에 기존의 웹 오브젝트에 대한 캐슁 정책을 그대로 반영하기에는 무리가 따른다. 본 연구에서는 미디어스트림의 효율적인 캐슁를 위하여 다양한 replacement 정책과 캐슁 블록의 크기 변화에 따른 프록시 캐쉬의 효율성 변화를 살펴본다.

Cooperative Content Caching and Distribution in Dense Networks

  • Kabir, Asif
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권11호
    • /
    • pp.5323-5343
    • /
    • 2018
  • Mobile applications and social networks tend to enhance the need for high-quality content access. To address the rapid growing demand for data services in mobile networks, it is necessary to develop efficient content caching and distribution techniques, aiming at significantly reduction of redundant content transmission and thus improve content delivery efficiency. In this article, we develop optimal cooperative content cache and distribution policy, where a geographical cluster model is designed for content retrieval across the collaborative small cell base stations (SBSs) and replacement of cache framework. Furthermore, we divide the SBS storage space into two equal parts: the first is local, the other is global content cache. We propose an algorithm to minimize the content caching delay, transmission cost and backhaul bottleneck at the edge of networks. Simulation results indicates that the proposed neighbor SBSs cooperative caching scheme brings a substantial improvement regarding content availability and cache storage capacity at the edge of networks in comparison with the current conventional cache placement approaches.

분산 이질형 객체 환경에서 캐슁 알고리즘의 설계 및 성능 분석 (Design and Performance Analysis of Caching Algorithms for Distributed Non-uniform Objects)

  • 반효경;노삼혁;민상렬;고건
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제27권6호
    • /
    • pp.583-591
    • /
    • 2000
  • 캐슁 기법은 저장 장치 계층 간의 속도차를 완충시키기 위해 캐쉬 메모리, 페이징 기법, 버퍼링 기법 등으로 널리 연구되어 왔다. 하지만, 최근 웹을 비롯한 다양한 광역 분산 환경의 보편화에 따라 단일 시스템 내의 저장 장치 간에 이루어지는 캐슁 기법 뿐 아니라 타 노드의 객체를 캐슁하는 기법의 중요성이 커지고 있다. 광역 분산 환경에서의 캐슁 기법은 객체의 캐슁에 드는 비용과 캐슁으로 인한 이득이 객체의 근원지 노드의 위치에 따라 이질적이기 때문에 비용 차이를 고려한 캐쉬 교체 알고리즘이 필요하다. 한편, 캐쉬 교체 알고리즘은 온라인 알고리즘으로서 매 시점 교체 대상이 되는 객체를 즉시 선택해야 하기 때문에 알고리즘의 시간 복잡도가 지나치게 높지 않아야 한다. 그러나, 광역 분산 환경에서의 교체 알고리즘에 대한 지금까지의 연구는 객체들의 이질성을 고려하는 문제와 캐쉬 운영의 시간 복잡도 측면 모두에서 만족스러운 결과를 보이지는 못하고 있다. 본 논문은 이러한 점을 극복하여 우수한 성능을 나타내면서 효율적인 구현이 가능한 새로운 교체 알고리즘을 설계하고, 그 우수성을 트레이스 기반 모의 실험을 통해 보여 준다.

  • PDF

파일 타입을 이용한 웹 캐싱 (Web Caching using File Type)

  • 임재현;이준연
    • 정보처리학회논문지C
    • /
    • 제9C권6호
    • /
    • pp.961-968
    • /
    • 2002
  • 본 논문에서는 웹상의 높은 가변성을 고려하여 웹 캐시 공간을 관리하는 새로운 접근 방법을 제안한다. 모든 문서를 저장하는데 하나의 캐시를 사용하는 것 대신에, 캐시를 분할하여 파일 타입에 따라 저장한다. 제안된 방법은 LFU, LRU와 SIZE 기반 알고리즘을 사용하여 현재의 캐시 관리 정책과 비교한다. 2가지의 서로 다른 실제 작업부하를 사용하며, 시뮬레이션을 통해 파일 타입별 캐싱이 적중률과 바이트적중률을 개선시킴을 보인다.

캐쉬 메모리가 버스 트래픽에 끼치는 영향 (The Effects of Cache Memory on the System Bus Traffic)

  • 조용훈;김정선
    • 한국통신학회논문지
    • /
    • 제21권1호
    • /
    • pp.224-240
    • /
    • 1996
  • It is common sense for at least one or more levels of cache memory to be used in these day's computer systems. In this paper, the impact of the internal cache memory organization on the performance of the computer is investigated by using a simulator program, which is wirtten by authors and run on SUN SPARC workstation, with several real execution, with several real execution trace files. 280 cache organizations have been simulated using n-way set associative mapping and LRU(Least Recently Used) replacement algorithm with write allocation policy. As a result, 16-way setassociative cache is the best configuration, and when we select 256KB cache memory and 64 byte line size, the bus traffic ratio was decreased compared to that of the noncache system so that a single bus could support almost 7 processors without any delay and degradationof high ratio(hit ratio was 99.21%). The smaller the line size we choose, the little lower hit ratio we can get, but the more processors can be supported by a single bus(maximum 18 processors). Therefore, using a proper cache memory organization can make a single bus structure be able to support multiple processors without any performance degradation.

  • PDF