• Title/Summary/Keyword: cache-hit

Search Result 172, Processing Time 0.052 seconds

공유 메모리를 갖는 다중 프로세서 컴퓨터 시스팀의 설계 및 성능분석

  • Choe, Chang-Yeol;Park, Byeong-Gwan;Park, Seong-Gyu;O, Gil-Rok
    • ETRI Journal
    • /
    • v.10 no.3
    • /
    • pp.83-91
    • /
    • 1988
  • This paper describes the architecture and the performance analysis of a multiprocessor system, which is based on the shared memory and single system bus. The system bus provides the pended protocol for the multiprocessor environment. Analyzing the processor utilization, address/data bus utilization and memory conflicts, we use a simulation model. The hit ratio of private cache memory is a major factor on the linear increase of the performance of a shared memory based multiprocessor system.

  • PDF

Exploiting Device Cache Hit Behavior in IO Scheduling (입출력 스케줄링을 위한 캐시 적중 예측 기법)

  • Hwang, Tae-Ho;Kim, Jong-Min;Won, You-Jip
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06b
    • /
    • pp.368-369
    • /
    • 2011
  • 현대의 스토리지 디바이스들은 디바이스 내부에 캐시를 가지고 있다. 스토리지 디바이스 내부의 캐시에서 입출력 요청이 전송 될 경우 운영체제는 문맥 전환을 하지 않아도 될 것이다. 본 연구에서는 입출력 스케줄러의 효율적인 스케줄링을 위한 정보를 제공하기 위해 캐시 적중 예측 기법을 제시하였다. 또한 실제 스토리지 디바이스를 대상으로 한 실험을 통해 실제 스토리지 디바이스의 캐시 패턴과 캐시 적중 시와 캐시 미스 시의 응답시간의 상이성을 살펴보고 캐시 적중 예측 기법을 설계하였다.

User Popularity based Cache Replacement Algorithm for Multimedia Streaming in Proxy Server (멀티미디어 스트리밍을 위한 프록시 서버에서의 사용자 선호도 기반 캐쉬 교환 알고리즘)

  • 이준표;박성한
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10c
    • /
    • pp.412-414
    • /
    • 2004
  • 대용량의 멀티미디어 데이터들을 다수의 시용자가 동시에 요구할 경우 접속이 끊기거나 데이터의 손실과 같은 접속 성능이 현저하게 저하되는 문제가 발생할 수 있다. 이는 대부분의 사용자들의 요청을 원거리의 Central Server가 단독으로 처리하기 때문에 발생하는 문제이다. 띠라서 Central Sever의 Load 감소와 초기 지연시간 및 비디오 패킷의 손실의 문제점을 해결하기 위해 프록시 서버를 사용자의 근거리에 위치시키는 방법을 이용한다. 대용랑의 멀티미디어 데이터들을 복잡한 인터넷의 중간경로를 거치지 않고 다수의 사용자들에게 직접 전달함으로써 데이터의 손실을 방지함과 동시에 보다 안정적이고 빠른 속도로 제공하는 것이 가능하다. 특징적으로 프록시 서버는 Central Server에 비해 비교적 제한된 용랑을 가지고 있다. 따라서 본 논문에서는 사용자의 선호도를 기반으로 하여 앞으로 요구학 것이라고 예측되는 비디오 데이터들만을 선별적으로 저장하도록 하는 알고리즘을 제안한다. 시뮬레이션을 통해 제안하는 캐쉬 교환 알고리즘을 기존의 알고리즘과 비교, 관찰한 결과 상대적으로 높은 Hit rate가 나타남을 확인하였다.

  • PDF

Data Mining Approach for Supporting Hoarding in Mobile Computing Environments

  • Jeon, Seong-Hae;Ryu, Je-Bok;Lee, Seung-Ju
    • Proceedings of the Korean Statistical Society Conference
    • /
    • 2003.05a
    • /
    • pp.13-17
    • /
    • 2003
  • 본 논문에서는 낮은 대역폭, 높은 지연, 그리고 잦은 네트워크 단절로 인한 모바일 컴퓨팅 환경의 문제점들을 해결하기 위한 효과적인 캐시 적재 기법으로서 협업 추천 기반의 데이터 마이닝 전략을 제안하였다. 캐시 적재가 모바일 클라이언트의 이러한 문제점들을 해결하기 위한 효율적인 방법이 된다는 기존의 연구는 많이 진행되어 왔다. 하지만 모바일 컴퓨터의 요구에 대한 이력 정보만을 이용한 기존의 연구는 모바일 클라이언트가 필요로 하는 모든 정보 요구를 만족하지 못하였다. 특히 저장 공간의 제약을 갖는 모바일 컴퓨터의 한계 때문에 더욱 큰 어려움을 갖게 되었다. 본 연구에서는 모바일 클라이언트의 이력 정보에 대하여 데이터 마이닝 기법을 적용한 캐시 적재 기법을 제안하여 적은 캐시 용량만으로도 모바일 클라이언트의 요구를 만족할 수 있는 아이템들을 효과적으로 서비스할 수 있도록 하였다. CSIM Simulator를 이용하여 모의 데이터를 생성하여, 제안 모형의 성능 평가를 위한 실험을 수행하였다. Cache hit ratio를 이용한 객관적인 성능 평가를 통하여 제안된 모형이 모바일 클라이언트의 캐시 적재 기법으로서 우수한 성능을 보임이 확인되었다.

  • PDF

An Analysis of Multi-processor System Performance Depending on the Input/Output Types (입출력 형태에 따른 다중처리기 시스템의 성능 분석)

  • Moon, Wonsik
    • Journal of Korea Society of Digital Industry and Information Management
    • /
    • v.12 no.4
    • /
    • pp.71-79
    • /
    • 2016
  • This study proposes a performance model of a shared bus multi-processor system and analyzes the effect of input/output types on system performance and overload of shared resources. This system performance model reflects the memory reference time in relation to the effect of input/output types on shared resources and the input/output processing time in relation to the input/output processor, disk buffer, and device standby places. In addition, it demonstrates the contribution of input/output types to system performance for comprehensive analysis of system performance. As the concept of workload in the probability theory and the presented model are utilized, the result of operating and analyzing the model in various conditions of processor capability, cache miss ratio, page fault ratio, disk buffer hit ratio (input/output processor and controller), memory access time, and input/output block size. A simulation is conducted to verify the analysis result.

A Group-based Web Cache Replacement Technique (그룹 기반의 웹 캐쉬 교체 기법)

  • 방지호;하란;차호정
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04a
    • /
    • pp.352-354
    • /
    • 2001
  • 효율적인 웹 캐쉬 교체 알고리즘을 통해 웹 서버와 네트워크의 부하를 감소시킬 수 있으며, 이에 따라 사용자가 요청한 문서에 대한 응답시간과 지연시간을 효과적으로 개선시킬 수 있다. 기존에 연구된 교체 알고리즘 중 LRU-SIZE와 LRU-MIN 기법은 일차적으로 캐슁된 문서의 크기에 따라 교체를 하고 크기가 똑같은 경우에 한해서 LRU를 적용하여 교체를 한다. 그러나 LRU-SIZE와 LRU-MIN에 의해서 캐슁된 문서를 교체를 하면 크기의 차이가 크지 않으면서 자주 요청되는 문서가 교체될 수 있다. 본 논문에서는 캐슁된 문서 크기의 로그화에 따라 구성된 그룹에서 자주 요청되지 않는 문서를 교체하는 알고리즘을 제안한다. 로그화를 통해 크기의 차이가 적은 문서들이 같은 그룹으로 설정되어 비교되기 때문에 자주 요청되는 문서들이 크기의 차이가 적은 문서에 의해 교체되는 것을 막을 수 있다. 성능 평가를 통해 제안한 교체 알고리즘이 다른 기법에 비해 높은 hit ratio를 나타냄을 보여준다.

Load Balancing of Web Server Clusters for Improving Cache Hit Rate (캐쉬 적중률 향상을 위한 웹 서버 클러스터의 부하 분배)

  • Kim, Hee-Gyu;Chung, Ji-Yung;Jang, In-Jae;Kim, Sung-Soo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04b
    • /
    • pp.1341-1344
    • /
    • 2002
  • 클러스터링을 이용한 웹 서버 구축 시 각 노드에 적절한 부하 분산이 이루어지도록 하는 것은 매우 중요하다. 부하 분배 알고리즘은 서버의 성능에 많은 영향을 미치며 부하 분배에 이용되는 기준은 간단하고 빨리 계산될 수 있어야 한다. 본 논문에서는 고가용도 및 확장성을 제공하는 클러스터링 웹 서비스를 대상으로 문서 접근 확률과 문서 크기 정보를 이용하는 동시에 캐쉬 적중률을 향상시키는 알고리즘을 제안한다.

  • PDF

A Prefetching and Memory Management Policy for Personal Solid State Drives (개인용 SSD를 위한 선반입 및 메모리 관리 정책)

  • Baek, Sung-Hoon
    • The KIPS Transactions:PartA
    • /
    • v.19A no.1
    • /
    • pp.35-44
    • /
    • 2012
  • Traditional technologies that are used to improve the performance of hard disk drives show many negative cases if they are applied to solid state drives (SSD). Access time and block sequence in hard disk drives that consist of mechanical components are very important performance factors. Meanwhile, SSD provides superior random read performance that is not affected by block address sequence due to the characteristics of flash memory. Practically, it is recommended to disable prefetching if a SSD is installed in a personal computer. However, this paper presents a combinational method of a prefetching scheme and a memory management that consider the internal structure of SSD and the characteristics of NAND flash memory. It is important that SSD must concurrently operate multiple flash memory chips. The I/O unit size of NAND flash memory tends to increase and it exceeded the block size of operating systems. Hence, the proposed prefetching scheme performs in an operating unit of SSD. To complement a weak point of the prefetching scheme, the proposed memory management scheme adaptively evicts uselessly prefetched data to maximize the sum of cache hit rate and prefetch hit rate. We implemented the proposed schemes as a Linux kernel module and evaluated them using a commercial SSD. The schemes improved the I/O performance up to 26% in a given experiment.

Block Replacement Scheme based on Reuse Interval for Hybrid SSD System (Hybrid SSD 시스템을 위한 재사용 간격 기반 블록 교체 기법)

  • Yoo, Sanghyun;Kim, Kyung Tae;Youn, Hee Yong
    • Journal of Internet Computing and Services
    • /
    • v.16 no.5
    • /
    • pp.19-27
    • /
    • 2015
  • Due to the advantages of fast read/write operation and low power consumption, SSD(Solid State Drive) is now widely adopted as storage device of smart phone, laptop computer, server, etc. However, the shortcomings of SSD such as limited number of write operations and asymmetric read/write operation lead to the problem of shortened life span of SSD. Therefore, the block replacement policy of SSD used as cache for HDD is very important. The existing solutions for improving the lifespan of SSD including the LARC scheme typically employ the LRU algorithm to manage the SSD blocks, which may increase the miss rate in SSD due to the replacement of frequently used block instead of rarely used block. In this paper we propose a novel block replacement scheme which considers the block reuse interval to effectively handle various data read/write patterns. The proposed scheme replaces the block in SSD based on the recency decided by reuse interval and age along with hit ratio. Computer simulation using workload trace files reveals that the proposed scheme consistently improves the performance and lifespan of SSD by increasing the hit ratio and decreasing the number of write operations compared to the existing schemes including LARC.

A novel page replacement policy associated with ACT-R inspired by human memory retrieval process (인간 기억 인출 과정을 응용하여 설계된 ACT-R 기반 페이지 교체 정책)

  • Roh, Hong-Chan;Park, Sang-Hyun
    • The KIPS Transactions:PartD
    • /
    • v.18D no.1
    • /
    • pp.1-8
    • /
    • 2011
  • The cache structure, which is designed for assuring fast accesses to frequently accessed data, resides on the various levels of computer system hierarchies. Many studies on this cache structure have been conducted and thus many page-replacement algorithms have been proposed. Most of page-replacement algorithms are designed on the basis of heuristic methods by using their own criteria such as how recently pages are accessed and how often they are accessed. This data-retrieval process in computer systems is analogous to human memory retrieval process since the retrieval process of human memory depends on frequency and recency of the retrieval events as well. A recent study regarding human memory cognition revealed that the possibility of the retrieval success and the retrieval latency have a strong correlation with the frequency and recency of the previous retrieval events. In this paper, we propose a novel page-replacement algorithm by utilizing the knowledge from the recent research regarding human memory cognition. Through a set of experiments, we demonstrated that our new method presents better hit-ratio than the LRFU algorithm which has been known as the best performing page-replacement algorithm for DBMS caches.