• 제목/요약/키워드: cache performance model

검색결과 57건 처리시간 0.032초

LRU-CFP: 데이터 방송 환경을 위한 클라이언트 캐쉬 관리 기법 (Client Cache Management Scheme For Data Broadcasting Environments)

  • 권혁민
    • 정보처리학회논문지D
    • /
    • 제10D권6호
    • /
    • pp.961-970
    • /
    • 2003
  • 데이타 방송 환경에서 서버는 방송 채널을 통하여 데이타베이스 내의 데이타들을 주기적으로 방송한다. 그리고 각 클라이언트가 어떤 데이타를 액세스하기 위해서는 방송 채널을 감시하여 해당 데이타가 방송되기를 기다려야 한다. 클라이언트 데이타 캐슁은 클라이언트가 액세스하려는 데이타가 방송되기를 기다리는 시간을 줄이기 위한 매우 효과적인 기술이다. 본 논문에서는 이 대기 시간을 줄이기 위하여 LRU-CFP로 명명된 새로운 클라이언트 캐쉬 관리 기법을 제안하고, 모의 실험을 통하여 새로이 제시된 기법의 성능을 평가한다. 성능 평가 결과에 의하면 LRU-CFP 기법은 LRU, GRAY, 그리고 CF 기법보다 평균 응답시간에 있어서 더 우수한 성능을 보인다.

한정된 연산유닛에서 명령어 종속성을 이용하는 수퍼스칼라 프로세서의 이론적 성능 모델 (A Theoretical Superscalar Microprocessor Performance Model with Limited Functional Units Using Instruction Dependencies)

  • 이종복
    • 전기학회논문지
    • /
    • 제59권2호
    • /
    • pp.423-428
    • /
    • 2010
  • In the initial design phase of superscalar microprocessors, a performance model is necessary. A theoretic performance model is very useful since performance for various architecture parameters can be obtained by simply computing equations, without repeating simulations, Previous studies established theoretic performance models using the relation between the instruction window size and the issue width, with the penalties due to branch mispredictions and cache misses. However, the study was intended for unlimited number of functional units, which is insufficient for the real case application. This paper proposes a superscalar microprocessor theoretical performance model which also works for the limited functional units. To enhance the accuracy of our limited functional unit model, instruction dependency rates are employed. By using trace-driven data of SPEC 2000 integer programs as input, this paper shows that the theoretically computed performance of superscalar microprocessor with limited number of functional units is quite similar to the measured performance.

웹 캐쉬에서 만기시간의 영향을 고려한 유효참조확률 (Effective Reference Probability Incorporating the Effect of Expiration Time in Web Cache)

  • 이정준;문양세;황규영;홍의경
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제28권4호
    • /
    • pp.688-701
    • /
    • 2001
  • 웹 캐쉬는 웹 응용의 성능향상을 위한 중요한 문제가 되었다. 본 논문에서는 웹 데이타에 부여 되는 만기시간(expiration time을 활용하여 웹 캐쉬의 성능을 향상시키는 방법을 제안한다. 먼저, 기존 캐 쉬 교체 알고리즘에서 사용된 참조확률에 만기시간의 영향을 반영한 유효참조확률(effective referenceprobability)의 개념을 제시한다. 그리고, 유효참조확률을 정형적으로 정의한 후, 확률적 모델 하에서 이 론적으로 유도한다. 기존의 교체 알고리즘에서 참조확률을 유효탐조확률로 대체하면 기존 교체 알고리즘에만기시간의 영향을 반영할 수 있다. 성능평가 결과, 유효참조확률을 사용한 알고리즘이 그렇지 않은 알고 리즘보다 항상 우수한 결과를 보였다. 이것은 제안한 방법이 만기시간을 고려하여 캐쉬효과를 얻을 이론적 인 확률을 정확히 반영한 방법으로서, 만기시간의 영향을 보다 효과적으로 반영하기 때문이다. 특히, 유효 참조확률은 캐쉬비율이 0.05이고 갱신이 비교적 자주 일어날 경우(갱신횟구가 참조횟수의 1/10이상인 경우)에 LRU-2의 경우 30% 이상. Aggarwal의 방법(refresh overhead factor가 통합된 PSS)의 경우 13%이상 성능을 개선하였다. 이 같은 결과는 유효참조확률이 만기시간이 주어지는 웹 캐쉬에서 크게 성능을 개선할 수 있음을 보여주고 있다.

  • PDF

Counter-Based Approaches for Efficient WCET Analysis of Multicore Processors with Shared Caches

  • Ding, Yiqiang;Zhang, Wei
    • Journal of Computing Science and Engineering
    • /
    • 제7권4호
    • /
    • pp.285-299
    • /
    • 2013
  • To enable hard real-time systems to take advantage of multicore processors, it is crucial to obtain the worst-case execution time (WCET) for programs running on multicore processors. However, this is challenging and complicated due to the inter-thread interferences from the shared resources in a multicore processor. Recent research used the combined cache conflict graph (CCCG) to model and compute the worst-case inter-thread interferences on a shared L2 cache in a multicore processor, which is called the CCCG-based approach in this paper. Although it can compute the WCET safely and accurately, its computational complexity is exponential and prohibitive for a large number of cores. In this paper, we propose three counter-based approaches to significantly reduce the complexity of the multicore WCET analysis, while achieving absolute safety with tightness close to the CCCG-based approach. The basic counter-based approach simply counts the worst-case number of cache line blocks mapped to a cache set of a shared L2 cache from all the concurrent threads, and compares it with the associativity of the cache set to compute the worst-case cache behavior. The enhanced counter-based approach uses techniques to enhance the accuracy of calculating the counters. The hybrid counter-based approach combines the enhanced counter-based approach and the CCCG-based approach to further improve the tightness of analysis without significantly increasing the complexity. Our experiments on a 4-core processor indicate that the enhanced counter-based approach overestimates the WCET by 14% on average compared to the CCCG-based approach, while its averaged running time is less than 1/380 that of the CCCG-based approach. The hybrid approach reduces the overestimation to only 2.65%, while its running time is less than 1/150 that of the CCCG-based approach on average.

개체 타입별 분할공간을 이용한 웹 프락시 캐시의 대체 알고리즘 (Web Proxy Cache Replacement Algorithms using Object Type Partition)

  • Soo-haeng, Lee;Sang-bang, Choi
    • 한국통신학회논문지
    • /
    • 제27권5C호
    • /
    • pp.399-410
    • /
    • 2002
  • 웹 캐시는 클라이언트와 서버사이에 위치하여, 대리자의 역할을 하는 프락시 서버의 기능적측면의 다른 이름이다. 클라이언트와 프락시 서버사이는 주로 LAN을 통해 연결되므로 넓은 대역폭을 갖게 되지만 웹 캐시의 저장공간은 한정되어 있으므로 웹 캐시내에 존재하는 개체들은 대체 알고리즘이라는 어떤 규칙에 의해 새 개체를 위한 공간확보를 위해 삭제되게 된다. 대부분의 대체 알고리즘들은 성능평가기준인 히트율과 바이트히트율 중 단지 하나의 성능평가기준만을 만족하던지, 때때로 어느 한 기준도 만족시키지 못한다. 본 논문에서 우리는 히트율과 바이트히트율 모두에서 높은 성능을 나타내는 두 가지의 대체알고리즘을 제안한다. 첫 번째 알고리즘은 기본모델로서, 캐시를 파일타입에 따라 적절히 분할시킨다. 두 번째 알고리즘에서는 2-레벨의 캐시구조를 사용한다. 상위레벨캐시는 기본 모델에서처럼 운용되고, 하위레벨캐시는 공유공간으로서 모든 타입의 개체들을 집합적으로 수용하게 된다. 트레이스-드리븐 시뮬레이션을 사용하여 히트율과 바이트히트율을 측정함으로써 제안 알고리즘들의 성능을 평가하였다.

스케일러블 그래픽스 알고리즘 (Scalable Graphics Algorithms)

  • 윤성의
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 3부
    • /
    • pp.224-224
    • /
    • 2008
  • Recent advances in model acquisition, computer-aided design, and simulation technologies have resulted in massive databases of complex geometric data occupying multiple gigabytes and even terabytes. In various graphics/geometric applications, the major performance bottleneck is typically in accessing these massive geometric data due to the high complexity of such massive geometric data sets. However, there has been a consistent lower growth rate of data access speed compared to that of computational processing speed. Moreover, recent multi-core architectures aggravate this phenomenon. Therefore, it is expected that the current architecture improvement does not offer the solution to the problem of dealing with ever growing massive geometric data, especially in the case of using commodity hardware. In this tutorial, I will focus on two orthogonal approaches--multi-resolution and cache-coherent layout techniques--to design scalable graphics/geometric algorithms. First, I will discuss multi-resolution techniques that reduce the amount of data necessary for performing geometric methods within an error bound. Second, I will explain cache-coherent layouts that improve the cache utilization of runtime geometric applications. I have applied these two techniques into rendering, collision detection, and iso-surface extractions and, thereby, have been able to achieve significant performance improvement. I will show live demonstrations of view-dependent rendering and collision detection between massive models consisting of tens of millions of triangles on a laptop during the talk.

  • PDF

입출력 형태에 따른 다중처리기 시스템의 성능 분석 (An Analysis of Multi-processor System Performance Depending on the Input/Output Types)

  • 문원식
    • 디지털산업정보학회논문지
    • /
    • 제12권4호
    • /
    • pp.71-79
    • /
    • 2016
  • This study proposes a performance model of a shared bus multi-processor system and analyzes the effect of input/output types on system performance and overload of shared resources. This system performance model reflects the memory reference time in relation to the effect of input/output types on shared resources and the input/output processing time in relation to the input/output processor, disk buffer, and device standby places. In addition, it demonstrates the contribution of input/output types to system performance for comprehensive analysis of system performance. As the concept of workload in the probability theory and the presented model are utilized, the result of operating and analyzing the model in various conditions of processor capability, cache miss ratio, page fault ratio, disk buffer hit ratio (input/output processor and controller), memory access time, and input/output block size. A simulation is conducted to verify the analysis result.

그림자 트랜잭션을 이용한 지연 로킹 기법의 성능 평가 (Performance Evaluation of Deferred Locking With Shadow Transaction)

  • 권혁민
    • 정보학연구
    • /
    • 제3권3호
    • /
    • pp.117-134
    • /
    • 2000
  • 데이타전송(data-shipping) 모델에 근간을 둔 클라이언트-서버(client-server) DBMS는 트랜잭션간 캐슁(inter-transaction caching)을 허용함에 의해 클라이언트의 자원을 효율적으로 이용할 수 있다. 그러나 트랜잭션간 캐슁을 허용하면 각 클라이언트는 데이타베이스의 일부분을 동적으로 캐슁할 수 있기 때문에 트랜잭션 캐쉬 일관성 유지(transactional cache consistency maintenance: TCCM) 기법의 필요성을 야기한다. 검사기반 TCCM 기법은 클라이언트 중복사본의 유효성을 비동기적으로 검증하면 캐쉬 일관성을 유지하기 위한 메시지 부담을 줄일 수 있기 때문에 높은 트랜잭션 처리율을 보일 수 있다. 그러나 트랜잭션들이 유효하지 않은 중복사본을 액세스할 수 있기 때문에 트랜잭션 철회율이 높은 단점이 있다. 이 단점에 대처하기 위하여 본 논문에서는 철회되는 트랜잭션 대신에 실행되기 위하여 관리되는 백업 목적의 트랜잭션인 그림자 트랜잭션의 개념을 제안한다. 본 논문은 그림자 트랜잭션의 개념에 기초하여 DL-ST로 명명된 새로운 검사기반의 TCCM 기법을 제안한다 그리고 모의실험을 통하여 트랜잭션 처리율과 철회율 관점에서 그림자 트랜잭션의 효과를 평가한다

  • PDF

시간 동기 비터비 빔 탐색을 위한 인식 시간 감축법 (Recognition Time Reduction Technique for the Time-synchronous Viterbi Beam Search)

  • 이강성
    • 한국음향학회지
    • /
    • 제20권6호
    • /
    • pp.46-50
    • /
    • 2001
  • 본 논문은 HMM (Hidden Markov Model) 음성 인식 시스템에 적용할 수 있는 새로운 인식 시간 알고리즘인 스코아 캐쉬기법을 제안한다. 다른 많은 기법들이 인식 시간을 줄이면서 계산량을 줄이기 위하여 어느 정도의 인식율 저하를 감수하는 반면에 제안하는 스코아 캐쉬기법은 인식율 저하를 전혀 일으키지 않으면서 인식 시간을 상당량 줄일 수 있는 기법이다. 단독어 인식 시스템에 적용 가능할 뿐 아니라 연속어 인식에도 적용이 가능하며, 기존에 이미 설계된 인식 시스템의 구조를 전혀 흩트리지 않고 간단히 하나의 함수만 대치함으로서 인식시간을 크게 감축할 수 있다 또한 기존의 계산량 감축 알고리즘과 함께 적용 가능하므로 추가의 계산량 감소를 얻을 수 있다. 스코아 캐쉬 기법을 적용한 결과 최대 54% 만큼 계산량을 줄일 수 있었다.

  • PDF

Forecasting Load Balancing Method by Prediction Hot Spots in the Shared Web Caching System

  • Jung, Sung-C.;Chong, Kil-T.
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.2137-2142
    • /
    • 2003
  • One of the important performance metrics of the World Wide Web is how fast and precise a request from users will be serviced successfully. Shared Web Caching (SWC) is one of the techniques to improve the performance of the network system. In Shared Web Caching Systems, the key issue is on deciding when and where an item is cached, and also how to transfer the correct and reliable information to the users quickly. Such SWC distributes the items to the proxies which have sufficient capacity such as the processing time and the cache sizes. In this study, the Hot Spot Prediction Algorithm (HSPA) has been suggested to improve the consistent hashing algorithm in the point of the load balancing, hit rate with a shorter response time. This method predicts the popular hot spots using a prediction model. The hot spots have been patched to the proper proxies according to the load-balancing algorithm. Also a simulator is developed to utilize the suggested algorithm using PERL language. The computer simulation result proves the performance of the suggested algorithm. The suggested algorithm is tested using the consistent hashing in the point of the load balancing and the hit rate.

  • PDF