• 제목/요약/키워드: Data Caches

검색결과 61건 처리시간 0.018초

Bounding Worst-Case Data Cache Performance by Using Stack Distance

  • Liu, Yu;Zhang, Wei
    • Journal of Computing Science and Engineering
    • /
    • 제3권4호
    • /
    • pp.195-215
    • /
    • 2009
  • Worst-case execution time (WCET) analysis is critical for hard real-time systems to ensure that different tasks can meet their respective deadlines. While significant progress has been made for WCET analysis of instruction caches, the data cache timing analysis, especially for set-associative data caches, is rather limited. This paper proposes an approach to safely and tightly bounding data cache performance by computing the worst-case stack distance of data cache accesses. Our approach can not only be applied to direct-mapped caches, but also be used for set-associative or even fully-associative caches without increasing the complexity of analysis. Moreover, the proposed approach can statically categorize worst-case data cache misses into cold, conflict, and capacity misses, which can provide useful insights for designers to enhance the worst-case data cache performance. Our evaluation shows that the proposed data cache timing analysis technique can safely and accurately estimate the worst-case data cache performance, and the overestimation as compared to the observed worst-case data cache misses is within 1% on average.

Static Timing Analysis of Shared Caches for Multicore Processors

  • Zhang, Wei;Yan, Jun
    • Journal of Computing Science and Engineering
    • /
    • 제6권4호
    • /
    • pp.267-278
    • /
    • 2012
  • The state-of-the-art techniques in multicore timing analysis are limited to analyze multicores with shared instruction caches only. This paper proposes a uniform framework to analyze the worst-case performance for both shared instruction caches and data caches in a multicore platform. Our approach is based on a new concept called address flow graph, which can be used to model both instruction and data accesses for timing analysis. Our experiments, as a proof-of-concept study, indicate that the proposed approach can accurately compute the worst-case performance for real-time threads running on a dual-core processor with a shared L2 cache (either to store instructions or data).

임베디드 프로세서를 위한 선인출 데이터캐시의 저전력화 방안 (Reducing Power Consumption of Data Caches for Embedded Processors)

  • 문현주;지승현
    • 전자공학회논문지CI
    • /
    • 제44권1호
    • /
    • pp.1-9
    • /
    • 2007
  • 임베디드 프로세서는 총 에너지소모량 가운데 대략 40% 이상을 캐시에서 소모하고 있으므로 에너지-효율적 고성능 데이터 캐시 구조를 필요로 한다. 본 논문에서는 임베디드 프로세서를 위한 저전력 선인출 데이터캐시 구조를 제안하였다. 제안한 데이터캐시 구조는 선인출장치(prefetching unit)를 포함한 기존 데이터캐시 구조에 태그히스토리 테이블(tag history table)을 구비함으로써 요구인출 및 선인출시 발생하는 태그메모리 병렬탐색 횟수를 감소시켰다. 이와 같은 전략적인 캐시 구조는 적은 하드웨어 비용으로 병렬탐색을 위한 전력소모를 현저히 줄일 수 있다. 실험을 통하여 제안한 데이터캐시 구조가 기존 선인출 데이터캐시 구조와 동일한 성능을 유지하면서 낮은 전력을 요구함을 확인하였다.

Low Power Trace Cache for Embedded Processor

  • Moon Je-Gil;Jeong Ha-Young;Lee Yong-Surk
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 ICEIC The International Conference on Electronics Informations and Communications
    • /
    • pp.204-208
    • /
    • 2004
  • Embedded business will be expanded market more and more since customers seek more wearable and ubiquitous systems. Cellular telephones, PDAs, notebooks and portable multimedia devices could bring higher microprocessor revenues and more rewarding improvements in performance and functions. Increasing battery capacity is still creeping along the roadmap. Until a small practical fuel cell becomes available, microprocessor developers must come up with power-reduction methods. According to MPR 2003, the instruction and data caches of ARM920T processor consume $44\%$ of total processor power. The rest of it is split into the power consumptions of the integer core, memory management units, bus interface unit and other essential CPU circuitry. And the relationships among CPU, peripherals and caches may change in the future. The processor working on higher operating frequency will exact larger cache RAM and consume more energy. In this paper, we propose advanced low power trace cache which caches traces of the dynamic instruction stream, and reduces cache access times. And we evaluate the performance of the trace cache and estimate the power of the trace cache, which is compared with conventional cache.

  • PDF

Delay Reduction by Providing Location Based Services using Hybrid Cache in peer to peer Networks

  • Krishnan, C. Gopala;Rengarajan, A.;Manikandan, R.
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권6호
    • /
    • pp.2078-2094
    • /
    • 2015
  • Now a days, Efficient processing of Broadcast Queries is of critical importance with the ever-increasing deployment and use of mobile technologies. BQs have certain unique characteristics that the traditional spatial query processing in centralized databases does not address. In novel query processing technique, by maintaining high scalability and accuracy, latency is reduced considerably in answering BQs. Novel approach is based on peer-to-peer sharing, which enables us to process queries without delay at a mobile host by using query results cached in its neighboring mobile peers. We design and evaluate cooperative caching techniques to efficiently support data access in ad hoc networks. We first propose two schemes: Cache Data, which caches the data, and Cache Path, which caches the data path. After analyzing the performance of those two schemes, we propose a hybrid approach (Hybrid Cache), which can further improve the performance by taking advantage of Cache Data and Cache Path while avoiding their weaknesses. Cache replacement policies are also studied to further improve the performance. Simulation results show that the proposed schemes can significantly reduce the query delay and message complexity when compared to other caching schemes.

모바일 P2P 네트워크에서 피어의 연결성을 고려한 그룹 기반 캐시 공유 기법 (Group-based Cache Sharing Scheme Considering Peer Connectivity in Mobile P2P Networks)

  • 김재구;윤수용;임종태;이석희;복경수;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제14권10호
    • /
    • pp.20-31
    • /
    • 2014
  • 모바일 P2P 네트워크에서 사용자 요청을 효과적으로 처리하기 위해 캐시 공유 기법들이 연구되고 있다. 본 논문에서는 모바일 P2P 네트워크에서 피어의 연결성에 기반을 둔 클러스터를 구축하여 캐시를 공유하는 기법을 제안한다. 제안하는 기법은 연결성이 오랫동안 유지될 수 있는 피어들을 하나의 클러스터로 구성하여 캐시를 공유한다. 클러스터 내부에 있는 피어들의 캐시를 하나로 사용함으로써 데이터의 중복을 감소시키고 캐시 공간을 효율적으로 사용한다. 또한, 캐시 공간을 데이터 캐시와 임시 캐시 두 부분으로 분할하여 사용한다. 임시 캐시를 활용하여 클러스터의 토폴로지가 변경되거나 캐시 데이터 교체 시, 지연시간을 감소시킬 수 있다. 일반적인 기법은 협력적 캐시 처리 절차를 통해 질의가 전달되지만 통신비용을 줄이기 위해 1-홉 피어 캐시확인과 클러스터 헤더로 가는 경로에 있는 피어의 캐시를 확인한다. 성능 평가 결과 제안하는 기법이 기존 기법에 비해 캐시 적중률도 높고 지연시간을 감소시키는 것을 확인할 수 있었다.

클라이언트-서버 DBMS 환경에서 콜백 잠금 기반 다중 버전의 활용 (Exploitation of Multi-Versions based on Callback Locking in a Client-Server DBMS Environment)

  • 강흠근;민준기;전석주;정진완
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제31권5호
    • /
    • pp.457-467
    • /
    • 2004
  • 데이타 캐쉬를 관리하는 알고리즘의 효율성은 클라이언트에 데이타 캐쉬가 있는 시스템의 성능에 매우 큰 영향을 미친다. 클라이언트에 데이타 캐쉬가 있는 시스템에서는 서버에 추가 스페이스 부담없이 한 데이타에 대해서 두 개의 버전을 유지 관리할 수 있다. 그 이유는 하나의 데이타가 동시에 서버의 버퍼와 클라이언트의 캐쉬에 저장될 수 있기 때문이다. 본 논문에서는 버전 기법을 활용하는 캐쉬 일관성 알고리즘인 Two Versions-Callback Locking(2V-CBL)을 제안하고, 실험을 통해서 2V-CBL라 기존에 가장 높은 성능을 보였던 Asynchronous Avoidance-based Cache Consistency(AACC)의 성능을 비교하였다. 실험 결과에 의하면 2V-CBL은 최소한 AACC와 같은 성능을 보이며 일부의 트랜잭션이 데이타를 수정하지 않고 읽기만 하는 경우에는 AACC 보다 훨씬 높은 성능을 보인다.

캐쉬 용량 효과에 대한 멀티코어 프로세서의 성능 연구 (Performance Analysis of Multicore Processor Architectures Based On Cache Size Effects)

  • 이종복
    • 한국인터넷방송통신학회논문지
    • /
    • 제12권6호
    • /
    • pp.175-180
    • /
    • 2012
  • 최근에 이르러, 수퍼스칼라 프로세서의 하드웨어 복잡도와 성능 한계의 문제를 극복하기 위하여 멀티코어 프로세서가 각종 컴퓨터 시스템에 상용화되어 널리 이용되고 있다. 이 때, 멀티코어 프로세서의 성능에 큰 영향을 미치는 것은 명령어 캐쉬와 데이터 캐쉬의 구성 방법과 용량이다. 본 논문에서는 캐쉬의 구조와 용량이 멀티코어 프로세서의 성능에 미치는 영향을 분석하기 위하여, 다양한 캐쉬의 구조와 용량으로 구성되는 2 개에서 16 개까지의 멀티코어 프로세서에 대하여 SPEC 2000 벤치마크를 입력으로 하여 모의실험을 수행하였다. 모의실험 결과, 명령어 캐쉬와 데이터 캐쉬의 구조를 2 차 연관도로 구성하고 각 용량을 64 KB로 설정할 때 하드웨어의 비용 대 성능 효과가 가장 높았다.

멀티미디어 응용을 위한 저전력 데이터 캐쉬 구조 및 마이크로 아키텍쳐 수준 관리기법 (Low-Power Data Cache Architecture and Microarchitecture-level Management Policy for Multimedia Application)

  • 양훈모;김정길;박기호;김신덕
    • 정보처리학회논문지A
    • /
    • 제13A권3호
    • /
    • pp.191-198
    • /
    • 2006
  • 최근 디지털 멀티미디어 응용기기는 휴대 편의성은 물론 하나의 기기에서 다양한 멀티미디어 데이터 처리를 가능하게 하는 기능적 집적이 이루어지고 있다. 이와 같은 추세는 기기가 처리해야 하는 데이터 양의 증가와 이를 수행하기 위하여 요구되는 온칩 메모리의 크기 및 연산 유닛의 고성능화를 요구하여 전력 소비량의 증가를 유발시킨다. 연산 엔진에서 사용되는 대표적인 온칩 메모리인 캐쉬는 전력 사용에 있어서 중요한 비율을 차지하는 구조로 저전력 설계를 위한 구조적 개선의 주요 대상이다. 본 논문에서는 멀티미디어 응용을 수행하는 연산 엔진의 데이터 캐쉬에서 소비되는 전력을 감소시키기 위하여 멀티미디어 응용의 데이터 사용 특성을 파악하여 이 특성을 전력소비를 감소시키는 목적으로 활용 가능한 분할된 캐쉬구조를 제안한다. 그리고 각각의 분할된 캐쉬에 대하여 특정 주소 영역의 데이터 참조를 고정시킴으로써 얻을 수 있는 전력 소비면의 성능 향상을 평가한다. 시뮬레이션 결과 제안하는 캐쉬 구조는 같은 크기의 직접사상 캐쉬, 2중연관 캐쉬, 4중연관 캐쉬에 대해 유사한 성능을 나타내면서, 각각의 기존 캐쉬 구조와 비교하였을 경우 33.2%, 53.3% 및 70.4%만큼 감소된 전력으로 동작 가능하다.

모바일 3D 그래픽 가속기를 위한 저전력 텍스쳐 캐쉬 구조 설계 (A design of low power structures of texture caches for mobile 3D graphics accelerator)

  • 김영식;이재영
    • 한국게임학회 논문지
    • /
    • 제6권4호
    • /
    • pp.63-70
    • /
    • 2006
  • 본 논문에서는 모바일 3D 그래픽 가속기의 텍스쳐 데이터 메모리 지연시간을 감소하기 위해 사용하는 텍스쳐 캐쉬의 다양한 저전력 구조를 고찰하였다. 또한 텍스쳐 필터링 알고리즘에 따라서 가변적 전력 모드 전환 기준을 갖는 텍스쳐 캐쉬를 설계하였다. 각 텍스쳐 캐쉬 구조의 성능 비교 분석을 위하여 Quake 게임 엔진을 벤치마크로 사용한 트레이스 기반의 시뮬레이션을 수행하였다. 또한 저전력 텍스쳐 캐쉬 구조에 적합한 텍스쳐 필터링 알고리즘에 따라서 가변적 전력 모드 전환 기준을 갖는 알고리즘을 제안하고 시뮬레이션을 통하여 검증하였다.

  • PDF