• 제목/요약/키워드: split cache

검색결과 14건 처리시간 0.024초

MI-MESI 쓰기-무효화 스누핑 캐쉬 일관성 유지 프로토콜 (MI-MESI Write-invalidate Snooping Cache Coherence Protocol)

  • 장성태
    • 한국정보처리학회논문지
    • /
    • 제2권5호
    • /
    • pp.757-767
    • /
    • 1995
  • 본 논문에서는 분리형 트랜잭션 버스를 기반으로한 다중 프로세서 환경하에서 MESI와I-MESI 캐쉬 일관성 유지 프로토콜의 문제점을 개선한 MI-MESI 쓰기-무효화 스누핑 캐쉬 일관성 유지 프로토콜을 제시한다. 이 프로토콜에서 각 캐쉬 블럭은 여섯 개의 캐쉬 상태 즉, Modified-shared, Invalid-by-other, Modified, Exclusive, Shared 및 Invalid 상태중의 하나를 유지하여, 기존의 MESI와데 I-MESI 캐쉬 일관성 유지 프 로토콜에서 발생하는 불필요한 메모리 모듈의 갱신과 메모리 모듈에서의 접근 충돌을 크게 줄여서 빠른 메모리 접근 시간을 제공할 수 있다.

  • PDF

Low Power Trace Cache for Embedded Processor

  • Moon Je-Gil;Jeong Ha-Young;Lee Yong-Surk
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 ICEIC The International Conference on Electronics Informations and Communications
    • /
    • pp.204-208
    • /
    • 2004
  • Embedded business will be expanded market more and more since customers seek more wearable and ubiquitous systems. Cellular telephones, PDAs, notebooks and portable multimedia devices could bring higher microprocessor revenues and more rewarding improvements in performance and functions. Increasing battery capacity is still creeping along the roadmap. Until a small practical fuel cell becomes available, microprocessor developers must come up with power-reduction methods. According to MPR 2003, the instruction and data caches of ARM920T processor consume $44\%$ of total processor power. The rest of it is split into the power consumptions of the integer core, memory management units, bus interface unit and other essential CPU circuitry. And the relationships among CPU, peripherals and caches may change in the future. The processor working on higher operating frequency will exact larger cache RAM and consume more energy. In this paper, we propose advanced low power trace cache which caches traces of the dynamic instruction stream, and reduces cache access times. And we evaluate the performance of the trace cache and estimate the power of the trace cache, which is compared with conventional cache.

  • PDF

An Index Structure for Main-memory Storage Systems using The Level Pre-fetching

  • Lee, Seok-Jae;Yoon, Jong-Hyun;Song, Seok-Il;Yoo, Jae-Soo
    • International Journal of Contents
    • /
    • 제3권1호
    • /
    • pp.19-23
    • /
    • 2007
  • Recently, several main-memory index structures have been proposed to reduce the impact of secondary cache misses. In mainmemory storage systems, secondary cache misses have a substantial effect on the performance of index structures. However, recent studies still stiffer from secondary cache misses when visiting each level of index tree. In this paper, we propose a new index structure that minimizes the total amount of cache miss latency. The proposed index structure prefetched grandchildren of a current node. The basic structure of the proposed index structure is based on that of the CSB+-Tree, which uses the concept of a node group to increase fan-out. However, the insert algorithm of the proposed index structure significantly reduces the cost of a split. The superiority of our algorithm is shown through performance evaluation.

멀티미디어 내장형 시스템을 위한 저전력 데이터 캐쉬 설계 (An Area Efficient Low Power Data Cache for Multimedia Embedded Systems)

  • 김정길;김신덕
    • 정보처리학회논문지A
    • /
    • 제13A권2호
    • /
    • pp.101-110
    • /
    • 2006
  • 대용량의 데이터 처리가 요구되는 내장형 시스템에서 메모리의 비중은 아주 중요하며, 특히 제한적인 메모리를 최적으로 이용하기 위하여 응용의 특성을 활용하는 온칩(on-chip) 메모리 구조의 설계가 필요하다. 본 논문에서는 멀티미디어 응용을 위한 내장형 시스템에서 저전력을 위하여 작은 용량으로 설계되었으나 우수한 성능을 보이는 데이터 캐쉬(data cache)가 제안된다. 제안되는 캐쉬는 컴파일러의 도움 없이 구조적인 특징과 간단한 동작 메커니즘만을 이용하여 해당 응용의 데이터 지역성(data locality)을 효과적으로 반영할 수 있도록 작은 블록 크기를 지원하는 4KB 용량의 직접사상 캐쉬(direct-mapped cache)와 큰 블록을 지원하는 1KB 용량의 완전연관 버퍼(fully-associative buffer)로 구성되어 진다. 전체 5KB의 작은 캐쉬 용량으로 인한 성능 저하를 보완하기 위하여 멀티미디어 응용의 알고리즘 특성을 기반으로 응용 적응적인 다중 블록 선인출(adaptive multi-block prefetching) 기법과 효과적 블록 필터링(effective block filtering) 기법이 제안되었다 시뮬레이션 결과에 따르면 제안된 5KB 캐쉬는 기존의 16KB 4-way 집합연관 캐쉬와 동등한 성능을 보이면서 소비 전력 면에서는 40% 이상의 감소를 보이고 있다.

무선 메쉬 네트워크를 위한 캐시 적중률 기반 파워 소모 모델 (A Cache Hit Ratio based Power Consumption Model for Wireless Mesh Networks)

  • 전승현;서용준
    • 산업융합연구
    • /
    • 제18권2호
    • /
    • pp.69-75
    • /
    • 2020
  • 산업용 IoT는 비용 효율적이고 넓은 커버리지를 제공하는 무선 메쉬 네트워크에 관심이 많았다. 하지만, 무선 메쉬 네트워크는 멀티홉 환경의 심각한 성능 절하를 겪는다. 이를 극복하기 위해 메쉬 라우터에 캐시를 장착하는 연구가 많았으나 캐시 파워 소모 모델 연구는 적었다. 최근 캐시 파워 효율 기반 모델은 캐시까지 콘텐츠 전달 파워를 모두 측정했기 때문에 무선 메쉬 네트워크에서 쓰기에 부적절합니다. 본 논문은 CPU의 동작속도가 캐시 크기에 비례한다는 사실을 이용하여 캐시 적중률 기반 파워 소모 모델을 제안하고, 기존 캐시 파워 효율 기반 소모 모델과 비교하여 정확하게 측정되었다. 제안된 캐시 적중률 기반 파워 소모 모델은 산업용 IoT에서 무선 메쉬 네트워크를 구성할 시 에너지 효율적인 캐시 운용을 위한 참조 모델로 활용되길 기대합니다.

텍스처의 크기에 따라 인덱스를 자동 분할하는 텍스처 캐시 (Texture Cache with Automatical Index Splitting Based on Texture Size)

  • 김진우;박용진;김영식;한탁돈
    • 한국게임학회 논문지
    • /
    • 제8권2호
    • /
    • pp.57-68
    • /
    • 2008
  • 텍스처 매핑(texture mapping)은 실감 있는 영상을 만들기 위해 3차원 그래픽스 칩에서 사용되는 기술이다. 이 방식 중 이중선형 필터링 모드(bilinear filtering mode)에서는 1개의 픽셀(pixel)을 처리하기 위해 4개의 텍셀(texture element: texel)에 접근이 요구된다. 본 논문에서는 텍스처의 접근패턴을 분석하여 동시에 4개의 텍셀을 접근할 수 있는 고성능 텍스처 캐시의 구조를 제시하였다. 3차원 게임인 퀘이크3(Quake 3)와 언리얼 토너먼트 2004(Unreal Tournament 2004)의 텍스처 접근 추출파일을 이용한 시뮬레이션 결과로 성능평가를 하였으며, 제시한 텍스처 캐시의 구조는 물리적인 크기가 8KBytes 이하인 경우 콜은 성능을 갖게 됨을 분석하였다.

  • PDF

레벨 프리페칭 기법을 이용한 향상된 주기억장치 상주형 색인구조 (IpCSB+ - tree : An Enhanced Main Memory Index Structure Employing the Level Prefetching Technique)

  • 홍현택;강태호;유재수
    • 인터넷정보학회논문지
    • /
    • 제4권6호
    • /
    • pp.75-86
    • /
    • 2003
  • 주기억장치 상주형 색인구조에서는 2차 캐쉬 실패가 성능에 매우 큰 영향을 미친다. 기존에 제안된 주기억장치 상주형 색인구조들은 2차 캐쉬 실패를 고려하긴 했지만 여전히 트리의 각 레벨을 접근할 때는 2차 캐쉬 실패가 발생한다. 본 논문에서는 이러한 문제점을 인식하고 트리 순회 시 각 레벨을 방문할 때도 캐쉬 실패가 발생하지 않는 주기억장치 색인구조를 제안한다. 제안하는 색인구조인 IpCSB+-트리는 다음 레벨에서 방문할 가능성이 있는 노드들을 프리페치하여 다음 레벨을 방문할 때도 캐쉬 실패가 발생하지 않도록 한다. 또한, 기본적인 구조는 노드그룹 개념을 이용하여 노드의 팬-아웃을 증가시키는 CSB+-트리에 기반하지만 CSB+-트리의 단점인 분한 비용의 증가문제를 해결하기 위한 방법을 제안한다. 성능평가를 통해 기존의 색인구조와 비교하여 제안하는 색인구조의 우수성을 보인다.

  • PDF

lpCSB+-트리 : 레벨 프리페칭 기법을 이용하는 향상된 주기억장치 상주형 색인구조 (lpCSB+- tree : An Enhanced Main Memory Index Structure Employing the Level Prefetching Technique)

  • 홍현택;피준일;송석일;유재수
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제31권6호
    • /
    • pp.675-683
    • /
    • 2004
  • 주기억장치 상주형 색인구조에서는 2차 캐쉬 실패가 성능에 매우 큰 영향을 미친다. 기존에 제안된 주기억장치 상주형 색인구조들은 2차 캐쉬 실패를 고려하긴 했지만 여전히 트리의 각 레벨을 접근할 때는 2차 캐쉬 실패가 발생한다. 본 논문에서는 이러한 문제점을 인식하고 트리 순회 시 각 레벨을 방문할 때도 캐쉬 실패가 발생하지 알는 주기억장치 색인구조를 제안한다. 제안하는 색인구조인 lpCSB+-트리는 다음 레벨에서 방문할 가능성이 있는 노드들을 프리페치하여 다음 레벨을 방문할 때도 캐쉬 실패가 발생하지 않도록 한다. 또한, 기본적인 구조는 노드그룹 개념을 이용하여 노드의 팬-아웃을 증가시키는 CSB+-트리에 기반하지만 CSB+-트리의 단점인 분팔 비용의 증가문제를 해결하기 위한 방법을 제안한다. 성능평가를 통해 기존의 색인구조와 비교하여 제안하는 색인구조의 우수성을 보인다.

메인 메모리에서 선반입을 사용한 확장된 R-Tree 색인 기법 (An Extended R-Tree Indexing Method using Prefetching in Main Memory)

  • 강홍구;김동오;홍동숙;한기준
    • 한국공간정보시스템학회 논문지
    • /
    • 제6권1호
    • /
    • pp.19-29
    • /
    • 2004
  • 최근 메인 메모리 기반에서 R-Tree의 성능을 개선하기 위해 캐시를 고려한 색인 구조들이 제안되었다. 이들 색인 구조의 일반적인 캐시 성능 개선 방법은 엔트리 크기를 줄여 펜-아웃(fanout)을 증가시키고 하나의 노드에 더 많은 엔트리를 저장함으로써 캐시 실패를 최소화하는 것이다. 그러나 이러한 방법은 갱신시 줄어든 엔트리 정보를 복원하는 추가 연산으로 갱신 성능이 떨어지고, 노드간 이동시 발생하는 캐시 실패는 여전히 성능 저하의 큰 문제가 되고 있다. 본 논문은 이러한 문제점을 개선하기 위해 메인 메모리에서 R-Tree에 선반입을 적용한 확장된 메인 메모리 기반 R-Tree 색인 기법인 PR-Tree를 제안하고 평가하였다. PR-Tree는 R-Tree의 근본적인 변형없이 노드 크기를 선반입에 최적화되도록 확장하고, 노드간 이동시 자식 노드를 선반입하여 캐시 실패를 최소화하였다. PR-Tree는 실험에서 R-Tree보다 검색 연산에서는 최대 38%의 성능 향상을 보였고, 갱신 연산에서는 최대 30%의 성능 향상을 보였고, 또한 노드 분할 연산에서는 최대 67%의 성능 향상을 보였다.

  • PDF

데이타웨어하우스 환경에서의 질의 처리 성능 향상을 위한 캐시 관리자 (A Cache Manager for Enhancing the Performance of Query Evaluation in Data Warehousing Environment)

  • 심준호
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제30권4호
    • /
    • pp.408-419
    • /
    • 2003
  • 데이타웨어하우스는 의사결정시스템의 질의처리에 사용되는데, 통상적으로 의사결정질의의 응답 속도는 OLTP 질의 응답속도에 비해 수십 배 이상 오래 걸린다. 의사결정은 대부분 빠른 시간 안에 이루어지는 것이 필수적이므로 의사결정질의 응답 속도를 단축시키는 기술은 중요하다. 본 논문에서는 기존의 질의결과를 캐싱하여 주어진 질의처리에 이용하는 기법을 제시한다. 이를 위해 먼저 의사결정시스템이 이 기법에 적합한 환경을 가지고 있는지 살펴본다. 그 다음, 임의 형태의 모든 질의를 처리한다는 것은 불가능하므로 우리가 다루는 질의 형태인 정규화형태를 정의한다. 질의가 정규화형태를 따르지 않으면 단순 스트링 매칭을 하고, 정규화된 경우라면 질의스플릿이란 질의 변환 과정과 질의종속그래프를 통해 캐시된 질의결과를 찾은 후 그 결과 위에서 질의를 수행한다. 캐시 관리자는 질의응답시간을 최소화하도록 캐시를 유지해야한다. 이를 위해 질의 수행비용, 질의결과의 크기, 레퍼런스비율, 베이스 테이블의 업데이트비율 및 그에 따른 질의결과 유지비용 등을 고려하여 캐싱하는 동적 캐시효환기법을 제안한다. 제안된 기법은 실험을 통해 그 성능을 검증하였다.