• 제목/요약/키워드: Data cache

검색결과 487건 처리시간 0.026초

An Efficient Variable Rearrangement Technique for STT-RAM Based Hybrid Caches

  • 윤종희;조두산
    • 대한임베디드공학회논문지
    • /
    • 제11권2호
    • /
    • pp.67-78
    • /
    • 2016
  • The emerging Spin-Transfer Torque RAM (STT-RAM) is a promising component that can be used to improve the efficiency as a result of its high storage density and low leakage power. However, the state-of-the-art STT-RAM is not ready to replace SRAM technology due to the negative effect of its write operations. The write operations require longer latency and more power than the same operations in SRAM. Therefore, a hybrid cache with SRAM and STT-RAM technologies is proposed to obtain the benefits of STT-RAM while minimizing its negative effects by using SRAM. To efficiently use of the hybrid cache, it is important to place write intensive data onto the cache. Such data should be placed on SRAM to minimize the negative effect. Thus, we propose a technique that optimizes placement of data in main memory. It drives the proper combination of advantages and disadvantages for SRAM and STT-RAM in the hybrid cache. As a result of the proposed technique, write intensive data are loaded to SRAM and read intensive data are loaded to STT-RAM. In addition, our technique also optimizes temporal locality to minimize conflict misses. Therefore, it improves performance and energy consumption of the hybrid cache architecture in a certain range.

클라이언트 캐슁 데이터 관리 시스템을 위한 캐쉬 일관성 알고리즘 (A Cache Consistency Algorithm for Client Caching Data Management Systems)

  • 김치연
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2006년도 춘계종합학술대회
    • /
    • pp.1043-1046
    • /
    • 2006
  • 클라이언트의 캐쉬된 데이터 관리는 클라이언트 응용의 정확성을 보장하기 위해 필요하다. 캐쉬 일관성 알고리즘은 탐지 기반과 회피 기반의 두 부류가 있다. 탐지 기반의 캐쉬 일관성 방법은 일단 비일관된 데이터의 접근을 허용하고 완료하기 전 캐쉬된 데이터의 유효성을 검사한다. 반면, 회피 기반의 알고리즘 하에서 트랜잭션은 비일관된 데이터를 접근할 기회를 전혀 갖지 않는다. 이 논문에서는 회피 기반의 버전을 이용한 새로운 캐쉬 일관성 알고리즘을 제안한다. 제안하는 방법은 서버와 클라이언트에 이중 버전을 유지하여 단일 버전만 사용한 방법에 비하여 콜백으로 인한 메시지 교환을 제거하고 트랜잭션의 철회율을 감소시킬 수 있다. 또한 갱신 전달을 위하여 무효화와 전파를 혼합하여 사용함으로써 캐쉬 실패를 최소화하였다.

  • PDF

캐쉬 Forward/Backward기법을 이용한 데이터 검색에 관한 연구 (A Study on the Data Retrieval By Using a Cache Forward/Backward Technique)

  • 김수장
    • 한국정보통신설비학회:학술대회논문집
    • /
    • 한국정보통신설비학회 2003년도 하계학술대회
    • /
    • pp.229-233
    • /
    • 2003
  • 최근, 인터넷 사용자가 급증하면서 빠른 서비스에 대한 문제가 큰 관심이 되고있다. 특히 데이터베이스 시스템에서 저장 삭세 수정 등은 사용자에게 긴 대기시간을 요구할 수도 있기 때문에 사용자의 불평을 야기할 수 있다. 이 논문에서는 3-티어 방식에서 요즘 많이 사용되는 application server의 cache에 대해서 말하고자 한다. 기존 application server는 데이터를 application server cache에 저장하여 같은 데이터를 서비스할 경우 server의 cache를 사용하지만 이 논문에서 제안하는 것은 접속된 client를 관리하여 각각의 client에 cache를 만들고 application server나 또는 데이터베이스 server가 서비스를 하지 못할 경우는 가장 최근의 데이터를 가지고 있는 client를 찾아 client cache에 있는 데이터를 서비스 하자는 것이다.

  • PDF

1회성 쓰기 참조 특성을 고려하는 스마트폰 버퍼캐쉬 관리 기법 (Buffer Cache Management of Smartphones Exploiting Write-Only-Once Characteristics)

  • 김도희;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권6호
    • /
    • pp.129-134
    • /
    • 2015
  • 본 논문에서는 스마트폰 앱의 파일 접근 중 상당 부분이 1회성 쓰기 참조라는 것을 분석하고 이러한 특성을 고려한 버퍼캐쉬 관리 기법을 제안한다. 버퍼캐쉬는 여러 번 참조되는 파일 데이터를 스토리지 접근 없이 메모리에서 처리하여 성능 개선을 도모하지만, 쓰기 참조가 발생한 경우에는 짧은 시간 내에 스토리지에 직접 반영하여 시스템 크래쉬에 대비한다. 제안하는 기법은 1회의 쓰기만 발생한 캐쉬 데이터의 경우 스토리지 반영 직후 버퍼캐쉬에서 쫓아내어 캐쉬의 공간 효율을 높인다. 다양한 스마트폰 앱에 적용한 시뮬레이션 실험 결과 제안하는 기법은 기존 버퍼캐쉬 관리 기법에 비해 캐쉬적중률을 5-33% 향상시키고, 전력소모를 27-92% 줄일 수 있음을 보인다.

단속적(斷續的) 불규칙 주소간격을 갖는 멀티미디어 데이타를 위한 하드웨어 캐시 선인출 방법 (A Hardware Cache Prefetching Scheme for Multimedia Data with Intermittently Irregular Strides)

  • 전영숙;문현주;전중남;김석일
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권11호
    • /
    • pp.658-672
    • /
    • 2004
  • 멀티미디어 응용 프로그램은 방대한 양의 데이타를 실시간으로 고속 처리해야 한다. 적재/저장과 같은 메모리 참조 명령어는 프로세서의 고속 수행을 방해하는 주요인이다. 메모리 참조 속도를 향상시키기 위하여, 다음에 참조될 것으로 예상되는 데이타를 미리 캐시로 인출함으로써, 캐시 미스율과 전체 수행시간을 감소시키는 캐시 선인출 방법이 활용되고 있다. 본 연구에서는 기존의 참조예측표(RPT: Reference Prediction Table)를 사용하는 방법을 개선한 데이타 캐시 선인출 방법을 제시한다. 동일한 명령어가 참조하는 데이타의 주소간격을 계산할 때 캐시의 라인크기 단위의 주소간격을 사용하고, 규칙적인 주소간격에 불규칙한 간격이 하나 포함하더라도 선인출 효과를 유지할 수 있도록 선인출 알고리즘을 개선하였다. 일반적으로 많이 사용되는 멀티미디어 프로그램에 대하여 실험한 결과, 기존의 RPT 방식에 비하여 버스 사용량은 약 0.03% 증가한 반면에 캐시 미스율은 평균적으로 29% 정도 향상되었다.

데이터 검색의 적중률 향상을 위한 이중 캐시의 푸시 에이전트 모델 설계 (Design of Push Agent Model Using Dual Cache for Increasing Hit-Ratio of Data Search)

  • 김광중;고현;김영자;이연식
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.153-166
    • /
    • 2005
  • 기존 단일 캐시 구조는 각기 사용되는 교체 전략에 따라 적중률의 차이를 보임으로써 보다 향상된 적중률을 제공하며 서버 및 네트워크 트래픽을 감소시키는 새로운 캐시 구조가 필요하다. 그러므로 본 논문에서는 지속적인 정보 제공 및 동일한 정보의 중복 요청으로 인한 서버 과부하 및 네트워크 트래픽을 감소시키며 적중률을 향상시키는 이중 캐시를 이용한 푸시 에이전트 모델을 설계한다. 제안된 푸시 에이전트 모델에서는 서버 및 네트워크 부하를 감소시키기 위해 두 개의 캐시 저장소를 이용하여 단계적인 캐시 교체를 수행하는 이중 캐시 구조를 제안하며, 또한 캐시 내 데이터들의 효용성을 증가시키기 위해 Log(Size)+LRU, LFU, PLC의 교체 정책을 기반으로 데이터 갱신과 삭제를 수행하는 새로운 캐시 교체기법 및 알고리즘을 제시한다. 그리고 실험을 통해 이중 캐시 푸시 에이전트 모델에 대한 성능을 평가한다.

  • PDF

이동 컴퓨팅 환경에서 데이터의 주기성을 고려한 캐쉬 일관성 기법 (A Cache Consistency Scheme to Consider Period of Data in Mobile Computing Environments)

  • 임종원;황병연
    • 한국멀티미디어학회논문지
    • /
    • 제10권4호
    • /
    • pp.421-431
    • /
    • 2007
  • 이동 통신 기술의 급격한 발전으로, 이동 컴퓨팅 환경에서 데이터 서비스에 대한 수요가 점차 증가하고 있다. 이동 컴퓨팅 환경에서의 여러 단점을 극복하고자 캐쉬가 등장하게 되었다. 이동 호스트 내에 캐쉬가 존재하면, 통신 대역폭의 절약 및 질의에 대한 빠른 응답을 가져올 수 있지만, 이동 호스트가 서버 데이터와의 캐쉬 일관성(consistency)을 유지시켜야 한다는 문제가 생기게 된다. 본 논문에서는 기존의 기법들이 가지는 문제점들을 보완하기 위해 데이터의 주기성을 고려한 캐쉬 일관성 유지 기법을 제안한다. 제안한 기법은 데이터를 주기적, 비주기적 데이터로 분류하고 주기적 데이터에 만료시간을 삽입한다. 또한 무효화 메시지를 저장해서 단절 후에 선별적으로 캐쉬 데이터가 나누어질 수 있도록 해서, 캐쉬 내의 데이터가 접속 단절 후에 일방적으로 버려지는 것을 막을 수 있게 된다. 이렇게 함으로서 서버와 이동 호스트간의 통신에 사용하는 전체 대역폭의 낭비와 서버접속에 필요한 이동 호스트의 전력의 낭비를 줄일 수 있다. 마지막으로 기존의 기법과의 실험을 통해서 제안한 기법의 효율성을 알아보고자 한다.

  • PDF

에너지 효율이 높은 이중웨이선택형 연관사상캐시 (Energy-efficient Set-associative Cache Using Bi-mode Way-selector)

  • 이성재;강진구;이주호;윤지용;이인환
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제1권1호
    • /
    • pp.1-10
    • /
    • 2012
  • 본 논문은 레벨1 캐시에서 가장 우수한 수준의 에너지 효율을 제공하는 웨이룩업캐시와 레벨2 캐시에서 가장 높은 에너지 효율을 제공하는 웨이추적캐시의 장점을 결합하여, 모든 레벨의 캐시에서 가장 높은 수준의 에너지 효율을 제공하는 이중웨이선택캐시를 제안한다. Alpha 21264 프로세서의 예를 이용한 시뮬레이션 결과에 따르면, 이중웨이선택캐시는 레벨1 명령어캐시에서 일반적인 연관사상캐시에 비해 27.57%의 에너지를 소비하여, 웨이룩업캐시와 같은 수준의 에너지 효율을 제공한다. 그리고 이중웨이선택캐시는 레벨1 데이터 캐시에서 일반적인 연관사상캐시에 비해 28.42%의 에너지를 소비하며, 이는 웨이룩업캐시에 비해 에너지 소비가 15.54% 감소한 것이다. 또한 이중웨이선택캐시는 레벨2 캐시에서 일반적인 연관사상캐시에 비해 15.41%의 에너지를 소비하며, 이는 웨이추적캐시에 비해 에너지 소비가 16.16% 감소한 것이다.

통합 캐시 및 차별화된 핸드오프를 이용한 셀룰러 IP의 성능개선에 관한 연구 (A Study on Performance Improvement in Cellular IP Using Combined Cache and Different Handoff)

  • 서정화;김남
    • 한국통신학회논문지
    • /
    • 제29권12B호
    • /
    • pp.1063-1069
    • /
    • 2004
  • 셀룰러 IP 성능을 개선하기 위하여 기존에 제안된 페이징 및 루트 정보관리 캐시와 준-소프트 핸드오프 방식은 실시간 데이터 전송에 있어서 문제점을 가진다. 본 논문에서는 이에 대한 해결 방안으로 통합 캐시 (Combined Cache :CC)와 데이터에 따라 차별화된 핸드오프 방식의 운용을 제안하였다. 제안하는 통합 캐시는 MH에서 핸드 오프상태모드를 운용하지 않고, 아이들/ 액티브 상태만 운용하며, 핸드오프 방식은 데이터에 따라 차별화된 핸드오프 방식을 사용한다. 시뮬레이션 결과 제어패킷의 부하, 초기 수신시 데이터 패킷에 대한 트래픽 부하, 핸드오프시 패킷의 도착시간을 CIP, PRC와 비교하여 제안한 방식이 실시간 데이터 전송에 성능이 우수함을 확인하였다.

A Cache Privacy Protection Mechanism based on Dynamic Address Mapping in Named Data Networking

  • Zhu, Yi;Kang, Haohao;Huang, Ruhui
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권12호
    • /
    • pp.6123-6138
    • /
    • 2018
  • Named data networking (NDN) is a new network architecture designed for next generation Internet. Router-side content caching is one of the key features in NDN, which can reduce redundant transmission, accelerate content distribution and alleviate congestion. However, several security problems are introduced as well. One important security risk is cache privacy leakage. By measuring the content retrieve time, adversary can infer its neighbor users' hobby for privacy content. Focusing on this problem, we propose a cache privacy protection mechanism (named as CPPM-DAM) to identify legitimate user and adversary using Bloom filter. An optimization for storage cost is further provided to make this mechanism more practical. The simulation results of ndnSIM show that CPPM-DAM can effectively protect cache privacy.