• 제목/요약/키워드: cache-hit

검색결과 172건 처리시간 0.028초

무선랜에서 낮은 지연 특성을 가지는 인증유지 핸드오프 기법과 트래픽 관리 기법 (Authenticated Handoff with Low Latency and Traffic Management in WLAN)

  • 최재우;양대헌;강전일
    • 정보보호학회논문지
    • /
    • 제15권2호
    • /
    • pp.81-94
    • /
    • 2005
  • 최근 무선랜 환경을 우리 근체에 널리 퍼져있고 많은 사람들이 FDA를 비롯한 multimedia application들과 같은 휴대장치를 많이 사용함으로써 단말 장비들의 이동이 계속 늘어나고 있다 그러나 이러한 단말 장비들이 이동하여 현재 접속되어 있는 AP(Access Point)를 벗어나 다른 AP와 접속을 시도할 때 두 AP들 사이에는 핸드오프 지연이 발생한다. 이러한 핸드오프 지연을 줄이기 위해 이 논문에서는 효과적인 데이터 구조를 사용하는 WFH(Weighted Frequent Handoff)를 제안한다. WFH는 FHR(Frequent Handoff Region)에서 클라이언트의 이동확률 개념을 도입한 새로운 cache replacement algorithm을 사용하여 cache hit ratio를 높이고 토폴로지에서 불필요하게 중복되는 트래픽도 줄여준다. 이 알고리즘은 QoS를 기반으로 하는 클라이언트의 레벨과 이동 패턴에 따라서 인종되는 범위가 달라지는 FHR과 네트워크 이동 토폴로지를 동적을 캡처하는 neighbor graph을 이용하고 있다.

Energy-Efficient Last-Level Cache Management for PCM Memory Systems

  • Bahn, Hyokyung
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제14권1호
    • /
    • pp.188-193
    • /
    • 2022
  • The energy efficiency of memory systems is an important task in designing future computer systems as memory capacity continues to increase to accommodate the growing big data. In this article, we present an energy-efficient last-level cache management policy for future mobile systems. The proposed policy makes use of low-power PCM (phase-change memory) as the main memory medium, and reduces the amount of data written to PCM, thereby saving memory energy consumptions. To do so, the policy keeps track of the modified cache lines within each cache block, and replaces the last-level cache block that incurs the smallest PCM writing upon cache replacement requests. Also, the policy considers the access bit of cache blocks along with the cache line modifications in order not to degrade the cache hit ratio. Simulation experiments using SPEC benchmarks show that the proposed policy reduces the power consumption of PCM memory by 22.7% on average without degrading performances.

SSD 캐시를 위한 이웃 프리페칭 기법 (A Neighbor Prefetching Scheme for a Hybrid Storage System)

  • 백승훈
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제14권5호
    • /
    • pp.40-52
    • /
    • 2018
  • 플래시 기반의 SSD(solid state drive)를 HDD(hard disk drive)의 2차 캐시로 사용하는 기술이 많이 연구되었다. SSD를 이용한 캐시에 대한 캐시 교체 정책 및 관리에 관한 연구뿐만 아니라 프리페칭 연구도 필요하게 되었다. 본 논문은 SSD를 스토리지급 캐시로 사용하는 시스템을 위한 프리페칭 기술을 제시한다. 이 프리페칭 기술은 스토리지급 크기의 캐시에 맞게 대규모의 프리페칭이며, 단기적인 프리페칭은 1차 캐시인 주메모리에서 수행되므로 장기적 스케줄링을 기반한 프리페칭이며, 기존 프리페칭은 읽기만을 고려하였지만, 지속 가능한 SSD 캐시를 위해 쓰기 요청도 고려한 프리페칭이다. 어떤 사용자의 14일간의 입출력에서, 64GB 용량의 SSD에 프리페칭 용량이 4GiB일 때에, 2.3%에서 17.8%의 캐시 적중률 향상을 보였다. 본 기술은 구현이 간단하여 스토리지급 캐시 시스템에 쉽게 적용할 수 있다.

웹 서버의 참조 특성 분석과 성능 개선 (Analysis of Web Server Referencing Characteristics and performance Improvement of Web Server)

  • 안효범;조경산
    • 정보처리학회논문지A
    • /
    • 제8A권3호
    • /
    • pp.201-208
    • /
    • 2001
  • 웹의 기하급수적인 성장과 클라이언트의 비균일적 요청 특성은 웹 서버의 성능에 큰 영향을 주었으며, 이의 해결책으로 서버 캐쉬가 제안되었다. 본 논문에서는 웹 서버 참조의 반복성, 참조 크기 및 참조적 지역성 등의 특성들을 분석하고, 그 결과를 이용하여 서버 캐쉬의 히트율을 높이기 위한 기존 캐쉬 제거 방식의 예측을 통한 서버 캐쉬의 선인출 기법을 제안한다. 또한 웹사이트의 추적 자료에 의한 시뮬레이션을 수행하여 제안된 기법에 의한 성능 개선을 분석 제시한다.

  • PDF

Dynamic Probabilistic Caching Algorithm with Content Priorities for Content-Centric Networks

  • Sirichotedumrong, Warit;Kumwilaisak, Wuttipong;Tarnoi, Saran;Thatphitthukkul, Nattanun
    • ETRI Journal
    • /
    • 제39권5호
    • /
    • pp.695-706
    • /
    • 2017
  • This paper presents a caching algorithm that offers better reconstructed data quality to the requesters than a probabilistic caching scheme while maintaining comparable network performance. It decides whether an incoming data packet must be cached based on the dynamic caching probability, which is adjusted according to the priorities of content carried by the data packet, the uncertainty of content popularities, and the records of cache events in the router. The adaptation of caching probability depends on the priorities of content, the multiplication factor adaptation, and the addition factor adaptation. The multiplication factor adaptation is computed from an instantaneous cache-hit ratio, whereas the addition factor adaptation relies on a multiplication factor, popularities of requested contents, a cache-hit ratio, and a cache-miss ratio. We evaluate the performance of the caching algorithm by comparing it with previous caching schemes in network simulation. The simulation results indicate that our proposed caching algorithm surpasses previous schemes in terms of data quality and is comparable in terms of network performance.

Design of a DI model-based Content Addressable Memory for Asynchronous Cache

  • Battogtokh, Jigjidsuren;Cho, Kyoung-Rok
    • International Journal of Contents
    • /
    • 제5권2호
    • /
    • pp.53-58
    • /
    • 2009
  • This paper presents a novel approach in the design of a CAM for an asynchronous cache. The architecture of cache mainly consists of four units: control logics, content addressable memory, completion signal logic units and instruction memory. The pseudo-DCVSL is useful to make a completion signal which is a reference for handshake control. The proposed CAM is a very simple extension of the basic circuitry that makes a completion signal based on DI model. The cache has 2.75KB CAM for 8KB instruction memory. We designed and simulated the proposed asynchronous cache including CAM. The results show that the cache hit ratio is up to 95% based on pseudo-LRU replacement policy.

효율적인 버퍼 캐시 관리를 위한 동적 캐시 분할 블록교체 기법 (Dynamic Cache Partitioning Strategy for Efficient Buffer Cache Management)

  • 진재선;허의남;추현승
    • 한국시뮬레이션학회논문지
    • /
    • 제12권2호
    • /
    • pp.35-44
    • /
    • 2003
  • The effectiveness of buffer cache replacement algorithms is critical to the performance of I/O systems. In this paper, we propose the degree of inter-reference gap (DIG) based block replacement scheme that retains merits of the least recently used (LRU) such as simple implementation and good cache hit ratio (CHR) for general patterns of references, and improves CHR further. In the proposed scheme, cache blocks with low DIGs are distinguished from blocks with high DIGs and the replacement block is selected among high DIGs blocks as done in the low inter-reference recency set (LIRS) scheme. Thus, by having the effect of the partitioning the cache memory dynamically based on DIGs, CHR is improved. Trace-driven simulation is employed to verified the superiority of the DIG based scheme and shows that the performance improves up to about 175% compared to the LRU scheme and 3% compared to the LIRS scheme for the same traces.

  • PDF

프로세서의 재사용 정보를 이용하는 개선된 고성능 희생 캐쉬 (Advanced Victim Cache with Processor Reuse Information)

  • 곽종욱;이현배;장성태;전주식
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권12호
    • /
    • pp.704-715
    • /
    • 2004
  • 최근의 단일 혹은 다중 프로세서 시스템은 일반적으로 계층적 메모리를 사용한다 이는 프로세서의 클럭 속도와 메모리로의 데이타 접근 시간의 증가로 인한 시스템 성능 저하를 막기 위한 노력 중 하나이다. 특히 프로세서와의 속도 차이를 줄이기 위해 사용되는 캐쉬는 이단계에서 삼단계에 이르는 다양한 형태의 계층을 포함하는 메모리 시스템으로 구성된다. 이 중에서도 특히 상위 캐쉬는 프로세서와 직접 인터페이스가 이루어지기 때문에, 해당 캐쉬의 적중률은 전체 시스템의 성능을 결정하는 중요한 요소가 된다. 이러한 상위 캐쉬의 하나로써, 희생 캐쉬는 일차 캐쉬의 충돌 미스(Conflict Miss)를 줄이기 위해 추가된 모듈이다. 이는 프로세서 입장에서 보면 절차상 일차 캐쉬와 동등한 관계에서 접근이 이루어진다. 본 논문에서는 이러한 상위 캐쉬의 관리 정책 중, 기존의 일차 캐쉬와 희생 캐쉬의 구현시 배제되어 왔던 프로세서의 재사용 정보를 이용하는 캐쉬 라인의 효율적인 관리 정책을 제안하고자 한다. 이 기법은 프로세서의 데이타 사용 빈도에 의한 캐쉬 교체 정책으로, 프로세서에 의해 특정 데이타가 얼마나 자주 접근되었는가에 따라, 사용 빈도수가 높은 데이타에 대해 캐쉬에 위치시키는 시간을 연장시키는 기법이다. 본 논문에서는 제안된 메모리 시스템의 성능을 평가하기 위해, 이를 프로그램 기반 시뮬레이터인 Augmint를 통해 모델링한 후, 시뮬레이션을 수행한다. 그리고 이를 기존의 단순한 회생 캐쉬 교체 정책과 비교하여 성능상의 차이점을 비교 분석한다. 실험 결과 제안된 LIVMR 기법은 최대 6.7%, 평균 0.5%의 성능 향상을 보였다.

무선 홈 네트워킹 서비스를 위한 스마트 캐싱 기법 (A Smart Caching Scheme for Wireless Home Networking Services)

  • 이종득
    • 디지털융복합연구
    • /
    • 제17권9호
    • /
    • pp.153-161
    • /
    • 2019
  • 무선 홈 프록시에서 미디어 객체 세그먼트들에 대한 식별은 캐싱 지연에 중요한 영향을 미치게 되며, 캐싱 지연은 프록시의 성능을 떨어뜨리는 원인을 제공한다. 본 논문에서는 홈 네트워크의 프록시 성능을 향상시키고 미디어 객체 세그먼트들에 대한 캐싱 성능을 향상시키기 위하여 SFSC(Single Fetching Smart Caching)전략과 MFSC(Multi-Fetching Smart Caching)전략을 제안한다. SFSC전략은 홈 노드가 요청한 객체 세그먼트를 한 번에 하나씩 순차적으로 패칭하여 캐싱을 수행하는 기법으로서 보다 빠른 캐시 히트율을 보장해 주는 기법이며, MFSC전략은 홈 노드가 요청한 객체 세그먼트를 한 번에 여러 개씩 block화하여 캐시하는 기법으로서 처리율을 향상시키기 위한 기법이다. 시뮬레이션 결과 SFSC기법은 MFSC기법에 비해서 캐시 히트율과 캐싱 지연이 보다 효율적임을 알 수 있었으며, 반대로 객체 세그먼트에 대한 처리율은 MFSC기법이 SFSC기법에 비해서 보다 효율적임을 알 수 있었다.

사운드 렌더링에 적합한 캐시 성능 측정을 위한 캐시 시뮬레이션 (Cache simulation for measuring cache performance suitable for sound rendering)

  • 주예종;홍덕기;정우남;박우찬
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권3호
    • /
    • pp.123-133
    • /
    • 2017
  • 캐시의 성능은 하드웨어 시스템에서 중요한 요인이다. 본 논문은 사운드 렌더링에 적합한 캐시 성능을 분석하기 위해 캐시 시뮬레이션을 진행한다. 또한 본 논문은 기하학적 방법(Geometric method)에서 사용하는 광선 추적(Ray tracing) 기반의 하드웨어 모델들과 캐시 성능을 향상시키기 위한 연구들을 소개한다. 캐시 시뮬레이션은 캐시 크기, 웨이, 블록에 대한 조건들에 대해 다양하게 진행된다. 다양한 시뮬레이션은 캐시 히트율에 영향을 미치는 요인을 찾을 수 있다. 본 논문은 캐시 시뮬레이션 결과와 실제 하드웨어 성능을 비교하여 사운드 렌더링에 적합한 캐시 성능을 분석한다.