• 제목/요약/키워드: Cache utilization

검색결과 51건 처리시간 0.024초

실시간 태스크의 마감시간 만족을 위한 캐쉬 최적 분할 형태의 분석 (An Analysis on The Optimal Partitioning Configuration of Cache for Meeting Deadlines of Real-Time Tasks)

  • 김명희;주수종
    • 한국정보처리학회논문지
    • /
    • 제4권11호
    • /
    • pp.2891-2902
    • /
    • 1997
  • 본 논문은 실시간 시스템에서 주기 및 비주기적 태스크들의 마감시간 만족을 위한 캐쉬(캐쉬 메모리)의 최적 분할 형태를 분석한다. 연구 목적은 태스크들의 가용비용을 최소화하여 태스크들의 마감시간 위반율을 줄일 뿐 아니라 캐쉬의 유휴공간을 다른 태스크에게 할당시키기 위함이다. 이를 위해 캐쉬의 분할공간에 태스크들을 할당시키기 위한 캐쉬 분할공간 할당 알고리즘을 제시한다. 여기에서 태스크들이 할당된 캐쉬 분할공간들의 집합을 캐쉬 분할 형태라고 한다. 태스크들이 분할공간에 어떻게 할당되는가에 따라 다양한 캐쉬 분할 형태들을 얻을 수 있다. 이러한 캐쉬 분할 형태들로부터 스케쥴링 가능한 태스크들의 가용비용의 한계범위와 태스크들이 최소 가용비용으로 실행 할 수 있는 캐쉬의 최 적 분할 형태를 분석한다.

  • PDF

무선 인터넷을 위한 캐시 서버 클러스터 환경에서 캐시 이용률 기반의 스케줄링 (Scheduling based on Cache Utilization in a Cache Server Cluster for Wireless Internet)

  • 곽후근;정규식
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제34권9호
    • /
    • pp.435-444
    • /
    • 2007
  • 웹 페이지를 캐싱하는 것은 웹 하부 구조 상에서 중요한 역할을 한다. 캐싱 서비스의 효과는 제안된 대역폭을 가지는 무선 하부 구조 상에서 더욱 중요하게 여겨진다. 큰 규모의 하부 구조에서는 캐싱에서 발생할 수 있는 확장성과 요청 집중 현상(Hot-Spot) 문제를 해결하기 위해 서버들을 클러스터로 구성한다. 이에 본 논문에서는 무선 인터넷 프록시 서버 클러스터 환경에서 캐시 이용률 기반의 스케줄링 기법을 제안한다. 제안된 방법은 클라이언트의 요청을 캐시 서버 클러스터로 균일하게 분포시키고 요청 몰림 현상을 해결하기 위해 캐시 이용률을 이용하였다. 제안된 방법은 리눅스 클러스터 상에서 구현하였고, 실제로 사용되는 다양한 웹 traces들을 이용하여 실험을 수행하였다. 16대의 캐시 서버에서 수행된 실험결과는 제안된 해싱 기법이 요청 집중 현상을 해결하면서, 기존에 많이 사용되는 방법들에 비해 45%에서 114%까지 성능이 향상됨을 확인하였다.

KDBcs-트리 : 캐시를 고려한 효율적인 KDB-트리 (KDBcs-Tree : An Efficient Cache Conscious KDB-Tree for Multidimentional Data)

  • 여명호;민영수;유재수
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제34권4호
    • /
    • pp.328-342
    • /
    • 2007
  • 본 논문에서는 데이타의 갱신이 빈번한 상황에서 데이타의 갱신을 효율적으로 처리하기 위한 색인 기법을 제안한다. 제안하는 색인구조는 대표적인 공간 분할 색인 기법 중 하나인 KDB-트리를 기반으로 하고 있으며, 캐시의 활용도를 높이기 위한 데이타 압축 기법과 포인터 제거 기법을 제안한다. 제안하는 기법의 우수성을 보이기 위해서 기존의 대표적인 캐시를 고려한 색인 구조중 하나인 CR-트리와 실험을 통해 성능을 비교하였으며, 성능평가 결과, 제안하는 색인 구조는 삽입 성능과 갱신 성능, 캐시 활용도 면에서 기존 색인 기법에 비해 각각 85%, 97%, 86% 의 성능이 향상되었다.

WWW Cache Replacement Algorithm Based on the Network-distance

  • Kamizato, Masaru;Nagata, Tomokazu;Taniguchi, Yuji;Tamaki, Shiro
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -1
    • /
    • pp.238-241
    • /
    • 2002
  • With the popularity of utilization of the Internet among people, the amount of data in the network rapidly increased. So that, the fall of response time from WWW server, which is caused by the network traffic and the burden on m server, has become more of an issue. This problem is encouraged the rearch by redundancy of requesting the same pages by many people, even though they browse the same the ones. To reduce these redundancy, WWW cache server is used commonly in order to store m page data and reuse them. However, the technical uses of WWW cache that different from CPU and Disk cache, is known for its difficulty of improving the cache hit rate. Consecuently, it is difficult to choose effective WWW data to be stored from all data flowing through the WWW cache server. On the other hand, there are room for improvement in commonly used cache replacement algorithms by WWW cache server. In our study, we try to realize a WWW cache server that stresses on the improvement of the stresses of response time. To this end, we propose the new cache replacement algorithm by focusing on the utilizable information of network distance from the WWW cache server to WWW server that possessing the page data of the user requesting.

  • PDF

플래시 변환 계층을 위한 DPW-LRU 캐시 교체 알고리즘 분석 및 개선 (Analysis and Improvement of the DPW-LRU Cache Replacement Algorithm for Flash Translation Layer)

  • 이형봉;정태윤
    • 대한임베디드공학회논문지
    • /
    • 제15권6호
    • /
    • pp.289-297
    • /
    • 2020
  • Although flash disks are being used widely instead of hard disks, it is difficult to optimize for effective utilization of flash disks because overwrite in place is impossible and the power consumption and time required for read, write, and erase operations are all different. One of these optimization issues is a cache management strategy to minimize write operations. The cache operates at two levels: an operating system equipped with flash disks and a translation layer within the flash disk. Most studies deal with the operating system-level cache strategy. In this study, we implement and analyse the DPW-LRU algorithm which is one of the recently proposed operating system cache replacement algorithms to apply to FTL, and grope with some improvements. As a result of the experiment, the DPW-LRU algorithm maintained superiority even in the FTL environment, and showed better performance with a slight improvement.

MESI 캐쉬 코히어런스 프로토콜을 사용하는 Futurebus+ 기반 멀티프로세서 시스템의 성능 평가 (Performance Analysis of Futurebus+ based Multiprocessor Systems with MESI Cache Coherence Protocol)

  • 고석범;강인곤;박성우;김영천
    • 한국통신학회논문지
    • /
    • 제18권12호
    • /
    • pp.1815-1827
    • /
    • 1993
  • 본 논문에서는 MESI 캐쉬 코히어런스 프로토콜를 사용하는 Futurebus를 시스템 버스로 갖는 멀티프로세서 시스템에 대하여 4 종류의 버스 트랜잭션에 따라 시스템의 성능을 평가하였다. 성능 평가를 위한 모델링과 시뮬레이션은 SLAM II 그래픽 심볼과 컴파일러를 이용하였다. 정확한 시뮬레이션을 위하여 해석적 방법으로 MESI 프로토콜의 각 상태에 대한 확률을 구하였고, 구한 확률 값은 시뮬레이션의 입력으로 사용하였다. 시뮬레이션에서는 프로세서의 수, 캐쉬 메모리의 히트율, 읽기 명령을 수행할 확률, 메모리 엑세스 시간, 메모리 모듈의 수, 프로세서가 내부 동작을 수행할 확률, 버스의 밴드 폭에 따른 프로세서의 이용률, 메모리의 이용률, 버스의 이용률, 버수 중재 대기 시간 등을 구하였다.

  • PDF

부분키를 사용한 캐쉬 인식 B+ 트리의 성능 평가 (Performance Evaluation of Cache Sensitive B+-tree)

  • 김원식;한욱신
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 추계 종합학술대회 논문집
    • /
    • pp.448-452
    • /
    • 2004
  • 부분키를 사용한 캐쉬 인식 $B^+$ 트리는 키 압축과 포인터 압축 방법을 동시에 적용한 캐쉬 인식 트리이다. 기존의 캐쉬 인식 트리들은 키 압축과 포인터 압축을 따로 고려하였다. 이에 반해 부분키를 사용한 캐쉬 인식 $B^+$ 트리는 키와 포인터를 동시에 압축하여 캐쉬 활용도를 높였다. 본 논문은 기 발표된 부분키를 사용한 캐쉬 인식 $B^+$ 트리의 벌크로드와 검색 알고리즘을 구현하여 성능 평가를 수행하였다. 그리고 $B^+$-트리와 Simple Prefix $B^+$-트리의 성능비교를 통하여 부분키 캐쉬 인식 $B^+$ 트리의 성능의 우수함을 확인 하였다.

  • PDF

HiPi 버스를 사용한 멀티프로세서 시스템에서 캐쉬 코히어런스 프로토콜의 성능 평가에 관한 연구 (A Study on the Performance Analysis of Cache Coherence Protocols in a Multiprocessor System Using HiPi Bus)

  • 김영천;강인곤;황승욱;최진규
    • 한국통신학회논문지
    • /
    • 제18권1호
    • /
    • pp.57-68
    • /
    • 1993
  • 본 논문에서는 pended 프로토콜을 가지는 HiPi버스와 다중 캐쉬 메모리를 사용하는 멀티프로세서 시스템을 기술하고, 캐쉬 코히어런스 프로토콜에 따라 프로세서의 효율 측면에서 시스템의 성능을 평가하였다. HiPi 버스는 ETRI에서 개발된 행정전산망용 주전산기인 TICOMII의 공유 버스로 사용되기 위하여 개발되었다. HiPi버스는 고속의 데이타 전송 능력을 가지고 있으나, 캐쉬 간의 데이타 전송을 허용하지 못하는 단점을 가지고 있다. 캐쉬 간의 데이타 전송이 전체 시스템의 성능에 미치는 영향을 측정하고, HiPi버스에 적합한 캐쉬 코히어런스 프로토콜을 선택하기 위하여 두가지 시뮬레이션을 실시하였다. 첫째, HiPi 버스를 사용하는 멀티프로세서 시스템에 다양한 캐쉬 코히어런스 프로토콜을 적용하고 시뮬레이션을 통하여 프로세서 효율에 따른 성능 분석을 실시하였다. 각각으니 프로토콜은 상태 천이도록 나타내었으며, Markov정적 상태도를 이용하여 각 상태의 확률 갑을 구하였다. 각 상태의 확률은 시뮬레이션에서 입력 값으로 사용되었고, 모델링과 시뮬레이션은 SLAMII심볼과 언어를 사용하였다. 둘째, 캐쉬 간의 데이타 전송을 갖는 HiPi버스를 제안하였고, 제안된 HiPi버스를 사용하는 멀티프로세서 시스템에 다양한 캐쉬 코히어런스 프로토콜을 적용하고 시뮬레이션을 통하여 프로세서 효율에 따른 성능 분석을 실시하였다. 고려된 캐쉬 코히어런스 프로토콜은 Write-through, Write-once, Berkely, Synapse. Illinois, Firefly, Dragon이다.

  • PDF

1회성 쓰기 참조 특성을 고려하는 스마트폰 버퍼캐쉬 관리 기법 (Buffer Cache Management of Smartphones Exploiting Write-Only-Once Characteristics)

  • 김도희;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권6호
    • /
    • pp.129-134
    • /
    • 2015
  • 본 논문에서는 스마트폰 앱의 파일 접근 중 상당 부분이 1회성 쓰기 참조라는 것을 분석하고 이러한 특성을 고려한 버퍼캐쉬 관리 기법을 제안한다. 버퍼캐쉬는 여러 번 참조되는 파일 데이터를 스토리지 접근 없이 메모리에서 처리하여 성능 개선을 도모하지만, 쓰기 참조가 발생한 경우에는 짧은 시간 내에 스토리지에 직접 반영하여 시스템 크래쉬에 대비한다. 제안하는 기법은 1회의 쓰기만 발생한 캐쉬 데이터의 경우 스토리지 반영 직후 버퍼캐쉬에서 쫓아내어 캐쉬의 공간 효율을 높인다. 다양한 스마트폰 앱에 적용한 시뮬레이션 실험 결과 제안하는 기법은 기존 버퍼캐쉬 관리 기법에 비해 캐쉬적중률을 5-33% 향상시키고, 전력소모를 27-92% 줄일 수 있음을 보인다.

모바일 환경에서 타임스탬프 트리 기반 캐시 무효화 보고 기법 (A Timestamp Tree-based Cache Invalidation Report Scheme in Mobile Environments)

  • 정성원;이학주
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제34권3호
    • /
    • pp.217-231
    • /
    • 2007
  • 이동 컴퓨팅(Mobile Computing)환경에서 빈번한 접속 단절은 클라이언트의 캐시 일관성(Consistency)문제로 직결된다. 이러한 캐시 일관성 문제를 해결하기 위해 무효화 보고(Invalidation Report)에 관한 연구가 진행되고 있다. 그러나 기존의 무효화 보고 기법은 서버 측의 데이타의 수가 많아지거나, 갱신(Update)되는 데이타의 양이 증가하게 되면 무효화 보고 기법의 크기의 증가 및 캐시 효율성의 저하를 가지고 온다. 또한 캐시 전체의 무효화를 확인하는 보고 기법은 선택적 청취(Selective tuning)를 지원하지 못한다. 본 논문에서는 이러한 기존 방식의 문제점을 해결하며 효율성을 개선한 무효화 보고 기법으로써 TTCI(Timestamp Tree-based Cache Invalidation scheme)를 제안한다. 갱신된 데이타의 타임스탬프를 이용하여 타임스탬프 트리를 구성하고 데이타의 아이디를 갱신된 순서대로 나열하여 무효화 보고를 만든다. 이를 활용하게 되면 각 클라이언트는 자신의 단절(Disconnect)된 시점에 맞는 정보를 확인하여 캐시의 이용률을 증가 시킬 수 있다. 또한 트리 구조를 이용하여 선택적 청취를 가능하게 함으로써 클라이언트의 자원 소비를 줄일 수 있다. 이러한 본 구조의 효율성을 검증하기 위해 기존의 기법인 DRCI(Dual-Report Cache Invalidation)와 성능비교를 실시한다.