• 제목/요약/키워드: Buffer cache

검색결과 132건 처리시간 0.025초

2Q-CFP: 방송에 기초한 정보 시스템을 위한 클라이언트 캐쉬 관리 기법 (2Q-CFP: A Client Cache Management Scheme for Broadcast-based Information Systems)

  • 권혁민
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제30권6호
    • /
    • pp.561-572
    • /
    • 2003
  • 방송에 기초한 데이타 전달 방식은 방대한 규모의 클라이언트에게 데이타를 전파하기 위한 효과적인 기술로서 큰 관심을 끌고 있다. 방송에 기초한 정보 시스템(broadcast-based information system: BBIS)의 주된 동기는 자신이 지원하는 클라이언트의 수는 시스템의 성능에 전혀 영향을 미치지 않고 임의로 증가될 수 있다는 것이다. BBIS의 성능은 클라이언트 캐슁 전략과 데이타 방송 스케쥴링 기법에 크게 영향을 받는다. 본 논문은 전자의 문제를 취급하여 BBIS에 적합한 2Q-CFP로 명명된 새로운 클라이언트 캐쉬 관리 기법을 제안한다. 그리고 모의 실험 모델을 통하여 2Q-CFP 기법의 성능을 평가한다. 성능평가 결과에 의하면 2Q-CFP 기법은 GRAY, LRU, 그리고 CF 기법보다 평균 응답시간에 있어서 더 우수한 성능을 보인다.

LRU-CFP: 데이터 방송 환경을 위한 클라이언트 캐쉬 관리 기법 (Client Cache Management Scheme For Data Broadcasting Environments)

  • 권혁민
    • 정보처리학회논문지D
    • /
    • 제10D권6호
    • /
    • pp.961-970
    • /
    • 2003
  • 데이타 방송 환경에서 서버는 방송 채널을 통하여 데이타베이스 내의 데이타들을 주기적으로 방송한다. 그리고 각 클라이언트가 어떤 데이타를 액세스하기 위해서는 방송 채널을 감시하여 해당 데이타가 방송되기를 기다려야 한다. 클라이언트 데이타 캐슁은 클라이언트가 액세스하려는 데이타가 방송되기를 기다리는 시간을 줄이기 위한 매우 효과적인 기술이다. 본 논문에서는 이 대기 시간을 줄이기 위하여 LRU-CFP로 명명된 새로운 클라이언트 캐쉬 관리 기법을 제안하고, 모의 실험을 통하여 새로이 제시된 기법의 성능을 평가한다. 성능 평가 결과에 의하면 LRU-CFP 기법은 LRU, GRAY, 그리고 CF 기법보다 평균 응답시간에 있어서 더 우수한 성능을 보인다.

64비트 4-way 수퍼스칼라 마이크로프로세서의 효율적인 분기 예측을 수행하는 프리페치 구조 (A Prefetch Architecture with Efficient Branch Prediction for a 64-bit 4-way Superscalar Microprocessor)

  • 문상국;문병인;이용환;이용석
    • 한국통신학회논문지
    • /
    • 제25권11B호
    • /
    • pp.1939-1947
    • /
    • 2000
  • 본 논문에서는 명령어의 효율적인 페치를 위해 분기 타겟 주소 전체를 사용하지 않고 캐쉬 메모리(cache memory) 내의 적은 비트 수로 인덱싱 하여 한 클럭 사이클 안에 최대 4개의 명령어를 다음 파이프라인으로 보내줄 수 있는 방법을 제시한다. 본 프리페치 유닛은 크게 나누어 3개의 영역으로 나눌 수 있는데, 분기에 관련하여 미리 부분적으로 명령어를 디코드 하는 프리디코드(predecode) 블록, 타겟 주소(NTA : Next Target Address) 테이블 영역을 추가시킨 명령어 캐쉬(instruction cache) 블록, 전체 유닛을 제어하고 가상 주소를 관리하는 프리페치(prefetch) 블록으로 나누어진다. 사용된 명령어들은 SPARC(Scalable Processor ARChitecture) V9에 기준 하였고 구현은 Verilog-HDL(Hardwave Description Language)을 사용하여 기능 수준으로 기술되고 검증되었다. 구현된 프리페치 유닛은 명령어 흐름에 분기가 존재하더라도 단일 사이클 안에 4개까지의 명령어들을 정확한 예측 하에 다음 파이프라인으로 보내줄 수 있다. 또한 NTA를 사용한 방법은 같은 수의 레지스터 비트를 사용하였을 때 BTB(Branch Target Buffer)를 사용하는 방법과 비교하여 2배정도 많은 개수의 분기 명령 주소를 저장할 수 있는 장점이 있다.

  • PDF

Nand-Flash 기반의 SSD를 이용한 확장 버퍼 캐쉬 관리 기법 연구 (A Research of Extension Buffer Cache Management used Nand- flash based SSD)

  • 오경환;봉선종;김경태;윤희용
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2014년도 제50차 하계학술대회논문집 22권2호
    • /
    • pp.235-236
    • /
    • 2014
  • 플래시 메모리 기술이 발전함에 따라 낸드 플래시 기반의 SSD가 상용화 되면서 I/O시간을 줄이기 위한 연구들이 진행되고 있다. 이에 본 논문에서는 기존의 메인 메모리와 저장장치 사이에 확장 버퍼 캐시로써 SSD를 사용하고 메인 메모리에서 방출 된 페이지들을 구분하여 같은 성향의 페이지들을 블록화 하는 모델을 제안한다. 이러한 모델을 통하여 블록 단위로 사용되는 SSD를 효율적으로 이용하여 읽기 및 쓰기 성능을 높이고 I/O에 해당하는 시간들을 줄임으로써 전체적인 성능 향상을 증명하였다.

  • PDF

AN ADVACNCED DISK BLOCK CACHING ALGORITHM FOR DISK I/O SUB-SYSTEM

  • Jung, Soo-Mok;Rho, Kyung-Taeg
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제11권3호
    • /
    • pp.43-52
    • /
    • 2007
  • A hard disk, which can be classified as an external storage is usually capacious and economical. In spite of the attractive characteristics and efforts on the performance improvement, however, the operation of the hard disk is apparently slower than a processor and the advancement has also been slowly conducted since it is based on mechanical process. On the other hand, the advancement of the processor has been drastically performed as semiconductor technology does. So, disk I/O sub-system becomes bottleneck of computer systems' performance. For this reason, the research on disk I/O sub-system is in progress to improve computer systems' performance. In this paper, we proposed multi-level LRU scheme and then apply it to the computer systems with buffer cache and disk cache. By applying the proposed scheme to computer systems, the average access time to disk blocks can be decreased. The efficiency of the proposed algorithm was verified by simulation results.

  • PDF

블록 참조 패턴의 특성 분석과 자동 발견 (Characteristics and Automatic Detection of Block Reference Patterns)

  • 최종무;이동희;노삼혁;민상렬;조유근
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권9호
    • /
    • pp.1083-1095
    • /
    • 1999
  • 최근 처리기와 입출력 시스템의 속도 차이가 점점 커짐에 따라 버퍼 캐쉬의 효율적인 관리가 더욱 중요해지고 있다. 버퍼 캐쉬는 블록 교체 정책과 선반입 정책에 의해 관리되며, 각 정책은 버퍼 캐쉬에서 블록의 가치 즉 어떤 블록이 더 가까운 미래에 참조될 것인가를 결정해야 한다. 블록의 가치는 응용들의 블록 참조 패턴의 특성에 기반하며, 블록 참조 패턴의 특성에 대한 정확한 분석은 올바른 결정을 가능하게 하여 버퍼 캐쉬의 효율을 높일 수 있다. 본 논문은 각 응용들의 블록 참조 패턴에 대한 특성을 분석하고 이를 자동으로 발견하는 기법을 제안한다. 제안된 기법은 블록의 속성과 미래 참조 거리간의 관계를 이용해 블록 참조 패턴을 발견한다. 이 기법은 2 단계 파이프라인 방법을 이용하여 온라인으로 참조 패턴을 발견할 수 있으며, 참조 패턴의 변화가 발생하면 이를 인식할 수 있다. 본 논문에서는 8개의 실제 응용 트레이스를 이용해 블록 참조 패턴의 발견을 실험하였으며, 제안된 기법이 각 응용의 블록 참조 패턴을 정확히 발견함을 확인하였다. 그리고 발견된 참조 패턴 정보를 블록 교체 정책에 적용해 보았으며, 실험 결과 기존의 대표적인 블록 교체 정책인 LRU에 비해 최대 57%까지 디스크 입출력 횟수를 줄일 수 있었다.Abstract As the speed gap between processors and disks continues to increase, the role of the buffer cache located in main memory is becoming increasingly important. The buffer cache is managed by block replacement policies and prefetching policies and each policy should decide the value of block, that is which block will be accessed in the near future. The value of block is based on the characteristics of block reference patterns of applications, hence accurate characterization of block reference patterns may improve the performance of the buffer cache. In this paper, we study the characteristics of block reference behavior of applications and propose a scheme that automatically detects the block reference patterns. The detection is made by associating block attributes of a block with the forward distance of the block. With the periodic detection using a two-stage pipeline technique, the scheme can make on-line detection of block reference patterns and monitor the changes of block reference patterns. We measured the detection capability of the proposed scheme using 8 real workload traces and found that the scheme accurately detects the block reference patterns of applications. Also, we apply the detected block reference patterns into the block replacement policy and show that replacement policies appropriate for the detected block reference patterns decreases the number of DISK I/Os by up to 57%, compared with the traditional LRU policy.

접근 요청 빈도에 기반한 멀티미디어 뉴스 데이터의 선별적 버퍼 캐쉬 관리 전략 (Access Frequency Based Selective Buffer Cache Management Strategy For Multimedia News Data)

  • 박용운;서원일;정기동
    • 한국정보처리학회논문지
    • /
    • 제6권9호
    • /
    • pp.2524-2532
    • /
    • 1999
  • 대규모의 실시간 주문형 뉴스 제공 시스템(Real Time News On Demand)에서는 다수의 사용자들이 디스크에 저장된 뉴스 데이터를 실시간으로 동시에 접근하여 최대로 수용할 수 있는 사용자 수는 총 디스크 대역폭의 제한을 받는다. 본 연구에서는 이러한 디스크 대역폭의 한계를 극복하기 위하여 디스크 비용의 일부로 버퍼 캐쉬를 구성하여 실시간 뉴스 데이터에 적합하도록 버퍼를 블록 단위가 아닌 오브젝트 단위로 할당하는 버퍼 캐쉬 정책을 사용하고, 캐슁 대상 뉴스 데이터를 현재의 디스크 대역폭의 사용 정도와 해당 뉴스 데이터의 평균 요청 간격을 고려하여 선별함으로써 재접근 가능서이 낮은 데이터의 경우 캐슁 대상에서 제외시켜 볼 필요한 버퍼의 재 할당에 의한 메모리 오버헤드를 방지하는 실시간 뉴스 데이터에 적합한 캐슁 방법을 제안한다. 이렇게 함으로써 접근 빈도수가 높은 데이터의 경우 디스크의 접근 없이도 데이터의 획득이 가능하게 되어 디스크만으로 저장 시스템을 구성할 때와 비교하여 저 비용으로 저장 시스템을 구성할 수 있다. 본 논문에서 제안한 알고리즘의 성능을 시뮬레이션을 통하여 평가한 결과, 본 논문에서 제안한 캐슁 방법으로 뉴스 데이터에 대한 사용자의 요청을 처리했을 경우, 디스크만으로 저장 서버를 구성하였을 경우보다 30% 이상의 사용자를 지원할 수 있다.

  • PDF

가상주소 변환 과정에 대한 부담의 줄임 (Peducing the Overhead of Virtual Address Translation Process)

  • 우종정
    • 한국정보처리학회논문지
    • /
    • 제3권1호
    • /
    • pp.118-126
    • /
    • 1996
  • 메모리의 계층적 구조는 메모리의 접근 속도를 개선하고 프로그래밍 공간을 확장 하는데 유용한 메카니즘이다. 그러나 이 구조는 데이타의 참조를 위해서 적어도 두번- 주소 변환을 위한 TLB 와 원하는 데이타를 위한 데이타 캐시-의 메모리 접근이 필요하다. 만약 캐시의 크기가 가상 메모리의 페이지 크기와 캐시 메모리의 연관 정도의 곱보다 커지면 TLB접근과 데이타 캐시의 접근을 병렬로 수행하기 어려우며, 따라서 프로세서 타이밍의 임계 경로가 길어져 성능에 영향을 미친다. 이들의 병렬 접근을 성취하기 위하여 직접 사상 TLB와 조그마한 완전 연관 사상 TLB를 결합하나 혼합 사상 TLB를 제 안한다. 전자는 TLB 접근에 따른 지연시간을 줄 일 수 있으며 후자는 전자로부터 발생한 충돌 부재를 제거할 수 있게 된다. 트레이스 구동 모의 실험 결과에 의하면 제안된 TLB 는 4개의 엔트리로만 구성된 완전사상 TLB를 추가하더라도 부재율의 상승에 의한 영향이 주소변환에 따른 지연시간 축소에 위하여 상쇄되므로 효과적이다.

  • PDF

주사본 권한을 지원하는 공유 데이터베이스 시스템을 위한 캐쉬 일관성 기법 (Cache Coherency Schemes for Database Sharing Systems with Primary Copy Authority)

  • 김신희;조행래;강병욱
    • 한국정보처리학회논문지
    • /
    • 제5권6호
    • /
    • pp.1390-1403
    • /
    • 1998
  • 데이터베이스 공유 시스템(Database Sharing System : DSS)은 고성능 트랜잭션 처리를 위해 제안된 시스템이다. DSS에서 고속의 통신망으로 연결된 노드들은 별도의 메모리와 운영체제, 그리고 DBMS를 가지며, 데이터베이스를 저장하고 있는 디스크는 모든 노드에 의해 공유된다. 빈번한 디스크 액세스를 피하기 위해 각 노드는 자신의 메모리 버퍼에 최근에 액세스한 페이지들을 캐싱한다. 그러나 동일한 페이지가 여러 노드에 의해 동시에 캐싱될 수 있으므로, 각 노드가 최신의 내용을 항상 엑세스하기 위해서는 캐싱된 데이터의 일관성이 유지되어야 한다. 본 논문에서는 로킹 오버헤드를 줄이기 위해 주사본 권한을 이용하여 데이터베이스를 논리적으로 분할한 DSS 구조에서 필요한 캐쉬 일관성 기법들을 제안한다. 제안된 기법들은 캐쉬 일관성을 위해 소요되는 메시지 전송량과 디스크 입출력 오버헤드를 줄임으로써 성능을 향상시키며, 데이터베이스 부하가 동적으로 변하는 경우에도 효율적으로 동작한다는 장점을 갖는다.

  • PDF

임베디드 프로세서의 캐시와 파이프라인 구조개선 및 저전력 설계 (Cache and Pipeline Architecture Improvement and Low Power Design of Embedded Processor)

  • 정홍균;류광기
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2008년도 추계종합학술대회 B
    • /
    • pp.289-292
    • /
    • 2008
  • 본 논문에서는 OpenRISC 프로세서의 성능 및 전력 소모 개선을 위해 동적 분기예측 기법, 사원 집합연관 캐시 구조, ODC를 이용한 클럭 게이팅 기법을 제안한다. 동적 분기 예측 기법은 분기 명령에 대해 다음에 실행될 명령에 대한 예측 주소를 저장하는 BTB를 사용하였다. 사원 집합연관 캐시는 네 개의 메모리 블록을 한 개의 캐시 블록에 사상되는 구조로 되어있어 직접사상 캐시에 비해 접근 실패율이 낮다. ODC를 이용한 클럭게이팅 기법은 논리합성 개념인 무관조건의 입출력 ODC조건을 찾아 클럭 게이팅 로직을 삽입함으로써 동적 소비전력을 줄일 수 있다. 테스트 프로그램을 이용하여 제안한 기법들을 적용한 OpenRISC 프로세서의 성능을 측정한 결과, 기존 프로세서 대비실행시간이 8.9% 향상 되었고, 삼성 $0.18{\mu}m$ 라이브러리를 이용하여 동적 전력을 측정한 결과, 기존 프로세서 대비 소비전력을 13.9% 이상 감소하였다.

  • PDF