• 제목/요약/키워드: 캐쉬메모리

검색결과 176건 처리시간 0.028초

적응적 메모리갱신 기법을 이용하여 읽기 접근시간을 줄이는 캐쉬 일관성 유지 기법 (A Cache Coherence Scheme for Reducing Read Access Latency with Adaptive Memory Update)

  • 오승택;이윤석
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (A)
    • /
    • pp.621-623
    • /
    • 2000
  • 대규모 분산 공유메모리 다중처리기는 공유메모리 접근 지연시간이 크다는 약점을 지니고 있다. 이러한 다중처리기에서 모든 메모리 요청이 홈노드를 통해 이루어지는 디렉토리 기반의 캐쉬 일관성 유지 기법의 사용은 메모리 접근 지연시간을 더욱 크게하는 요인으로 작용한다. 뿐만 아니라 메모리 접근 지연시간은 시스템의 규모가 커질수록 전체 성능에 중요한 요소로 작용하므로, 대규모 시스템에서 이를 줄이기 위해서 많은 연구들이 있었다, 본 논문에서는 메모리 읽기 지연시간을 줄이는 새로운 캐쉬 일관성 유지 기법을 제안한다. 제안된 기법은 적응적 메모리 갱신을 이용하여 구현되었다. 적응적 메모리갱신은 홈노드의 메모리를 미리 갱신함으로써 읽기 접근 지연시간을 줄이는 방법이다. 이를 위해서 홈노드는 메모리 접근 유형을 분석해야 한다. 대부분의 공유메모리 접근은 일정한 유형을 지니므로 이를 토대로한 홈노드의 갱신은 높은 적중률을 보인다. 제안된 프로토콜의 성능을 측정하기 위하여 모의실험을 하였다. 모의실험 결과는 제안된 프로토콜에서 읽기 지연시간과 실행시간이 감소하는 것을 나타낸다.

  • PDF

캐쉬 효과를 고려한 확장된 Pairing Heap 알고리즘 (Extended Pairing Heap Algorithms Considering Cache Effect)

  • 정균락;김경훈
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권5_6호
    • /
    • pp.250-257
    • /
    • 2003
  • 빠른 프로세서 속도에 비해 메모리 접근(access)하는 시간이 상대적으로 느려짐에 따라, 대부분의 시스템은 격차를 줄이기 위하여 캐쉬(cache)라는 매우 타른 메모리를 사용하고 있으며 캐쉬 메모리를 얼마나 효과적으로 사용하는 가 하는 문제는 알고리즘의 성능에 있어서도 결정적인 영향을 미치게 된다. 블록을 사용하는 방법은 캐쉬의 효율성을 향상시키는 방법으로 잘 알려져 있으며 행렬곱셈이나 d-heap과 같은 탐색트리에 사용되어 좋은 결과를 내고 있다. 그러나 삽입과 삭제 연산시 트리의 회전(rotation)이 필요한 자료구조에서는 블록을 사용하면 블록사이에 데이터의 이동이 필요해서 실행시간이 증가하게 된다. 본 논문에서는 블록을 사용하는 pairing heap에서 개선된 삽입과 삭제 알고리즘을 제안하였고 실험을 통해 우수성을 입증하였다. 또 블록을 사용하는 경우 여러 개의 데이터를 한 블록에 저장하므로 포인터의 개수가 줄어들게 되어 메모리를 적게 사용하게 된다.

다중 프로그램 환경에서 블록화 알고리즘을 지원하기 위한 지연 선점 스케줄링 (A Delayed Preemption Scheduling for Supporting Blocked Algorithm on Multiprogramming Environment)

  • 정인범;이준원
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권3호
    • /
    • pp.324-332
    • /
    • 1999
  • 다중 프로그래밍 환경에서 운영체제는 시스템의 시간 할당량에 따라서 프로세스들에 대하여 문맥교환을 수행한다. 문맥교환은 현재 수행중인 프로세스 문맥의 저장과 다음에 수행되는 프로세스 문맥의 적재라는 비용 뿐만 아니라 캐쉬 메모리의 커다란 영향을 미친다. 특히 블록화 알고리즘은 사용하는 프로그램들은 재사용되기 위하여 캐쉬 메모리에 적재된 블록화 요소가 프로그램들의 문맥 교환사이에 다른 프로그램들에 의하여 손상되는 경우 프로그램의 캐쉬 성능이 크게 떨어진다. 본 논문에서는 하나의 블록화 요소에 대한 계산이 완료될 때까지 운영체제가 문맥 교환을 지연시키는 지연된 선점 스케쥴링 방법을 제안한다. 모의 시험을 통하여 지연된 선점 스케줄링을 사용할 경우 블록화 알고리즘을 사용한 프로그램들은 재사용되기 위하여 캐쉬 메모리에 적재된 블록화 요소가 프로그램들의 문맥 교환 사이에 다른 프로그램들에 의하여 손상되는 경우 프로그램의 캐쉬 성능이 크게 떨어지게 된다. 본 논문에서는 하나의 블록화 요소에 대한 계산이 완료될 때까지 운영체제가 문맥 교환을 지연시키는 지연된 선점 스케쥴링 방법을 제안한다. 모의 시험을 통하여 지연된 선점 스케줄링을 사용할 경우 블록화 알고리즘을 사용한 프로그램은 캐쉬 메모리에 적재된 블록화 요소를 문맥 교환으로부터 보호 받으므로 향상된 캐쉬성능을 나타냄을 보인다.

프로세서의 재사용 정보를 이용하는 개선된 고성능 희생 캐쉬 (Advanced Victim Cache with Processor Reuse Information)

  • 곽종욱;이현배;장성태;전주식
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권12호
    • /
    • pp.704-715
    • /
    • 2004
  • 최근의 단일 혹은 다중 프로세서 시스템은 일반적으로 계층적 메모리를 사용한다 이는 프로세서의 클럭 속도와 메모리로의 데이타 접근 시간의 증가로 인한 시스템 성능 저하를 막기 위한 노력 중 하나이다. 특히 프로세서와의 속도 차이를 줄이기 위해 사용되는 캐쉬는 이단계에서 삼단계에 이르는 다양한 형태의 계층을 포함하는 메모리 시스템으로 구성된다. 이 중에서도 특히 상위 캐쉬는 프로세서와 직접 인터페이스가 이루어지기 때문에, 해당 캐쉬의 적중률은 전체 시스템의 성능을 결정하는 중요한 요소가 된다. 이러한 상위 캐쉬의 하나로써, 희생 캐쉬는 일차 캐쉬의 충돌 미스(Conflict Miss)를 줄이기 위해 추가된 모듈이다. 이는 프로세서 입장에서 보면 절차상 일차 캐쉬와 동등한 관계에서 접근이 이루어진다. 본 논문에서는 이러한 상위 캐쉬의 관리 정책 중, 기존의 일차 캐쉬와 희생 캐쉬의 구현시 배제되어 왔던 프로세서의 재사용 정보를 이용하는 캐쉬 라인의 효율적인 관리 정책을 제안하고자 한다. 이 기법은 프로세서의 데이타 사용 빈도에 의한 캐쉬 교체 정책으로, 프로세서에 의해 특정 데이타가 얼마나 자주 접근되었는가에 따라, 사용 빈도수가 높은 데이타에 대해 캐쉬에 위치시키는 시간을 연장시키는 기법이다. 본 논문에서는 제안된 메모리 시스템의 성능을 평가하기 위해, 이를 프로그램 기반 시뮬레이터인 Augmint를 통해 모델링한 후, 시뮬레이션을 수행한다. 그리고 이를 기존의 단순한 회생 캐쉬 교체 정책과 비교하여 성능상의 차이점을 비교 분석한다. 실험 결과 제안된 LIVMR 기법은 최대 6.7%, 평균 0.5%의 성능 향상을 보였다.

캐쉬 효과를 고려한 확장된 이진 탐색 트리 알고리즘에 관한 연구 (A Study on Exteded Binary Search Tree Algorithms Considering Cache Effect)

  • 김경훈;정균락
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (1)
    • /
    • pp.551-553
    • /
    • 2000
  • VLSI 기술의 발전에 따라 프로세서의 속도는 빠르게 증가하고 있는 반면 메모리의 속도는 이를 뒷받침하지 못하여 속도의 차이를 줄이기 위해 캐쉬(cache) 메모리를 사용하고 있다. 캐쉬가 알고리즘의 실행시간에 미치는 영향이 점점 더 커지고 있으나 이제까지 개발된 대부분의 알고리즘들은 이러한 캐쉬의 중요성을 고려하지 않고 개발되었다. 본 논문에서는 캐쉬 효과를 고려한 확장된 이진 탐색 트리 알고리즘에 관해 연구하였고, 실험을 통하여 기존의 이진 탐색 트리와 제안된 알고리즘의 성능을 비교하였다.

  • PDF

저전력 시스템을 위한 선택적 페이지 캐쉬 사용 기법 (A Selective Usage of Page Cache towards Low-Power Systems)

  • 송형근;차호정
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (A)
    • /
    • pp.208-210
    • /
    • 2003
  • 본 논문은 내장형 시스템에서 저전력 소모를 위한 선택적 페이지 캐쉬 사용 기법을 제안한다. 내장형 시스템의 저장매체로 널리 사용되고 있는 플래쉬 메모리는 데이터를 압축하여 저장하기 때문에 리눅스에서 사용되는 페이지 캐쉬가 효과적으로 동작한다. 하지만 플래쉬 메모리는 RAM 보다 전력 소모가 적기 때문에 페이지 캐쉬 사용에 따른 빈번한 RAM 접근 횟수는 전력 소모량을 증가시킨다. 따라서 저전력 시스템 운영을 위해서 페이지 캐쉬를 선택적으로 사용하는 것을 제안한다. 리눅스 운영체제상에서 구현된 시스템을 바탕으로 수행속도가 향상되고 전력 소모량이 감소함을 보인다.

  • PDF

캐쉬 효과를 고려한 확장된 Pairing Heap 알고리즘 (Extended Pairing Heap Algorithms Considering Cache Effect)

  • 김경훈;정균락
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (1)
    • /
    • pp.580-582
    • /
    • 2001
  • VLSI 기술의 발전에 따라 프로세서의 속도는 빠르게 증가하고 있는 반면 메모리의 속도는 이를 뒷받침하지 못하여 속도의 차이를 줄이기 위해 캐쉬(cache) 메모리를 사용하고 있다. 캐쉬가 알고리즘의 실행시간에 미치는 영향이 점점 더 커지고 있으나 이제가지 개발된 대부분의 알고리즘들은 이러한 캐쉬의 중요성을 고려하지 않고 개발되었다. 본 논문에서는 캐쉬 효과를 고려한 확장된 Pairing Heap 알고리즘에 관해 연구하였고, 실험을 통하여 기존의 Pairing Heap 알고리즘과 제안된 알고리즘의 성능을 비교하였다.

  • PDF

MI-MESI 쓰기-무효화 스누핑 캐쉬 일관성 유지 프로토콜 (MI-MESI Write-invalidate Snooping Cache Coherence Protocol)

  • 장성태
    • 한국정보처리학회논문지
    • /
    • 제2권5호
    • /
    • pp.757-767
    • /
    • 1995
  • 본 논문에서는 분리형 트랜잭션 버스를 기반으로한 다중 프로세서 환경하에서 MESI와I-MESI 캐쉬 일관성 유지 프로토콜의 문제점을 개선한 MI-MESI 쓰기-무효화 스누핑 캐쉬 일관성 유지 프로토콜을 제시한다. 이 프로토콜에서 각 캐쉬 블럭은 여섯 개의 캐쉬 상태 즉, Modified-shared, Invalid-by-other, Modified, Exclusive, Shared 및 Invalid 상태중의 하나를 유지하여, 기존의 MESI와데 I-MESI 캐쉬 일관성 유지 프 로토콜에서 발생하는 불필요한 메모리 모듈의 갱신과 메모리 모듈에서의 접근 충돌을 크게 줄여서 빠른 메모리 접근 시간을 제공할 수 있다.

  • PDF

공유 메모리를 갖는 다중 프로세서 컴퓨터 시스팀의 설계 및 성능분석

  • 최창열;박병관;박승규;오길록
    • ETRI Journal
    • /
    • 제10권3호
    • /
    • pp.83-91
    • /
    • 1988
  • 본 논문에서는 pended 프로토콜에 기반을 둔 단일 시스팀 버스와 공유 메모리를 중심으로 구성된 다중프로세서 컴퓨터시스팀의 성능을 해석하였다. 캐쉬 메모리 적중률, 시스팀 내의 프로세서 수, 메모리 모듈의 수와 입력 큐의 유무를 변수로 하여 시스팀 버스와 프로세서의 이용률, 메모리 충돌 현상의 정도, 즉 제안된 시스팀 구조에 대한 하드웨어 측면에서의 성능을 시뮬레이션을 통해 예측 분석하였다. 공유 메모리를 갖는 다중프로세서의 주요한 시스팀 성능 요소는 캐쉬 메모리의 적중률과 효과적인 공유 메모리 갱신 알고리즘, 시스팀 버스의 효율적인 다중프로세서 지원 기능 등이며 캐쉬 메모리 적중률이 프로세서 수의 증가에 따른 시스팀 성능의 선형적인 증가와 밀접한 관계를 나타내었다.

  • PDF

차세대 비휘발성 메모리가 추가된 버퍼캐쉬에서 성능 측정 방법의 재조명 (Reconsidering Performance Measurement when Non-Volatile RAM is used in the Buffer Cache)

  • 이규형;최종무;이동희;노삼혁
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (A)
    • /
    • pp.793-795
    • /
    • 2005
  • 영속적인 데이터 저장이 가능한 차세대 비휘발성 메모리를 휘발성 메모리와 혼용하여 버퍼캐처로 사용하면, 안정성과 성능향상의 효과를 얻을 수 있다. 본 연구에서는 기존의 연구에서 제시한 캐처관리 정책을 시뮬레이터를 이용하여 실험하고 실험 결과를 분석하여 비휘발성 메모리가 추가된 캐처의 새로운 특성을 밝혀냈다. 비휘발성 메모리가 캐쉬에 포함되면 읽기 쓰기의 요청의 종류, 미스(miss)되었을 경우 캐쉬될 블록의 더티(dirty)여부, 읽기 요청이 적중(hit)되었을 때, 적중된 블록의 메모리 종류에 따라 각각의 요청을 처리하기 위한 디스크 접근횟수가 달라지는 특성을 나타낸다. 이 특성 때문에 비휘발성 메모리가 추가된 버퍼캐처는 적중률(hit rate) 보다는 디스크 접근횟수를 측정하는 것이 정확한 성능측정을 가능하게 한다.

  • PDF