• 제목/요약/키워드: 캐시 메모리

검색결과 243건 처리시간 0.02초

RFID 태그 추적을 위한 캐시 & 메인 메모리 기반의 색인 기법(CSTmr-tree) (Indexing Scheme based on the Cache & Main Memory for RFID tag Tracing (CSTmr-tree))

  • 홍진숙;윤성대
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 춘계학술발표대회
    • /
    • pp.24-27
    • /
    • 2007
  • 주기억 색인 기법인 Tmr-트리가 R-트리에 비해서 삽입시간이 오래 걸린다는 단점이 있다. 본 논문은 L2 캐시를 최대한 활용하여 기존 Tmr-트리의 장점을 가지는 새로운 CSTmr-트리(Cache Sensitive Tmr-트리)구조를 제안하고, 이 구조에 삽입, 삭제 등의 알고리즘을 제안하였다. 제안한 구조와 알고리즘을 다른 인덱스 구조와 비교하여 CSTmr-트리의 우수성을 보인다.

FPGA 기반 실시간 영상 워핑을 위한 영상 캐시 (Image Cache for FPGA-based Real-time Image Warping)

  • 최용준;류정래
    • 전자공학회논문지
    • /
    • 제53권6호
    • /
    • pp.91-100
    • /
    • 2016
  • FPGA 기반 실시간 영상 워핑 시스템에서는 영상 픽셀 정보의 빠른 읽기와 메모리 접근 횟수의 감소를 위하여 영상 캐시를 활용하지만, 일반 컴퓨터 시스템의 캐시 알고리즘은 캐시 부적중(cache miss)에 의한 시간 지연과 복잡한 온라인(on-line) 연산 구조로 인하여 실시간 성능 구현에 어려움이 있다. 본 논문에서는 FPGA 기반 실시간 영상 워핑을 위한 단순한 구조의 영상 캐시 알고리즘을 제안한다. 영상 워핑에서의 픽셀 데이터 접근 순서는 워핑에 적용할 2D 좌표변환 관계에 의하여 결정되며 매 영상 프레임에서 반복되는 특성이 있다. 따라서, 캐시 로드(cache load)에 관한 사항을 오프라인(off-line)에서 미리 프로그램함으로써 캐시 부적중 상황이 발생하지 않음을 보장할 수 있고, 그 결과 온라인에서의 연산이 감소하여 캐시 컨트롤러의 구조가 단순해진다. FPGA를 활용한 전체 시스템 구조를 제시하고, 실험을 통하여 제안하는 영상 캐시 알고리즘의 정확성과 타당성을 확인한다.

A Multi-Level Flash Translation Layer for Large Capacity Solid State Drives

  • Kim, Yong-Seok
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권2호
    • /
    • pp.11-18
    • /
    • 2021
  • SSD의 FTL에서는 호스트로부터 요청된 논리적 페이지 번호를 실제 기록된 플래시 메모리 페이지 번호로 매핑하는 작업을 한다. 매핑 정보를 관리하기 위해서 사용되는 RAM의 용량을 줄이는 것은 매우 중요하다. 기존의 요구기반 FTL에서는 매핑 정보도 플래시 메모리 페이지에 기록하고 그들의 주소만 RAM에 테이블로 관리하는 2단계 방법을 적용하였다. 그러나 SSD의 용량이 수십 테라바이트 수준으로 늘어나고 있으므로 이 방법만으로는 충분하지 않다. 본 논문에서는 소요되는 RAM의 용량을 획기적으로 줄이기 위해서 매핑 정보를 3단계로 관리하는 방법인 ML-FTL을 제안하고 그 성능을 평가하였다. 캐시를 적절히 활용함으로써 기존의 2단계 방법에 비해서 오버헤드가 늘어나는 정도가 미미하다는 것을 확인하였다.

시그니처 기반 이거 하드웨어 트랜잭셔널 메모리에서의 캐시 접근 이력을 이용한 거짓 충돌 감소 (Using Cache Access History for Reducing False Conflicts in Signature-Based Eager Hardware Transactional Memory)

  • 강진구;이인환
    • 정보과학회 논문지
    • /
    • 제42권4호
    • /
    • pp.442-450
    • /
    • 2015
  • 본 논문에서는 시그니처 기반의 이거 하드웨어 트랜잭셔널 메모리(eager HTM)에서 발생하는 거짓 충돌을 줄이기 위한 방법을 제안한다. 이 방법에서는 각 트랜잭션이 실행 중에 접근하는 캐시 블록들을 추적한다. 그리고 다른 코어로부터의 요청에 대해 충돌이 없다는 증거를 추적한 정보가 제공하면, 시그니처 서브시스템이 충돌이라고 선언하더라도 그것을 무시하도록 조치한다. 따라서 제안한 방법을 사용하면 거짓 충돌에 의한 트랜잭션의 멈춤 또는 취소를 줄일 수 있다. 이 방법은 시그니처 기반의 이거 HTM을 구현하는 멀티코어 프로세서의 성능을 향상시키기 위해 사용할 수 있다. 16개의 코어로 구성된 LogTM-SE 시스템에서 스탠포드 대학에서 개발한 STAMP 벤치마크를 사용하여 실험한 결과, 제안한 방법을 사용할 경우 시스템의 성능은 평균 20.6% 만큼 향상되었다.

내장형 GPU 환경에서 CPU-GPU 간의 공유 캐시에서의 캐시 분할 방식의 필요성 (The Need of Cache Partitioning on Shared Cache of Integrated Graphics Processor between CPU and GPU)

  • 성한울;엄현상;염헌영
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제20권9호
    • /
    • pp.507-512
    • /
    • 2014
  • 최근 전력의 한계 때문에 많은 트랜지스터를 모두 이용할 수 없는 '다크실리콘' 문제가 발생했다. 이 문제를 효율적으로 해결하기 위하여 CPU(Central processing unit)와 GPU(Graphic processing unit)를 함께 사용하여 분산처리하기 시작했다. 최근에는 CPU(Central processing unit)와 GPU(Graphic processing unit)가 메모리와 Last Level Cache를 공유하는 내장형 GPU 프로세서(Integrated graphic processing unit processor)가 등장했다. 하지만 CPU 프로세스와 GPU 프로세스가 LLC(Last level cache)로 접근하기 위한 어떠한 규칙이 없기 때문에, 동시에 CPU 프로세스와 GPU 프로세스 수행될 때 LLC(Last level cache)를 차지하기 위한 경쟁이 일어나 성능 저하가 발생한다. 본 논문에서는 캐시 접근 빈도가 큰 여러 개의 프로세스들이 수행됨에 따라 캐시 오염이 발생한 상황에서 GPU 프로세스의 성능 보장을 위하여 GPU 프로세스만을 위한 고정된 Last Level Cache 공간을 주는 캐시 분할방식이 필요함을 증명하고 캐시를 분할하기 위한 페이지 컬러링 기법을 소개하고 디자인한다.

하이브리드 메인 메모리와 스토리지의 특성을 고려한 버퍼 캐시 교체 정책 (A Buffer Cache Replacement Algorithm for Considering both Hybrid Main Memory and Storage)

  • 강동현;엄영익
    • 정보과학회 논문지
    • /
    • 제42권8호
    • /
    • pp.947-953
    • /
    • 2015
  • PRAM은 바이트 단위의 쓰기와 비휘발성의 특징을 모두 가지고 있으며, DRAM보다 높은 밀 집도가 기대되기 때문에 DRAM을 대체할 수 있을 것으로 예상된다. 이에, PRAM 기반의 버퍼 캐시 교체정책에 대한 연구가 활발하게 진행되고 있다. 그러나 대부분의 기존 연구는 PRAM의 수명 및 느린 쓰기 성능에만 집중함으로써 PRAM의 바이트 단위의 쓰기 성능을 제한적으로 이용한다. 이에, 본 논문에서는 PRAM의 바이트 단위의 쓰기 성능과 스토리지의 성능을 모두 고려한 새로운 버퍼 캐시 교체 정책을 제안 한다. 제안 기법은 바이트 단위의 쓰기 성능을 이용하기 위해 작은 크기의 쓰기 요청이 빈번한 페이지를 PRAM에 유지시키며 DRAM과 PRAM사이의 선택적 페이지 이동을 통해 PRAM의 쓰기 횟수를 감소시킨다. 실험 결과, 제안 기법은 CLOCK 알고리즘에 비해 최고 92%까지 PRAM의 쓰기 횟수를 감소시키고 PRAM 테스트 보드에서 최대 62%까지 수행시간을 향상시키는 것을 확인하였다.

가상 메모리 압축을 위한 CAMD 알고리즘 설계 (Design of the Compression Algorithm for in-Memory Data of the Virtual Memory)

  • 장승주
    • 정보처리학회논문지A
    • /
    • 제11A권3호
    • /
    • pp.157-162
    • /
    • 2004
  • 본 논문에서는 가상 메모리 압축 알고리즘으로 CAMD 알고리즘을 제안한다. CAMD 알고리즘은 페이지 폴트가 일어났을 때 이들 페이지들을 스왑 디바이스로 이동시키지 않고 주기억장치 내의 압축된 캐시 영역을 할당하여 압축된 페이지를 저장한다. 이렇게 함으로써 스왑 디바이스로 이동하는 시간과 횟수를 감소시켜서 페이지 폴트 응답시간을 줄이며 주기억장치에 저장되는 페이지들의 공간 활용도를 높일 수 있다. 메모리 내의 데이터는 일반적인 압축 알고리즘에서 다루는 데이터와는 다른 특징들을 가지고 있어서 메모리 내의 주소 값이나 배열 데이터와 값은 요소들을 고려하여 압축될 때의 효율성을 높일 수 있다.

이원적인 요구페이지 기반 FTL 기법 (A Dualistic Approach of a Demand-Based FTL Scheme)

  • 이세환;이빛나;고건;반효경
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(A)
    • /
    • pp.566-569
    • /
    • 2011
  • 플래시 메모리는 많은 장점들로 인하여 저장장치로써 각광을 받고 있다. 하지만 그런 장점들과 더불어 약점이 있기 때문에 이를 보안하기 위하여 많은 FTL 기법들이 연구되었다. FTL은 주소 변환 테이블을 플래시 메모리에 기록하고 SRAM에 유지해야 한다. 이것은 플래시 메모리의 용량이 급격하게 증가하면서 주소 변환 테이블의 크기도 함께 증가하여 비용상 문제가 되고 있다. 본 논문에서는 플래시 메모리를 관리할 때 페이지 기반 FTL 기법을 사용하여 데이터가 플래시 메모리에 어떤 위치던지 자유롭게 저장되게 함으로써 저장 효율을 높였다. 또한 SRAM의 크기를 줄이기 위하여 페이지 기반 주소 변환 테이블 전체를 SRAM에 올리는 것이 아닌 필요한 부분만 페이지 변환 캐시 에 올리고 나머지 주소 변환 테이블은 플래시 메모리에 로그블록 FTL 기법으로 기록하였다. 이러한 이중적인 FTL 기법을 적용함으로써 제안한 기법은 페이지 기반 DFTL 기법과 비교하여 반응 시간은 56.9% 감소하였고 SRAM의 사용량은 10% 정도로 유지하였다.

파일수준의 캐시기능을 통한 플래시 파일 시스템의 성능 향상 기법 (A Performance Improvement technique for Flash-based File System Using File-Unit Caching)

  • 이준희;서민열;맹지찬;유민수
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2007년도 한국컴퓨터종합학술대회논문집 Vol.34 No.1 (B)
    • /
    • pp.298-303
    • /
    • 2007
  • 비휘발성 메모리의 하나인 플래시 메모리는 저전력 및 저비용 등의 장점으로 인해 임베디드 시스템에 필수적인 요소로 사용되고 있다. 이러한 장점에 반해, DRAM과 같은 휘발성 반도체 메모리와 비교하여 데이터 쓰기는 느리고, 데이터 업데이트를 위한 블록 소거 (erase) 동작의 오버헤드라는 단점이 있다. 특히 블록 소거 동작은 횟수가 제한되어 있으며, 이는 플래시 메모리의 수명을 결정하는데 중요한 요소이다. 본 논문에서는 플래시 메모리 기반 파일시스템에서 DRAM과 같은 동적 메모리를 사용하여 블록 소거의 횟수를 줄이고 입출력 속도를 향상시키는 기법을 제안한다.

  • PDF

시스템 온칩에서 스크래치 패드 메모리의 크기 탐색연구 (A Study of Scratchpad memory size exploration of System-on-a Chip)

  • 조중석;조두산;김용주
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 춘계학술발표대회
    • /
    • pp.15-17
    • /
    • 2014
  • 멀티미디어를 비롯한 많은 스트리밍 어플리케이션은 에너지 소비의 상당한 부분을 데이터 접근 연산 실행 명령어에 의해서 소비된다. 이러한 어플리케이션에서는 데이터 재사용성을 이용하여 에너지 소모량을 절감할 수 있다. 빈번히 사용되는 데이터를 고속의 상위 계층 메모리에 상주시켜 메인메모리 접근 횟수를 줄인다. 결과적으로 메모리 서브시스템에서 에너지 소모를 절감할 수 있게 된다. 본 연구에서는 어플리케이션의 재사용성을 분석하여 해당 어플리케이션에 특화된 스크래치패드 메모리 서브시스템 구성을 탐색하는 기법을 제안하고자 한다. 제안된 기법을 사용하면 하드웨어 제어 캐시 메모리와 비교하여 약 49% 에너지 소모를 절감하는 것이 가능하다.