• 제목/요약/키워드: 캐시메모리

검색결과 242건 처리시간 0.025초

NUMA 시스템의 공유 LLC 활용을 위한 I/O 트래픽에 따른 태스크 분류법 (I/O Traffic based Task Classification for Shared Last Level Cache Utilization in NUMA Systems)

  • 안득현;김지홍;엄영익
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 춘계학술발표대회
    • /
    • pp.199-201
    • /
    • 2012
  • 디스크나 이더넷과 같은 I/O 장치로부터 발생하는 I/O 트래픽은, 여러 개의 노드를 가진 NUMA 시스템의 공유 LLC에 캐시 오염을 일으켜 캐시 라인이 재사용되는 것을 방해한다. 이러한 태스크는 캐시를 효율적으로 이용할 수 있는 메모리 집중적인 태스크들과 따로 분리하여 다룰 필요가 있다. 본 논문에서는 이러한 캐시 오염을 발생시키는 태스크들을 해당 태스크의 I/O 트래픽을 이용하여 실시간으로 감시하고 분류하는 기법을 제안한다. 또한 대량의 I/O 트래픽을 일으키는 태스크의 특성을 알아본다. 이를 통해, NUMA 시스템 환경에서 각 노드의 공유 LLC를 보다 효율적으로 사용할 수 있는 운영체제 스케줄링 기법을 연구하기 위한 토대를 마련하였다.

공격적인 선인출 및 직접 사상 필터링을 이용한 L1 캐시 선인출 기법 (An L1 Cache Prefetching Scheme using Excessively Aggressive Prefetchering and a Small Direct-mapped Filtering Cache)

  • 전영숙
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권11호
    • /
    • pp.836-852
    • /
    • 2006
  • 본 논문에서는 공격적인 선인출 및 직접 사상 필터링을 이용한 L1 캐시 선인출 기법을 제안한다. 이를 위하여 캐시 선인출의 역효과에 대한 정량적 분석 방법을 제안하였고 이를 이용하여 다양한 벤치마크에서의 공격적 선인출 효과를 분석하였다. 분석 결과를 바탕으로 최적 선인출 필터 구조 및 알고리즘을 도출하였고 독자적으로 개발된 타이밍 기반 캐시 시뮬레이터를 사용하여 전체 시스템 성능을 추출하였다. 실험 결과는 제안된 L1 선인출 기법을 사용하여 다양한 벤치마크에 대하여 시스템 성능을 평균적으로 18% 향상시킬 수 있음을 보인다.

칩 멀티 프로세서의 공유 버스를 이용한 유휴 캐시 활용 기법 (Idle Cache Exploiting Techniques for Shared Bus-based Chip Multi-processors)

  • 강석빈;김주환;곽종욱;장성태;전주식
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2009년도 춘계학술발표대회
    • /
    • pp.877-880
    • /
    • 2009
  • 반도체 집적도의 향상과 제한된 프로세서 설계 능력으로 인한 칩 멀티 프로세서의 도입은 최근 수 년 동안 급속히 이루어졌으나, 다수의 프로세싱 코어를 효율적으로 사용하기 위한 기법은 부족한 실정이다. 칩 멀티 프로세서 상에서 실제 작업을 수행하지 않는 유휴 코어의 발생은 불가피하며, 이 때 코어가 소유한 자원들은 낭비될 수 밖에 없다. 기존의 연구들은 이렇게 낭비되는 자원 중에서 캐시의 효율적 관리를 위해 공유 캐시 형태로 캐시를 구성하였으나, 전체 캐시 관리에 따른 많은 오버헤드를 수반하였다. 본 논문에서는 이러한 유휴 캐시의 발생이 불가피함을 인지하고 그것을 칩 내 메모리 공간으로써 활용하여 칩 멀티 프로세서 전체의 성능을 향상시키는 기법을 제안한다. 이를 위해 ARM 코어 기반의 칩 멀티프로세서 시뮬레이터 환경을 구성하여 제안된 기법을 검증한다. 실험 결과 본 논문에서 소개된 기법은 4-코어 및 16 코어 기반 칩 멀티 프로세서 환경에서 각각 17%와 8%의 IPC 향상을 가져왔다.

데이타 캐시의 활용도를 높이는 동적 선인출 필터링 기법 (Dynamic Prefetch Filtering Schemes to enhance Utilization of Data Cache)

  • 전영숙;김석일;전중남
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권1호
    • /
    • pp.30-43
    • /
    • 2008
  • Load/store와 같은 메모리 참조 명령어는 프로세서의 고속 수행을 방해하는 주요인이다. 캐시 선인출 기법은 메모리 참조에 따른 지연시간을 줄이는 효과적인 방법이다. 그러나 너무 적극적으로 선인출 할 경우에 캐시 오염을 유발시켜 선인출에 의한 장점을 상쇄시킨다. 본 연구에서는 캐시의 오염을 줄이기 위해 동적으로 필터 테이블을 참조하여 선인출 명령을 수행할 지의 여부를 결정하는 네 가지 필터링 기법들을 비교 평가한다. 먼저 기존 연구에서의 문제점을 분석하기 위해 이진 상태 기법을 보였는데, 이 기법은 기존 연구와 같이 N:1 매핑을 사용하는 반면, 각 엔트리의 값을 1비트로 하여 두 가지 상태값을 갖도록 하였다. 비교 연구를 위해 완전 상태 기법을 제시하여 비교 기준으로 사용하였다. 마지막으로 본 논문의 주 아이디어인 정교한 필터링을 위한 블록주소 참조 기법을 제안하였다 이 기법은 이진 상태 기법과 같은 테이블 길이를 가지며, 각 엔트리의 내용은 완전 상태 기법과 같은 항목을 가지도록 하여 최근에 미 사용된 데이타의 블록주소가 필터 테이블의 하나의 엔트리와 대응되도록 1:1 매핑을 하였다. 일반적으로 많이 사용되는 일반 벤치마크 프로그램과 멀티미디어 벤치마크 프로그램들에 대하여 실험한 결과, 제안한 블록주소 참조 기법(BAL)이 기존 연구인 동적 필터 기법(2-bitSC)과 비교하여 캐시 미스율이 10.5% 감소하였다.

프리패치 기법을 적용한 T.트리 인덱스 구조 (T-Tree Index Structures Utilizing Prefetch Methods)

  • 이익훈;심준호
    • 한국전자거래학회지
    • /
    • 제14권4호
    • /
    • pp.119-131
    • /
    • 2009
  • 최근 전자상거래 환경에서 실시간 트랜잭션 처리가 필요한 환경들이 많아지고 있다. 이동 통신, 금융시장 환경에서 빠른 실시간 트랜잭션 처리 지원을 위한 메인메모리 데이터베이스에 대한 연구와 구축이 많아졌다. 빠른 트랜잭션 지원을 위한 인덱싱 기법에 대한 연구로는 최근 마이크로 프로세서의 구조와 기능을 이용하여 캐시미스 수를 줄이거나 캐시 미스 발생시에 데이터 접근 지연시간을 줄이기 위한 방법들에 대한 연구가 수행되고 있다. 본 논문은 최근 마이크로 프로세서에서 지원하고 있는 프리패치 기법을 이용하여 캐시 미스 시에 데이터 접근 지연시간을 줄이는 트리인덱스 프리패치 기법을 제안한다. 또한 프리패치 기법에 효과적인 pCST-트리 인덱스 구조를 제안하고 실험을 통해 제안한 트리의 우수성을 제시한다.

  • PDF

SSD에 대한 리눅스 페이지 캐시의 성능 평가 (Performance Evaluation of Linux Page Cache on Solid-State Disk)

  • 이주환;김정현;김홍준;이재진;최재영;임선영
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2010년도 한국컴퓨터종합학술대회논문집 Vol.37 No.1(B)
    • /
    • pp.368-373
    • /
    • 2010
  • 플래시 메모리의 집적도가 높아지고 가격이 저렴해 짐에 따라 낸드 플래시 기반의 SSD의 사용이 확산 되고 있다. 플래시 메모리 기반 SSD는 기존의 하드디스크와 비교하여 여러 가지 장점을 가지지만 덮어 쓰기가 불가능한 특성상 쓰기 공간 확보를 위해 가비지 컬렉션이 수행되어야 하는 단점을 가진다. 이러한 단점을 개선하기 위해 다양한 연구들이 제안되었다. 이 중, 운영체제의 페이지 캐시에 대한 연구가 상반된 주장을 보이고 있는 점[11, 12, 13]에 착안하여 실험을 통해 이를 재확인하였다. 실험 결과, 큰 용량의 페이지 캐시가 SSD를 스토리지로 갖는 시스템에서 파일 입출력 성능을 크게 향상시키는 것을 확인 할 수 있었다.

  • PDF

복수 캐시로 구성한 미디어 프로세서의 설계 (Design of A Media Processor Equipped with Dual Cache)

  • 문현주;전중남;김석일
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권10호
    • /
    • pp.573-581
    • /
    • 2002
  • 본 논문에서는 미디어 프로세서에서 메모리 지연으로 인한 성능 저하를 방지하기 위하여 멀티미디어 데이타 캐시와 일반 데이타 캐시로 구성된 이중 캐시 구조의 미디어 프로세서를 제안하였다. 제안된 프로세서에서는 응용 프로그램에서 서브워드 명령으로 표현되는 멀티미디어 데이타를 멀티미디어 캐시에 적재하고 나머지 데이타를 일반 데이타 캐시에 적재하도록 하였다. 또한 멀티미디어 데이타 캐시는 멀티미디어 데이타의 높은 지역성을 활용하도록 2개의 데이타 블록을 동시에 인출하는 선인출 기법을 적용하였다. MPEG과 JPEG 벤치마크에 대한 실험 결과, 제안한 프로세서의 캐시구조가 단일 캐시 구조에 비하여 성능이 우수하였다.

3차원 텍스쳐 기반 볼륨 가시화를 위한 GPU 대역폭 효과적인 렌더링 기법 (Bandwidth-Effective Rendering Scheme for 3D Texture-based Volume Visualization on GPU)

  • 이원종;한탁돈
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (A)
    • /
    • pp.673-675
    • /
    • 2005
  • 본 논문은 3차원 텍스쳐 기반의 볼륨 가시화를 위한 GPU 대역폭에 효과적인 렌더링 기법을 제안한다. 전처리 과정에서 옥트리를 이용하여 원본 볼륨 데이터를 계층적으로 균일한 크기로 분할하여 실제 영역만을 효과적으로 검출하게 되고, 렌더링 시에는 가시순서에 따라 옥트리를 탐색하며 리프 노드의 각 부볼륨을 텍스쳐 매핑 유닛에서 처리하고 블렌딩 유닛에서 이를 합성한다. 작은 크기($16^3$ 또는 $32^3$)의 부볼륨 처리는 텍스쳐와 픽셀 캐시의 이용율을 높이고 공백 공간 생략을 가용하게 하여 GPU의 메모리 대역폭을 크게 줄여 렌더링을 가속할 수 있다. 제안하는 기법의 캐시 효율, 메모리 트래픽, 렌더링 시간 등 다양한 실험 결과와 성능분석이 제공된다. 실험 결과는 제안하는 기 법이 전통적인 렌더링 방법에 비해 평균 11배의 대역폭 감소와 3배 빠른 렌더링을 가능하게 하여 GPU를 이용한 볼륨 렌더링에 효과적인 방법임을 보여주었다.

  • PDF

디지털 콘텐츠 컴퓨팅 환경에서의 컴퓨터 포렌식스 정보 수집에 관한 연구 기술에 관한 연구 (A Study of Information Collection for Computer Forensics on Digital Contents Computing Environment)

  • 이종섭;장은겸;최용락
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2008년도 춘계 종합학술대회 논문집
    • /
    • pp.507-513
    • /
    • 2008
  • 디지털 콘텐츠 컴퓨팅 환경에서 서비스를 제공하는 서버시스템의 레지스터, 캐시메모리, 네트워크 정보 등의 휘발성 정보는 침해사고 이후 시간의 경과나 외부의 조작으로 사라지거나 변조되기 쉽기 때문에 실시간으로 확보하는 것이 중요하다. 본 논문에서는 디지털 콘텐츠 컴퓨팅 환경의 서버 시스템에서 휘발성 정보를 메모리를 기반으로 수집하는 기법을 활용하여 동작 중인 서버에서 위급상황이 발생할 시 필요한 정보를 실시간으로 수집할 수 있는 휘발성 정보 수집 모듈을 제안한다.

  • PDF

Shared nothing 구조하에서 Chunk-based Caching 전략에 의한 OLAP Query response time의 속도향상 (Speed Up of OLAP Query response time By Chunk-based Caching Scheme In Shared nothing Structure)

  • 엄준식;정병수
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1999년도 가을 학술발표논문집 Vol.26 No.2 (1)
    • /
    • pp.135-137
    • /
    • 1999
  • 현재 의사결정 시스템을 위한 데이터 웨어하우스는 데이터베이스 분야에서 비약적인 발전을 해오고 있다. 이 분야에서 중요한 사항은 사용자의 질의에 대한 응답시간이다. 사용자로부터 질의가 요구되면 과거의 많은 데이터를 분석하여 적절한 시간 내에 분석결과를 되돌려 줄 수 있어야 하는데 데이터 웨어하우스의 특성상 대용량의 데이터를 저장하고 분석 시에 많은 데이터를 검색해야 하므로 질의 응답시간에 많은 시간이 소요된다. 이 논문에서는 Chunk based caching 기법에 의해서 새로이 요구되는 질의에 대해 이미 메모리에 캐시 되어진 내용을 이용하는 방식을 통해 디스크의 I/O 횟수를 줄임으로서 질의 응답시간을 단축시키는 기법을 소개한다. 또한 chunk miss에 대한 처리를 병렬로 수행함으로써 메모리에 캐시되지 않은 내용을 디스크로부터 로드하는 시간을 단축시키는 방법도 아울러 소개한다.

  • PDF