• 제목/요약/키워드: Cache Replacement Algorithm

검색결과 58건 처리시간 0.03초

NAND 플래시 메모리 파일 시스템을 위한 더블 캐시를 활용한 페이지 관리 정책 (A Policy of Page Management Using Double Cache for NAND Flash Memory File System)

  • 박명규;김성조
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제36권5호
    • /
    • pp.412-421
    • /
    • 2009
  • NAND 플래시 메모리는 특성상 덮어쓰기 연산이 불가능하기 때문에 지움 연산이 선행되어야 하므로 I/O 처리 속도가 느려지게 되어 성능저하의 원인이 된다. 또한 지움 횟수가 제한적 이어서 지움 연산이 빈번히 발생하게 되면, NAND 플래시 메모리의 수명이 줄어든다. 이러한 문제점을 해결하기 위해 NAND 플래시 메모리의 특성을 고려한 쓰기 지연 기법을 사용하면, 쓰기 횟수가 줄어들어 I/O 성능 향상에 도움이 되지만, 캐시 적중률이 낮아진다. 본 논문은 NAND 플래시 메모리 파일 시스템을 위한 더블캐시를 활용한 페이지 관리 정책을 제안한다. 더블 캐시는 실질적인 캐시인 Real Cache와 참조 페이지의 패턴을 관찰하기 위한 Ghost Cache로 구성된다. 이 정책은 Ghost Cache에서 쓰기를 지연함으로써 Real Cache에서의 적중률을 유지할 수 있고, Ghost Cache를 Dirty 리스트와 Clean 리스트로 구성하여 Dirty 페이지에 대한 탐색 시간을 줄임으로써 쓰기 연산 성능을 높인다. 기존 정책들과의 성능을 비교한 결과 제안된 정책이 기존 정책들에 비해 평균적으로 적중률은 20.57%, 그리고 I/O 성능은 20.59% 우수했고, 쓰기 횟수는 30.75% 줄었다.

이기종 저장 장치 환경을 위한 버퍼 캐시 관리 기법 (An Efficient Buffer Cache Management Scheme for Heterogeneous Storage Environments)

  • 이세환;고건;반효경
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제37권5호
    • /
    • pp.285-291
    • /
    • 2010
  • 플래시 메모리는 하드 디스크에 비해 크기가 작고 물리적 충격에 강하며 전력 소모가 적은 점 등 많은 장점을 가지고 있지만 아직까지 단위 공간당 가격이 높아 하드 디스크를 전면 대체하기는 어려운 실정이다. 최근 노트북 컴퓨터 동 일부 모바일 장치에서는 하드 디스크와 플래시 메모리를 함께 사용하여 두 매체의 장점을 극대화하려는 시도가 이루어지고 있다. 하지만 기존 운영체제는 이기종 저장 장치 환경이 아닌 단일 저장 장치 환경에 최적화되어 이러한 장점을 충분히 살리지 못하고 있다. 본 논문에서는 이를 해결하기 위해 세 가지 기법을 이용하는 새로운 버퍼 캐시 관리 기법을 제안한다. 첫째, 입출력 접근 패턴을 탐지하고 블록의 저장 위치 별 성능 특성을 분석한 후 동적 한계 효용에 근거하여 버퍼 캐시 공간을 할당한다. 둘째, 입출력 접근 패턴과 저장 장치 특성에 따라서 선택적으로 선반입 기법을 적용한다. 셋째, 버퍼 캐시에서 저장 장치로 쫓겨날 때 해당 블록의 접근 패턴에 따라 하드 디스크와 플래시 메모리 중 더 적합한 매체를 결정하고 그 매체에 블록이 저장되도록 한다. 제안하는 기법들을 트레이스 기반 시뮬레이션으로 검증한 결과 기존 기법에 비해 버퍼 캐시 적중률은 29.9%, 총 실행시간은 49.5% 향상되었다.

기대비용기반 캐쉬교체 알고리즘 (Expected-Cost-based Cache Replacement Algorithm)

  • 이정준;황규영
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1999년도 가을 학술발표논문집 Vol.26 No.2 (1)
    • /
    • pp.240-242
    • /
    • 1999
  • 웹 데이터는 기존의 페이지를 기반으로 한 교체 알고리즘이 고려하지 않은 다양한 데이터 아이템의 크기, 네트워크 밴드위쓰 등으로 인한 다양한 참조 비용과 데이터의 만기시간(expiration time)을 갖는다. 그러나, 기존의 연구에서는 만기시간이 미치는 영향에 대한 연구가 초보적인 수준이다. 본 논문에서는 만기시간이 참조비용에 미치는 영향을 반영한 기대비용기반 캐쉬교체 알고리즘을 제안한다. 제안한 알고리즘은 만기시간내에 참조되어 캐쉬효과를 얻을 확률을 이용하여 참조비용의 기대값을 구하고, 이 값을 비교하여 교체대상을 선정한다. 제안한 알고리즘은 데이터의 크기, 참조비용 뿐만 아니라 만기시간의 영향을 확률적으로 정확히 반영하므로, 기존의 교체 알고리즘보다 우수한 성능을 보인다.

  • PDF

웹 지리정보시스템에서 다단계 추상화 데이터의 확률기반 프리페칭 기법 (Probability-based Pre-fetching Method for Multi-level Abstracted Data in Web GIS)

  • 황병연;박연원;김유성
    • Spatial Information Research
    • /
    • 제11권3호
    • /
    • pp.261-274
    • /
    • 2003
  • 기존의 웹 지리정보시스템에서는 타일링 개념을 도입하여 타일 단위로 전송하는 타일 기반의 데이터 구조를 가진다. 이는 지도의 초기 로딩 시간을 줄이는 효과는 있으나, 웹 지리정보시스템에서 사용자의 질의에 대한 전체 응답시간을 줄이지는 못하였다. 이러한 문제를 해결하기 위해 제안된 것이 프리페칭 알고리즘과 이와 연동하는 캐쉬대체 알고리즘이다. 프리페칭 알고리즘은 확률기반모델로 표현된 사용자의 타일접근패턴을 이용하여 앞으로 사용될 타일을 정확하게 예측하여 클라이언트에 미리 데이터를 전송하는 방법이고, 캐쉬대체 알고리즘은 클라이언트의 제한된 캐쉬공간에 서버로부터 가져온 타일을 캐쉬하기 위해서 사용자의 타일접근패턴을 이용하여 제거해야할 타일을 선정하는 정책이다. 웹 지리정보시스템은 확대 질의나 축소 질의 처리 시에 빠른 응답시간으로 서비스하기 위해 레벨링 기법이 사용된 다단계 추상화 데이터로 구성되어 있다. 그러나, 기존에 제안된 프리페칭 알고리즘은 다수 개의 레벨에서도 프리페칭이 적용되어야 하는 점은 고려하지 않고, 2차원적 공간에서만 프리페칭을 수행하였다. 본 논문에서는 다단계 추상화 데이터로 구성된 웹 지리정보시스템에서 확대 질의와 축소 질의 시, 다른 레벨로의 이동을 고려하여 프리페칭이 적용되는 알고리즘을 제안하였다. 프리페칭 공간을 다단계로 확장시킨 알고리즘의 성능을 평가한 결과, 사용자의 응답시간이 1.8%∼21.6% 빨라지는 성능 향상이 있었다. 따라서, 웹 지리정보시스템에 제안된 프리페칭 알고리즘과 이와 연동하는 캐쉬대체 알고리즘을 적용함으로써 사용자들에게 보다 빠른 응답시간으로 서비스할 수 있다. 관능검사에서 전반적인 기호도는 점성, 향미, 입안에서의 질감 등이 기여도가 높고 색상의 영향은 적었다.프, 샐러드의 비율이 높은 반면, 남자는 육류, 어패류의 비율이 높았으며, 음식 선택시 기준은 '내가 좋아하는 음식'이 70.7%로 가장 높게 나타나 부페식당 이용자들이 바람직한 식사순서 및 음식선택에 대한 인식이 낮음을 알 수 있었다. 부페식당에서 가장 좋아하는 음식의 국적은 54.4%가 한국음식으로 나타났다. 부페식사에서 '약간' 또는 ‘대단히 과식했다'고 응답한 경우가 64.0%로 많은 대상자들이 과식하는 것으로 나타났는데 이로 인한 건강 및 영양문제에 대한 교육이 필요하고 운영면에서는 이러한 일종의 음식의 낭비를 줄일 수 있는 방안에 대한 연구가 필요하다고 사료되었다. 5) 향후 부페식당의 발전방향에 대한 의견 부페식당의 발전방향에 대해 '가지수를 줄여서라도 가격을 짜게 하자'는 의견이 82.9%로 대부분 조사 대상자들이 현재 부페가격에 대해 부정적인 반응을 보였다. '한국음식을 더 많이 해서 전통음식과 친밀한 장소로 발전시키자', '계절식품을 이용하고 비슷한 종류의 음식은 빼서 가격을 낮추자', '연령에 따라서, 또, 성인에서는 성별에 따라 가격 차이를 두자'는 의견 등이 있었다.이용한 배반포의 체외생산에 있어서 배양액내 항산화제의 첨가는 체외성숙단계에서만 효과적이었다. 이것은 아마도 항산화제가 체외성숙 시 난포란 내에서 일어나는 여러 가지 생화학 반응의 처리시간과 관련하여 활성화시킴으로써 난포란의 생존력을 높인 것이라고 사료되기 때문에 앞으로는 돼지 난포란의 효율적인 체외성숙에 대해서 배양액내 첨가물질은

  • PDF

라이트 백 캐쉬를 위한 빠른 라이트 백 기법 (The Early Write Back Scheme For Write-Back Cache)

  • 정영진;이길환;이용석
    • 대한전자공학회논문지SD
    • /
    • 제46권11호
    • /
    • pp.101-109
    • /
    • 2009
  • 일반적으로 3차원 그래픽 깊이 캐쉬와 픽셀 캐쉬는 메모리 대역폭의 효율적인 사용을 위하여 라이트 백(write-back) 캐쉬로 설계된다. 또한 3차원 그래픽 특성상 캐쉬 읽기 접근을 시도한 주소에 대한 캐쉬 쓰기 접근 혹은 읽기 접근이 발생하지 않고 캐쉬 쓰기 접근만 발생하는 경우가 많다. 캐쉬 메모리의 모든 블록이 사용되고 있는 상태에서 캐쉬 접근 실패가 발생하면 캐쉬 메모리 한 블록이 교체 알고리즘(replacement algorithm)에 의하여 한 블록을 라이트 백 동작을 실행하고 그 블록에 다른 데이터를 저장한다. 이러한 캐쉬 접근 실패 발생은 방출되는 캐쉬 메모리 한 블록의 데이터를 저장하기 위한 외부 메모리 쓰기 접근과 캐쉬 접근 실패를 처리하기 위한 외부 메모리 접근을 동시에 발생시킨다. 따라서 연속적인 캐쉬 접근 실패가 발생하는 경우 다량의 메모리 읽기와 쓰기 접근이 동시에 발생되어 메모리 병목현상을 유발시키고 이는 결국 메모리 접근 소요 시간을 길어지게 한다. 이와 같이 연속적인 캐쉬 접근 실패는 캐쉬를 사용하는 프로세서나 IP의 성능 저하와 전력소비 증가를 유발한다. 본 논문에서는 캐쉬 사용 시 발생하는 메모리 병목현상을 최소화하기 위하여 빠른 라이트 백이라는 새로운 방법을 사용하였다. 이 방법은 캐쉬 메모리 블록에 들어있는 유효 데이터를 방출하는 시점을 조절하여 외부 메모리 접근이 다량으로 몰리는 것을 방지하는 것이다. 즉 같은 메모리 용량과 접근 성공율을 가지는 캐쉬의 성능을 증가시킬 수 있는 방법이다. 이를 통하여 메모리 병목 현상을 완화시킬 수 있고 또한 캐쉬 접근 실패 시 소요되는 평균 메모리 접근 소요시간을 줄일 수 있다. 이러한 새로운 캐쉬 구조를 위한 실험은 ARM11, 3차원 그래픽 가속기 및 다양한 IP들이 내장되어 있는 SoC 환경에서 3차원 그래픽 가속기의 깊이 캐쉬와 픽셀 캐쉬에 적용하여 진행하였으며 여러 가지 실험 벡터를 이용하여 결과를 측정하였을때 성능을 향상시킬 수 있다.

플래시 메모리를 위한 Not-cold-Page 쓰기지연을 통한 LRU 버퍼교체 정책 개선 (Enhancing LRU Buffer Replacement Policy with Delayed Write of Not-cold-dirty-pages for Flash Memory)

  • 정호영;박성민;차재혁;강수용
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권9호
    • /
    • pp.634-641
    • /
    • 2006
  • 플래시 메모리는 비휘발성이며 빠른 I/O 처리 속도와 같은 많은 장점들이 있으나, in-placeupdate가 불가능하고 읽기/쓰기/지우기 작업의 속도가 다르다는 단점을 지니고 있다. 버퍼 캐시를 통해 플래시 메모리 기반 저장장치의 성능을 향상시키기 위해서는 수행 속도가 느림은 물론 지우기 작업의 수행 횟수에 직접적인 영향을 끼치는 쓰기 작업의 횟수를 줄이는 알고리즘이 필요하다. 본 논문에서는 기존의 LRU 버퍼교체 정책에 not-cold-dirty-page에 대한 교체를 지연하는 알고리즘을 적용한 새로운 버퍼교체 정책(LRU-Dirty Page Later-Cold Detection, 이하 LRU-DPL-CD)을 제시하고 성능을 분석한다. 트레이스 기반 시뮬레이션 실험에서 LRU-DPL-CD는 버퍼 적중률의 큰 감소 없이 쓰기 작업과 지우기 작업의 횟수를 감소시켰으며, 그 결과 전체 플래시 메모리의 I/O 수행속도가 증가하는 결과를 보였다.

리눅스 상에서 멀티미디어 데이타를 고려한 지역 버퍼 할당 기법 (A Local Buffer Allocation Scheme for Multimedia Data on Linux)

  • 신동재;박성용;양지훈
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제9권4호
    • /
    • pp.410-419
    • /
    • 2003
  • 리눅스와 같은 범용 운영체제의 버퍼 캐시(buffer cache)는 전역적(global) 블록 교체 및 미리읽기(read ahead) 정책 등을 사용하여 파일 블록을 관리한다. 따라서, 참조의 지역성(locality)을 가지지 않고 다양한 소비율(consumption rate)을 갖고 있는 멀티미디어 데이타의 경우 캐시 시스템의 적중률이 낮을 뿐만 아니라 미리읽기의 특성으로 인하여 필요보다 과도하게 버퍼를 소비하기도 한다. 본 논문에서는 리눅스 상에서 멀티미디어 데이타를 위한 새로운 버퍼 할당 기법을 설계하고 구현하였다. 제안된 방법에서는 멀티미디어 파일마다 독립적인 미리읽기 캐시를 유지하며 미리읽기 그룹의 크기를 소비율에 비례하도록 동적으로 조절한다. 이는 공정한 자원 분배가 이루어지도록 하며, 버퍼의 소비량을 최적화되도록 한다. 본 논문에서는 구현된 시스템과 최신의 리눅스 커널 2.4.17 버전 상에서 각각 소비되는 버퍼 수와 캐시 적중률을 실험을 통하여 비교함으로써 시스템의 성능을 평가한다.

Hybrid SSD 시스템을 위한 재사용 간격 기반 블록 교체 기법 (Block Replacement Scheme based on Reuse Interval for Hybrid SSD System)

  • 유상현;김경태;윤희용
    • 인터넷정보학회논문지
    • /
    • 제16권5호
    • /
    • pp.19-27
    • /
    • 2015
  • 최근 SSD(Solid State Drive)는 빠른 읽기/쓰기, 저전력 등 다양한 장점을 가지고 있어 스마트폰, 노트북, 서버 등의 저장장치로 사용 영역이 확대되고 있다. 하지만, 플래시 메모리의 읽기 및 쓰기의 비대칭적 성능과 제한된 쓰기 횟수가 SSD의 수명을 단축시키는 문제가 있어서 캐쉬(cache)로 사용되는 SSD의 내용을 변경시키는 블록 교체 기법(block replacement policy)이 매우 중요하다. Hybrid SSD의 수명을 향상 시킬 수 있는 방법 중 하나로 LARC 기법이 있으나, LARC는 SSD블록 관리를 위해 기존 LRU알고리즘을 사용하기 때문에 빈번히 참조되는 블록이 오래된 블록 대신 교체되어 SSD 미스율을 증가시킴으로써 시스템의 성능이 저하되는 문제점이 발생한다. 따라서, 본 논문에서는 다양한 데이터 읽기, 쓰기 환경에 효과적으로 대응하기 위해 블록의 재사용 간격을 고려한 새로운 블록 교체 기법을 제안한다. 제안된 기법은 블록 재사용 간격(Reuse interval)과 Age를 기반으로 최근성(Recency)을 추출하고 참조빈도(Frequency)를 같이 고려하여 블록을 교체한다. Workload 기반 Trace를 이용한 실험결과, 제안하는 기법은 여러가지의 기존 블록 교체 기법 및 LARC 알고리즘과 비교하여 쓰기 횟수 감소와 히트율 향상을 통해 시스템 성능과 SSD의 수명을 연장시킨다.

인터넷 서버의 부하 경감을 위한 효율적인 캐쉬 알고리즘 (An Efficient Cache Algorithm for Internet Servers to Reduce Load)

  • 최수영;문진용;구용완
    • 정보처리학회논문지C
    • /
    • 제8C권2호
    • /
    • pp.128-133
    • /
    • 2001
  • 최근의 인터넷의 폭발적인 인기로 인해 인터넷 객체의 캐슁 기법이 매우 중요한 문제가 되 었다. 인터넷에서의 캐슁은 전통적인 캐슁 기법과 여러 면에서 다르다. 특히 일반적인 캐슁 알고리즘은 인터넷에 적합하지 못한데, 이는 크기가 서로 다른 객체들을 함께 처리함으로써 발생하는 작은 객체들의 불이익에서 기인한다. 본 논문에서는 인터넷 캐슁을 위해 설계된 기존의 기법들을 살펴보고 우리의 새로운 알고리즘을 제안한다. 그리고, 여러 가변 길이 대 체 알고리즘에 대한 모의 실험의 결과를 제시하고, 객체들을 크기에 따라 구분하여 처리함 으로써 바이트 적중률을 향상시키는 방안을 도출한다.

  • PDF

웹 서비스를 위한 효율적인 캐쉬 관리 전략의 설계 및 성능 평가 (Design and Performance Analysis of an Efficient Cache Managing Strategy for Web Services)

  • 문진용
    • 디지털콘텐츠학회 논문지
    • /
    • 제9권4호
    • /
    • pp.653-659
    • /
    • 2008
  • 최근 인터넷의 폭발적인 인기로 인해 인터넷 객체의 캐슁 기법이 매우 중요한 문제가 되었다. 인터넷에서의 캐슁은 전통적인 캐슁 기법과 여러 면에서 다르다. 특히 일반적인 캐슁 알고리즘은 인터넷에 적합하지 못한데, 이는 크기가 서로 다른 객체들을 함께 처리함으로써 발생하는 작은 객체들의 불이익에 서 기인한다. 본 논문에서는 인터넷 캐슁을 위해 설계된 기존의 기법들을 살펴보고 새로운 알고리즘을 제안한다. 그리고 여러 가변 길이 대체 알고리즘에 대한 성능 평가의 결과를 제시하고, 객체들을 크기에 따라 구분하여 처리함으로써 바이트 적중률을 향상시키는 방안을 도출한다.

  • PDF