• 제목/요약/키워드: buffer cache management

검색결과 36건 처리시간 0.028초

연속 미디어 서버를 위한 이중 모드 버퍼 캐쉬 관리 기법 (A Dual Mode Buffer Cache Management Policy for a Continuous Media Server)

  • 서원일;박용운;정기동
    • 한국정보처리학회논문지
    • /
    • 제6권12호
    • /
    • pp.3642-3651
    • /
    • 1999
  • 본 논문에서는 연속미디어 데이터의 접근 유형을 캐쉬 정책에 반영하기 위하여 사용자 접근 패턴을 관찰한 다음, 관찰된 접근 유형을 기준으로 데이터의 캐슁 모드를 구간 단위 또는 오브젝트 단위로 운영하는 이중적 버퍼 캐쉬 운영 정책을 제안한다. 시뮬레이션을 통하여 제안한 알고리즘을 평가한 결과 제안한 방법이 기존의 구간 캐슁 방법보다 효율적이고 가변적인 시스템 환경에 안정적인 성능을 보인다는 것을 알 수 있었다.

  • PDF

Study on the Performance Evaluation and Analysis of Mobile Cache Memory

  • Lee, Sangmin;Kim, Jongwan;Kim, Ji Young;Oh, Dukshin
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권6호
    • /
    • pp.99-107
    • /
    • 2020
  • 본 논문에서는 모바일 기기에서 앱 실행 시 데이터 접근 속도를 향상하기 위해 사용하는 모바일 캐시의 특징을 분석하고 캐시 데이터 접근 실험을 통해 모바일 캐시의 중요성을 검증한다. 지난 10년간 모바일 기기 시장은 빠른 속도로 성장하였지만, 배터리가 제한적이고, 기기의 크기와 가격이 고려돼야 하므로 속도가 빠른 하드웨어를 사용하기 어렵다. 따라서 캐시 메모리와 같이 메모리 완충 구조를 통해 성능을 보완한다. 본 논문의 주요분석 대상은 캐시 메모리 크기, 캐시의 계층구조 그리고 교체방식과 그에 따른 모바일 성능을 확인한다. 시뮬레이션 데이터는 마이크로프로세서 시스템 연구에서 캐시 성능 확인용으로 사용한 데이터를 사용하였다. 실험결과 모바일 기기에서 캐시 메모리를 사용할 때 데이터에 대한 평균 접근 속도는 캐시 메모리가 없을 때 보다 10배의 성능향상을 보였으며 결과적으로 캐시 메모리는 같은 사양일 때 모바일 기기의 성능향상에 도움이 되는 것으로 나타났다.

2Q-CFP: 방송에 기초한 정보 시스템을 위한 클라이언트 캐쉬 관리 기법 (2Q-CFP: A Client Cache Management Scheme for Broadcast-based Information Systems)

  • 권혁민
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제30권6호
    • /
    • pp.561-572
    • /
    • 2003
  • 방송에 기초한 데이타 전달 방식은 방대한 규모의 클라이언트에게 데이타를 전파하기 위한 효과적인 기술로서 큰 관심을 끌고 있다. 방송에 기초한 정보 시스템(broadcast-based information system: BBIS)의 주된 동기는 자신이 지원하는 클라이언트의 수는 시스템의 성능에 전혀 영향을 미치지 않고 임의로 증가될 수 있다는 것이다. BBIS의 성능은 클라이언트 캐슁 전략과 데이타 방송 스케쥴링 기법에 크게 영향을 받는다. 본 논문은 전자의 문제를 취급하여 BBIS에 적합한 2Q-CFP로 명명된 새로운 클라이언트 캐쉬 관리 기법을 제안한다. 그리고 모의 실험 모델을 통하여 2Q-CFP 기법의 성능을 평가한다. 성능평가 결과에 의하면 2Q-CFP 기법은 GRAY, LRU, 그리고 CF 기법보다 평균 응답시간에 있어서 더 우수한 성능을 보인다.

LRU-CFP: 데이터 방송 환경을 위한 클라이언트 캐쉬 관리 기법 (Client Cache Management Scheme For Data Broadcasting Environments)

  • 권혁민
    • 정보처리학회논문지D
    • /
    • 제10D권6호
    • /
    • pp.961-970
    • /
    • 2003
  • 데이타 방송 환경에서 서버는 방송 채널을 통하여 데이타베이스 내의 데이타들을 주기적으로 방송한다. 그리고 각 클라이언트가 어떤 데이타를 액세스하기 위해서는 방송 채널을 감시하여 해당 데이타가 방송되기를 기다려야 한다. 클라이언트 데이타 캐슁은 클라이언트가 액세스하려는 데이타가 방송되기를 기다리는 시간을 줄이기 위한 매우 효과적인 기술이다. 본 논문에서는 이 대기 시간을 줄이기 위하여 LRU-CFP로 명명된 새로운 클라이언트 캐쉬 관리 기법을 제안하고, 모의 실험을 통하여 새로이 제시된 기법의 성능을 평가한다. 성능 평가 결과에 의하면 LRU-CFP 기법은 LRU, GRAY, 그리고 CF 기법보다 평균 응답시간에 있어서 더 우수한 성능을 보인다.

에너지 및 성능 효율적인 이종 모바일 저장 장치용 동적 부하 분산 (Energy and Performance-Efficient Dynamic Load Distribution for Mobile Heterogeneous Storage Devices)

  • 김영진;김지홍
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권4호
    • /
    • pp.9-17
    • /
    • 2009
  • 본 논문에서는 운영체제 수준에서 에너지 절감과 함께 I/O 성능 개선을 목적으로 하여 소형 하드 디스크와 플래시 메모리를 이종의 저장 장치로 가지는 모바일 시스템에 대해 동적 부하 분산 기법을 제안한다. 제안 기법은 부하가 에너지 및 성능 효율적인 방법으로 하드디스크와 플래시 메모리의 이종성의 저장 장치 구성에 대해서 어떻게 효율적으로 분산될 수 있을 것인지를 발견하기 위하여 파일 배치 기법과 버퍼 캐시 관리 기법을 결합하는 접근법을 취한다. 제안한 기법은 폭넓은 시뮬레이션을 통해서 기존의 기법들과 비교하여 이종의 모바일 저장장치들에 대해서 더 개선된 실험 결과를 보이는 것으로 나타났다.

NAND 플래시 메모리 파일 시스템을 위한 더블 캐시를 활용한 페이지 관리 정책 (A Policy of Page Management Using Double Cache for NAND Flash Memory File System)

  • 박명규;김성조
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제36권5호
    • /
    • pp.412-421
    • /
    • 2009
  • NAND 플래시 메모리는 특성상 덮어쓰기 연산이 불가능하기 때문에 지움 연산이 선행되어야 하므로 I/O 처리 속도가 느려지게 되어 성능저하의 원인이 된다. 또한 지움 횟수가 제한적 이어서 지움 연산이 빈번히 발생하게 되면, NAND 플래시 메모리의 수명이 줄어든다. 이러한 문제점을 해결하기 위해 NAND 플래시 메모리의 특성을 고려한 쓰기 지연 기법을 사용하면, 쓰기 횟수가 줄어들어 I/O 성능 향상에 도움이 되지만, 캐시 적중률이 낮아진다. 본 논문은 NAND 플래시 메모리 파일 시스템을 위한 더블캐시를 활용한 페이지 관리 정책을 제안한다. 더블 캐시는 실질적인 캐시인 Real Cache와 참조 페이지의 패턴을 관찰하기 위한 Ghost Cache로 구성된다. 이 정책은 Ghost Cache에서 쓰기를 지연함으로써 Real Cache에서의 적중률을 유지할 수 있고, Ghost Cache를 Dirty 리스트와 Clean 리스트로 구성하여 Dirty 페이지에 대한 탐색 시간을 줄임으로써 쓰기 연산 성능을 높인다. 기존 정책들과의 성능을 비교한 결과 제안된 정책이 기존 정책들에 비해 평균적으로 적중률은 20.57%, 그리고 I/O 성능은 20.59% 우수했고, 쓰기 횟수는 30.75% 줄었다.

입출력 형태에 따른 다중처리기 시스템의 성능 분석 (An Analysis of Multi-processor System Performance Depending on the Input/Output Types)

  • 문원식
    • 디지털산업정보학회논문지
    • /
    • 제12권4호
    • /
    • pp.71-79
    • /
    • 2016
  • This study proposes a performance model of a shared bus multi-processor system and analyzes the effect of input/output types on system performance and overload of shared resources. This system performance model reflects the memory reference time in relation to the effect of input/output types on shared resources and the input/output processing time in relation to the input/output processor, disk buffer, and device standby places. In addition, it demonstrates the contribution of input/output types to system performance for comprehensive analysis of system performance. As the concept of workload in the probability theory and the presented model are utilized, the result of operating and analyzing the model in various conditions of processor capability, cache miss ratio, page fault ratio, disk buffer hit ratio (input/output processor and controller), memory access time, and input/output block size. A simulation is conducted to verify the analysis result.

프록시 시스템에서 multi-level 스트리밍 서비스를 위한 세그먼트 기반의 버퍼관리 (Segment-based Buffer Management for Multi-level Streaming Service in the Proxy System)

  • 이종득
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권11호
    • /
    • pp.135-142
    • /
    • 2010
  • 프록시 시스템에서의 QoS는 혼잡 (congestion), 지연 (delay), 재전송 (retransmission) 등과 같은 간섭에 의해 많은 영향을 받는다. 또한 멀티-레벨 스트리밍 서비스는 시간 동기화에 의해 영향을 받으며, 이로 인하여 서비스 성능이 저하된다. 본 논문에서는 프록시 시스템에서 발생하는 스트리밍 서비스의 성능 저하를 개선하고 스트리밍 처리율을 향상시키기 위한 세그먼트 기반의 버퍼 관리 메커니즘을 제안한다. 제안된 논문의 목적은 다음과 같다. 1) 세그먼트 기반의 버퍼관리 메커니즘을 이용하여 다중 스트리밍 서비스를 최적화한다. 2) 혼잡, 간섭 등으로 인해 발생되는 오버헤드를 줄인다. 3) 끊김 현상, 지연 등으로 인해 발생하는 재전송의 문제를 최소화한다. 이러한 목적을 수행하기 위해 우리는 퍼지 값 $\mu$와 비용 가중치 $\omega$를 이용한다. 시뮬레이션 결과 제안된 메커니즘은 버퍼 캐시 제어율, 평균 패킷 손실률, 그리고 스트림 적합성 척도에 따른 지연 절약율에 있어서 기존의 고정길이 세그먼트기법, 피라미드 (pyramid) 세그먼트 기법, 그리고 스카이스크렙퍼 (skyscraper) 세그먼트 기법보다 성능이 효율적임을 보였다.

접근 요청 빈도에 기반한 멀티미디어 뉴스 데이터의 선별적 버퍼 캐쉬 관리 전략 (Access Frequency Based Selective Buffer Cache Management Strategy For Multimedia News Data)

  • 박용운;서원일;정기동
    • 한국정보처리학회논문지
    • /
    • 제6권9호
    • /
    • pp.2524-2532
    • /
    • 1999
  • 대규모의 실시간 주문형 뉴스 제공 시스템(Real Time News On Demand)에서는 다수의 사용자들이 디스크에 저장된 뉴스 데이터를 실시간으로 동시에 접근하여 최대로 수용할 수 있는 사용자 수는 총 디스크 대역폭의 제한을 받는다. 본 연구에서는 이러한 디스크 대역폭의 한계를 극복하기 위하여 디스크 비용의 일부로 버퍼 캐쉬를 구성하여 실시간 뉴스 데이터에 적합하도록 버퍼를 블록 단위가 아닌 오브젝트 단위로 할당하는 버퍼 캐쉬 정책을 사용하고, 캐슁 대상 뉴스 데이터를 현재의 디스크 대역폭의 사용 정도와 해당 뉴스 데이터의 평균 요청 간격을 고려하여 선별함으로써 재접근 가능서이 낮은 데이터의 경우 캐슁 대상에서 제외시켜 볼 필요한 버퍼의 재 할당에 의한 메모리 오버헤드를 방지하는 실시간 뉴스 데이터에 적합한 캐슁 방법을 제안한다. 이렇게 함으로써 접근 빈도수가 높은 데이터의 경우 디스크의 접근 없이도 데이터의 획득이 가능하게 되어 디스크만으로 저장 시스템을 구성할 때와 비교하여 저 비용으로 저장 시스템을 구성할 수 있다. 본 논문에서 제안한 알고리즘의 성능을 시뮬레이션을 통하여 평가한 결과, 본 논문에서 제안한 캐슁 방법으로 뉴스 데이터에 대한 사용자의 요청을 처리했을 경우, 디스크만으로 저장 서버를 구성하였을 경우보다 30% 이상의 사용자를 지원할 수 있다.

  • PDF

Nand-Flash 기반의 SSD를 이용한 확장 버퍼 캐쉬 관리 기법 연구 (A Research of Extension Buffer Cache Management used Nand- flash based SSD)

  • 오경환;봉선종;김경태;윤희용
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2014년도 제50차 하계학술대회논문집 22권2호
    • /
    • pp.235-236
    • /
    • 2014
  • 플래시 메모리 기술이 발전함에 따라 낸드 플래시 기반의 SSD가 상용화 되면서 I/O시간을 줄이기 위한 연구들이 진행되고 있다. 이에 본 논문에서는 기존의 메인 메모리와 저장장치 사이에 확장 버퍼 캐시로써 SSD를 사용하고 메인 메모리에서 방출 된 페이지들을 구분하여 같은 성향의 페이지들을 블록화 하는 모델을 제안한다. 이러한 모델을 통하여 블록 단위로 사용되는 SSD를 효율적으로 이용하여 읽기 및 쓰기 성능을 높이고 I/O에 해당하는 시간들을 줄임으로써 전체적인 성능 향상을 증명하였다.

  • PDF