• 제목/요약/키워드: 버퍼 교체

검색결과 61건 처리시간 0.029초

이기종 저장 장치 환경을 위한 버퍼 캐시 관리 기법 (An Efficient Buffer Cache Management Scheme for Heterogeneous Storage Environments)

  • 이세환;고건;반효경
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제37권5호
    • /
    • pp.285-291
    • /
    • 2010
  • 플래시 메모리는 하드 디스크에 비해 크기가 작고 물리적 충격에 강하며 전력 소모가 적은 점 등 많은 장점을 가지고 있지만 아직까지 단위 공간당 가격이 높아 하드 디스크를 전면 대체하기는 어려운 실정이다. 최근 노트북 컴퓨터 동 일부 모바일 장치에서는 하드 디스크와 플래시 메모리를 함께 사용하여 두 매체의 장점을 극대화하려는 시도가 이루어지고 있다. 하지만 기존 운영체제는 이기종 저장 장치 환경이 아닌 단일 저장 장치 환경에 최적화되어 이러한 장점을 충분히 살리지 못하고 있다. 본 논문에서는 이를 해결하기 위해 세 가지 기법을 이용하는 새로운 버퍼 캐시 관리 기법을 제안한다. 첫째, 입출력 접근 패턴을 탐지하고 블록의 저장 위치 별 성능 특성을 분석한 후 동적 한계 효용에 근거하여 버퍼 캐시 공간을 할당한다. 둘째, 입출력 접근 패턴과 저장 장치 특성에 따라서 선택적으로 선반입 기법을 적용한다. 셋째, 버퍼 캐시에서 저장 장치로 쫓겨날 때 해당 블록의 접근 패턴에 따라 하드 디스크와 플래시 메모리 중 더 적합한 매체를 결정하고 그 매체에 블록이 저장되도록 한다. 제안하는 기법들을 트레이스 기반 시뮬레이션으로 검증한 결과 기존 기법에 비해 버퍼 캐시 적중률은 29.9%, 총 실행시간은 49.5% 향상되었다.

프로토콜 버퍼를 사용한 웹 기반 시스템의 성능 향상에 관한 연구 (A Study on Performance Improvement of Web-Based Systems Using Protocol Buffers)

  • 김선종;김희천
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 춘계학술발표대회
    • /
    • pp.615-617
    • /
    • 2015
  • 웹 시스템의 구축 방법에는 하나의 서버에 웹 서버와 DB 서버를 모두 설치하여 운영하는 방법과 여러 개의 서버에 나누어 설치하는 경우가 있는데 두 가지 방법 모두 초기 구축 후 사용자가 많아지면 서버에 과부하가 생겨 해당 웹 사이트의 응답 속도가 느려지는 등 정상적으로 동작 하지 않는 문제가 생긴다. 이러한 문제의 해결책으로 서버를 증설하여 부하를 줄이는 방법을 고려할 수 있지만 해당 방법은 비용적인 측면에서 효율적이지 못하다. 그러므로 본 논문에서는 서버에서 동작하는 프레젠테이션 로직을 기존의 전형적인 톰캣 기반의 웹 서버를 노드제이에스 서버로 교체하여 클라이언트 PC의 브라우저에서 동작하도록 하여 서버의 부하를 줄이고, 또 연계되어 설계될 타 서버와의 확장성과 데이터 처리량의 감소를 위해 데이터 전송 방법으로 프로토콜 버퍼를 사용하여 통신하는 자바스크립트 프레임워크를 제시한다.

분산 이질형 객체 환경에서 캐슁 알고리즘의 설계 및 성능 분석 (Design and Performance Analysis of Caching Algorithms for Distributed Non-uniform Objects)

  • 반효경;노삼혁;민상렬;고건
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제27권6호
    • /
    • pp.583-591
    • /
    • 2000
  • 캐슁 기법은 저장 장치 계층 간의 속도차를 완충시키기 위해 캐쉬 메모리, 페이징 기법, 버퍼링 기법 등으로 널리 연구되어 왔다. 하지만, 최근 웹을 비롯한 다양한 광역 분산 환경의 보편화에 따라 단일 시스템 내의 저장 장치 간에 이루어지는 캐슁 기법 뿐 아니라 타 노드의 객체를 캐슁하는 기법의 중요성이 커지고 있다. 광역 분산 환경에서의 캐슁 기법은 객체의 캐슁에 드는 비용과 캐슁으로 인한 이득이 객체의 근원지 노드의 위치에 따라 이질적이기 때문에 비용 차이를 고려한 캐쉬 교체 알고리즘이 필요하다. 한편, 캐쉬 교체 알고리즘은 온라인 알고리즘으로서 매 시점 교체 대상이 되는 객체를 즉시 선택해야 하기 때문에 알고리즘의 시간 복잡도가 지나치게 높지 않아야 한다. 그러나, 광역 분산 환경에서의 교체 알고리즘에 대한 지금까지의 연구는 객체들의 이질성을 고려하는 문제와 캐쉬 운영의 시간 복잡도 측면 모두에서 만족스러운 결과를 보이지는 못하고 있다. 본 논문은 이러한 점을 극복하여 우수한 성능을 나타내면서 효율적인 구현이 가능한 새로운 교체 알고리즘을 설계하고, 그 우수성을 트레이스 기반 모의 실험을 통해 보여 준다.

  • PDF

비휘발성 버퍼 캐시를 이용한 파일 시스템의 주기적인 flush 오버헤드 개선 (Improving Periodic Flush Overhead of File Systems Using Non-volatile Buffer Cache)

  • 이은지;강효정;고건;반효경
    • 정보과학회 논문지
    • /
    • 제41권11호
    • /
    • pp.878-884
    • /
    • 2014
  • 파일 시스템 버퍼 캐시는 느린 스토리지의 접근 횟수를 줄여 입출력 성능 향상에 기여하지만, 캐시에서 수정된 데이터를 스토리지에 오랫동안 반영하지 않을 경우 크래쉬 발생 시 최신 데이터가 유실되거나 데이터의 일관성이 깨어지는 문제가 발생할 수 있다. 이를 방지하기 위해 대부분의 운영체제는 수정 데이터를 주기적으로 스토리지에 반영하는 flush 데몬을 사용한다. 본 논문은 파일시스템의 쓰기 연산 중 30-70%가 주기적인 flush에 의해 발생함을 분석하고, 이를 소량의 NVRAM 버퍼 캐시를 이용하여 해결하는 기법을 제시한다. 특히, 본 논문은 델타 쓰기 및 그룹 기반 교체 기법을 제안하여 소량의 NVRAM 만으로 스토리지 쓰기 트래픽과 처리량을 각각 44.3%와 23.6% 개선할 수 있음을 보인다.

Write Back 모드용 FIFO 버퍼 기능을 갖는 비동기식 데이터 캐시 (Design of an Asynchronous Data Cache with FIFO Buffer for Write Back Mode)

  • 박종민;김석만;오명훈;조경록
    • 한국콘텐츠학회논문지
    • /
    • 제10권6호
    • /
    • pp.72-79
    • /
    • 2010
  • 본 논문에서는 32bit 비동기 임베디드 프로세서용 쓰기 버퍼 기능을 갖는 데이터 캐시 구조를 제안하고 성능을 검증하였다. 데이터 캐시는 비동기 시스템에서 메인 메모리 장치와 프로세서 사이의 데이터 처리속도 향상을 목적으로 한다. 제안된 데이터 캐시의 메모리 크기는 8KB, 매핑 방식으로는 4 words(16byte)의 라인 크기를 가지며, 사상 기법으로는 4 way set associative, 교체 알고리즘으로는 pusedo LRU방식을 사용하였으며, 쓰기 정책을 위한 dirty 레지스터와 쓰기 버퍼를 적용시켰다. 설계한 데이터 캐시는 $0.13-{\mu}m$ CMOS공정으로 합성하였으며, MI벤치마크 검증 결과 평균 히트율은 94%이고 처리 속도가 46% 향상되었다.

실시간 비지정 문화재 관리 및 도난 추적 시스템 개발을 위한 효율적인 디스크 버퍼 관리 정책 분석 (The Analysis of Efficient Disk Buffer Management Policies to Develop Undesignated Cultural Heritage Management and Real-time Theft Chase)

  • 최준형;황상호;천승만
    • 한국전자통신학회논문지
    • /
    • 제18권6호
    • /
    • pp.1299-1306
    • /
    • 2023
  • 본 논문에서는 플래시 기반 대용량 저장매체를 활용하는 비지정 문화재의 관리와 실시간 도난 추적을 위한 시스템을 제안한다. 제안하는 시스템은 IoT 기술을 활용하여 문화재의 관리 및 도난 추적을 위한 문화재 관리장치, 플래시 기반 서버 및 관제 서비스로 구성된다. 하지만 플래시 기반 저장매체는 제한된 수명을 가지므로 이를 보완하기 위한 방안이 반드시 필요하다. 따라서 본 논문에서는 대용량 플래시 기반 저장매체에 내장된 디스크 버퍼를 활용하여 단점을 극복한 시스템을 제안하며 다양한 환경의 워크로드를 통하여 디스크 버퍼 관리 정책의 성능평가를 진행하였다. 실험결과로 CLOCK와 FCFS에 비하여 LRU 정책이 10.7% 적은 플래시 기반 저장매체 쓰기 횟수를 보였다.

CPWL : Clock and Page Weight based Disk Buffer Management Policy for Flash Memory Systems

  • Kang, Byung Kook;Kwak, Jong Wook
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권2호
    • /
    • pp.21-29
    • /
    • 2020
  • IT 산업 환경에서 모바일 데이터의 수요 증가로 인해 NAND 플래시 메모리의 사용이 지속적으로 증가하고 있다. 하지만, 플래시 메모리의 소거 동작은 긴 대기 시간과 높은 소비 전력을 요구하여 각 셀의 수명을 제한한다. 따라서 쓰기와 삭제 작업을 자주 수행하면 플래시 메모리의 성능과 수명이 단축된다. 이런 문제를 해결하기 위해 디스크 버퍼를 이용, 플래시 메모리에 할당되는 쓰기 및 지우기 연산을 감소시켜 플래시 메모리의 성능을 향상시키는 기술이 연구되고 있다. 본 논문에서는 쓰기 횟수를 최소화하기 위한 CPWL 기법을 제안한다. CPWL 기법은 버퍼 메모리 액세스 패턴에 따라 읽기 및 쓰기 페이지를 나누어 관리한다. 이렇게 나뉜 페이지를 정렬하여 쓰기 횟수를 줄이고 결과적으로 플래시 메모리의 수명을 늘리고 에너지 소비를 감소시킨다.

Designing a low-power L1 cache system using aggressive data of frequent reference patterns

  • Jung, Bo-Sung;Lee, Jung-Hoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권7호
    • /
    • pp.9-16
    • /
    • 2022
  • 오늘날, 4차산업혁명의 도래와 함께 사물인터넷(Internet of Things (IoT)) 시스템이 빠르게 발전하고 있다. 이러한 이유로, 고성능 및 대용량의 다양한 애플리케이션이 등장하고 있다. 따라서, 이러한 애플리케이션을 가지는 컴퓨팅 시스템을 위한 저전력 및 고성능 메모리가 필요하다. 본 논문에서는 컴퓨팅 시스템에서 가장 많은 에너지 소비가 발생하는 L1 캐시 메모리에 대한 효과적인 구조를 제안하였다. 제안된 캐시 시스템은 크게 L1 메인 캐시와 버퍼캐시로 구성되어 진다. 메인 캐시는 2-뱅크 시스템으로, 각 뱅크는 2-웨이 연관사상으로 구성된다. L1캐시에서 접근 성공이 발생하면 제안된 알고리즘에 따라 데이터가 버퍼캐시에 복사가 된다. 시뮬레이션 결과에 따르면, 제안된 L1 캐시 시스템은 기존 4웨이 연관사상 캐시 메모리에 비해 에너지-지연에서 약65%의 성능향상을 보였다.

Audio On Demand를 위한 웹캐쉬 구조 (Web Cache Architecture for Audio On Demand)

  • 이태원;심마로;배진욱;이석호
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (1)
    • /
    • pp.295-297
    • /
    • 1998
  • 인터넷 상에서 AOD나 VOD와 같이 멀티미디어 데이터를 서비tm하는 시스템에서는 같은 자원으로 더 많은 수의 동시 사용자를 지원하는 문제가 중요하다. 기존의 운영체제 캐쉬만을 이용하면 자주 요청되지 않는 곡에 대한 스캔으로 캐쉬에서 페이지 교체가 자주 일어나 버퍼링 효과가 저하되는 현상이 있다. 본 논문에서는 웹캐쉬라는 구조를 통해 과거의 요청 정보로부터 가까운 미래에 다시 요청될 곡들을 예측하고 이 곡들을 웹캐쉬에 유지하여 서비스한다. 이렇게 함으로써 디스크 액세스 횟수를 줄일 수 있고 같은 자원으로 더 많은 동시 사용자를 지원할 수 있다. 가까운 미래에 다시 요청될 곡을 예측하기 위한 방법으로 과거 요청 사이의 시간간격에 가중치를 부여하여 요청이 자주 발생하는 곡들을 판별해 낼 수 있다. 실제로 운영되고 있는 AOD 사이트의 4달간의 요청 자료를 실험 자료로 본 논문에서 주장하는 바를 시뮬레이션하여 높은 성능 향상을 얻은 것을 보였다.

효율적인 버퍼 캐시 관리를 위한 동적 캐시 분할 블록교체 기법 (Dynamic Cache Partitioning Strategy for Efficient Buffer Cache Management)

  • 진재선;허의남;추현승
    • 한국시뮬레이션학회논문지
    • /
    • 제12권2호
    • /
    • pp.35-44
    • /
    • 2003
  • The effectiveness of buffer cache replacement algorithms is critical to the performance of I/O systems. In this paper, we propose the degree of inter-reference gap (DIG) based block replacement scheme that retains merits of the least recently used (LRU) such as simple implementation and good cache hit ratio (CHR) for general patterns of references, and improves CHR further. In the proposed scheme, cache blocks with low DIGs are distinguished from blocks with high DIGs and the replacement block is selected among high DIGs blocks as done in the low inter-reference recency set (LIRS) scheme. Thus, by having the effect of the partitioning the cache memory dynamically based on DIGs, CHR is improved. Trace-driven simulation is employed to verified the superiority of the DIG based scheme and shows that the performance improves up to about 175% compared to the LRU scheme and 3% compared to the LIRS scheme for the same traces.

  • PDF