• Title/Summary/Keyword: 선반입 알고리즘

Search Result 10, Processing Time 0.025 seconds

Table Comparison Prefetching using Available I/O Bandwidth in Parallel File System (병렬 파일 시스템에서의 가용 입출력 대역폭을 고려한 테이블 비교 선반입 정책)

  • 김재열;석성우;조종현;서대화
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10c
    • /
    • pp.630-632
    • /
    • 2000
  • 과도한 파일 입출력이 요구되는 병렬파일 시스템의 성능을 결정하는 중요한 요소로서 캐슁과 선반입을 들 수 있다. 본 논문은 캐쉬의 크기에 비해 상대적으로 큰 파일을 요청하는 경우에 시스템 성능에 막대한 영향을 미치는 선반입에 대해서 선반입할 데이터를 결정하는 알고리즘으로 테이블 비교법을 제안하고, 이와 더불어 예측된 데이터의 선반입 여부와 선반입 시기를 결정하는 경우 현재의 가용 입출력 대역폭을 고려하는 기법을 제안한다. 제안하는 선반입 알고리즘을 시뮬레이션을 통하여 기타 선반입 알고리즘과 비교해 본 결과 파일 시스템 성능이 향상되었음을 보여준다.

  • PDF

Adaptive E-OBA prefetching method (적응적 E-OBA 선반입 기법)

  • 황보준형;임재덕;서대화
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04a
    • /
    • pp.103-105
    • /
    • 2001
  • 디스크 I/O 성능 개선을 위한 여러 캐슁과 선반입 알고리즘이 연구되어져 왔다. 선반입 알고리즘은 디스크 접근 횟수를 줄임으로써 시스템의 프로세싱 시간을 줄여준다. 이는 선반입 기법을 통해 응용 프로그램이 실제로 데이터 블록을 요청하기 전에 시스템이 데이터 블록을 읽도록 하기 때문이다. 이 논문은 OBA 선반입 기법의 확장판인 E-OBA 선반입 기법을 제안한다. 제안된 방법은 디스크 대역폭의 여유가 허락된다면 연속적으로 데이터 블록을 선반입 하여 시스템 프로세싱 시간을 줄인다. 그리고 기존의 캐슁되어 있는 데이터 블록을 보호하기 위해 선반입 하는 데이터 블록의 개수를 제한한다. 특별히, 제안된 선반입 정책은 순차적으로 접근되는 큰 파일에 대해서 시스템 성능을 개선시킨다.

An Efficient Buffer Cache Management Algorithm based on Prefetching (선반입을 이용한 효율적인 버퍼 캐쉬 관리 알고리즘)

  • Jeon, Heung-Seok;Noh, Sam-Hyeok
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.27 no.5
    • /
    • pp.529-539
    • /
    • 2000
  • This paper proposes a prefetch-based disk buffer management algorithm, which we call W2R (Veighingjwaiting Room). Instead of using elaborate prefetching schemes to decide which blockto prefetch and when, we simply follow the LRU-OBL (One Block Lookahead) approach and prefetchthe logical next block along with the block that is being referenced. The basic difference is that theW2R algorithm logically partitions the buffer into two rooms, namely, the Weighing Room and theWaiting Room. The referenced, hence fetched block is placed in the Weighing Room, while theprefetched logical next block is placed in the Waiting Room. By so doing, we alleviate some inherentdeficiencies of blindly prefetching the logical next block of a referenced block. Specifically, a prefetchedblock that is never used may replace a possibly valuable block and a prefetched block, thoughreferenced in the future, may replace a block that is used earlier than itself. We show through tracedriven simulation that for the workloads and the environments considered the W2R algorithm improvesthe hit rate by a maximum of 23.19 percentage points compared to the 2Q algorithm and a maximumof 10,25 percentage feints compared to the LRU-OBL algorithm.

  • PDF

Table Comparison Prefetching Algorithm Adoped in Parallel File System (병렬 파일 시스템에 적용한 테이블 비교 선반입 기법)

  • Lee, Yoon-Young;Kim, Chei-Yol;Seo, Dae-Wha
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.04a
    • /
    • pp.243-246
    • /
    • 2001
  • 과도한 파일 입출력이 요구되는 병렬파일 시스템의 성능을 결정하는 중요한 요소로서 캐슁과 선반입을 들 수 있다. 본 논문은 캐쉬의 크기에 비해 상대적으로 근 파일을 요청하는 경우에 시스템 성능에 막대한 영향을 미치는 선반입에 대해서 선반입할 데이터를 결정하는 알고리즘으로 테이블 비교법을 제안하고, 이와 더불어 예측된 데이터의 선반입 여부와 선반입 시기를 결정하는 경우 현재의 가용 입출력 대역폭을 고려하는 기법을 제안한다. 제안하는 선반입 알고리즘은 실제 병렬파일시스템에 구현되었으며, 파일시스템 성능향상에 크게 기여하였다.

  • PDF

Prefetching Policy based on File Acess Pattern and Cache Area (파일 접근 패턴과 캐쉬 영역을 고려한 선반입 기법)

  • Lim, Jae-Deok;Hwang-Bo, Jun-Hyeong;Koh, Kwang-Sik;Seo, Dae-Hwa
    • The KIPS Transactions:PartA
    • /
    • v.8A no.4
    • /
    • pp.447-454
    • /
    • 2001
  • Various caching and prefetching algorithms have been investigated to identify and effective method for improving the performance of I/O devices. A prefetching algorithm decreases the processing time of a system by reducing the number of disk accesses when an I/O is needed. This paper proposes an AMBA prefetching method that is an extended version of the OBA prefetching method. The AMBA prefetching method will prefetching blocks continuously as long as disk bandwidth is enough. In this method, though there were excessive data request rate, we would expect efficient prefetching. And in the AMBA prefetching method, to prevent the cache pollution, it limits the number of data blocks to be prefetched within the cache area. It can be implemented in a user-level File System based on a Linux Operating System. In particular, the proposed prefetching policy improves the system performance by about 30∼40% for large files that are accessed sequentially.

  • PDF

A Prefetch Algorithm for a Mobile Host using Association Rules (연관 규칙을 이용한 이동 호스트의 선반입 알고리즘)

  • 김호숙;용환승
    • Journal of KIISE:Databases
    • /
    • v.31 no.2
    • /
    • pp.163-173
    • /
    • 2004
  • Recently, location-based services are becoming very Popular in mobile environments. In this paper, we propose a new association based prefetch algorithm (called by STAP) that efficiently supports information service based on the large quantity of spatial database in mobile environments. We apply the spatial-temporal relations that are meaningful for location-based queries in mobile environments. Moreover, STAP considers user's mobility and the weight of spatial data. The relation of services is a new aspect not considered in previous cache politics. So STAP is the first prefetch algorithm considering the spatial-temporal relations and thus the cache policy begins to gain a new dimension. We evaluate the performance of STAP and prove the efficiency of STAP.

Design and Evaluation of a VOD Buffer Management Algorithm Using Fixed Prefetch and Drop Strategics (고정 선반입과 Drop 정책을 이용한 VOD 버퍼 관리 알고리즘 설계 및 평가)

  • 박규석;문병철
    • Journal of Korea Multimedia Society
    • /
    • v.3 no.2
    • /
    • pp.101-111
    • /
    • 2000
  • Resource managing is very difficult because the multimedia data compressed by a VBR shows a bit rate change within high range, Therefore, the VOD server should use the prefetch method in order to improve system utilization, such as prefetching data in the overload period by a meta table that is the reference pattern of MPEG data which is analyzed off line. This prefetch method will not result in a failure to display at overload, however, this method can not keep a minimum loading time and low costs, because the prefetched section is being maximizes. In this paper, we suggest another method that the system utilization can be improved using the fixed prefetched section to keep loading time and costs under a constant range at overload. But this technique will result in a failure to display, due to fixed prefetched section. Rut, in this paper we suggest a drop module that drops only the B frame in the GOP, consistently distributes a lower drop in media quality for the user.

  • PDF

A Study of Web Cashing & World Wide Web (웹 상에서의 캐싱기법에 관한 연구)

  • Na, Jong-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.11a
    • /
    • pp.191-194
    • /
    • 2006
  • 정보 공유를 위한 거대한 정보 시스템인 월드 와이드 웹의 폭발적인 증가는 기존 네트워크의 트래픽을 유발시키고 서버의 부하를 가져오는 가장 큰 원이니 되고 있다. 많은 요청으로 인하여 원활한 서비스를 제공하기 어렵고, 또한 만족할만한 응답시간을 보장받지 못하고 있다. 이러한 병목현상의 해결방안으로 주목받고 있는 것이 웹 캐시이다. 본 논문에서는 웹 캐싱기법의 기본적인 기술 측면과 다양한 캐싱기법들을 분석해 보고, 보다 효율적인 캐시 시스템을 구현하기 위한 캐시 시스템을 제안한다. 동일한 네티워크 내에서 일정 수준 이상의 접속 회수를 보여주는 웹 객체를 우선적으로 선반입 하는 사용자 액세스 패턴을 이용한 캐시 시스템을 구현하여 본다. 또한 동일한 네트워크 내에서 일반적인 캐싱 알고리즘을 채용한 캐시와 실험 결과를 비교하여 평가한다.

  • PDF

Design of Network Storage for IPTV Set-Top-Box PVR (IPTV Set-Top-Box PVR을 위한 네트워크 스토리지 설계)

  • Choi, Jae-Hyun;Nam, Young-Jin;Lee, Chul-ho;Park, Jacky
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.04a
    • /
    • pp.684-687
    • /
    • 2009
  • 본 논문에서는 iSCSI 기반 IP 스토리지를 이용하여 IPTV Set-Top-Box에서 PVR 재생 및 저장에 적합한 네트워크 스토리지 구조를 제안한다. 제안된 네트워크 스토리지는 멀티미디어 재생 성능 향상 및 효율적인 데이터 관리를 위하여 Content-aware 선반입, 스토리지 형상 관리 기법을 제안하고 DES 알고리즘을 기반으로 사용자인증이 가능 하도록 설계하였다. 제안된 네트워크 스토리지를 SMP8634기반 임베디드 보드에서 리눅스 2.6.15, 100Mbps Ethernet 환경에서 성능을 평가한 결과 HD급 영상을 충분히 재생할 수 있음을 확인하였다.

An Efficient Buffer Cache Management Scheme for Heterogeneous Storage Environments (이기종 저장 장치 환경을 위한 버퍼 캐시 관리 기법)

  • Lee, Se-Hwan;Koh, Kern;Bahn, Hyo-Kyung
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.37 no.5
    • /
    • pp.285-291
    • /
    • 2010
  • Flash memory has many good features such as small size, shock-resistance, and low power consumption, but the cost of flash memory is still high to substitute for hard disk entirely. Recently, some mobile devices, such as laptops, attempt to use both flash memory and hard disk together for taking advantages of merits of them. However, existing OSs (Operating Systems) are not optimized to use the heterogeneous storage media. This paper presents a new buffer cache management scheme. First, we allocate buffer cache space according to access patterns of block references and the characteristics of storage media. Second, we prefetch data blocks selectively according to the location of them and access patterns of them. Third, we moves destaged data from buffer cache to hard disk or flash memory considering the access patterns of block references. Trace-driven simulation shows that the proposed schemes enhance the buffer cache hit ratio by up to 29.9% and reduce the total I/O elapsed time by up to 49.5%.