• 제목/요약/키워드: %Byte-Hit

검색결과 18건 처리시간 0.015초

무선이동통신망에서 스트리밍 서비스를 위한 프락시 기반Qos 보장 방안 (A Proxy based QoS Provisioning Mechanism for Streaming Service in Wireless Networks)

  • 김용술;홍정표;김화성;유지상;김동욱
    • 한국통신학회논문지
    • /
    • 제31권7B호
    • /
    • pp.608-618
    • /
    • 2006
  • 멀티미디어 스트리밍 서비스의 증가는 인터넷 콘텐츠의 새로운 국면으로 나타나고 있다. 특히, 무선이동통신망에서 증가하는 멀티미디어 응용에 대한 QoS 제공은 무엇보다 중요하다. 서비스 제공자는 클라이언트 가까이에 있는 프락시에서 자주 억세스되어지는 멀티미디어 스트림의 초기 세그먼트를 캐슁함으로써 성능을 향상 시킬 수 있다. 프락시는 서버로부터 스트림의 나머지 부분을 요구함과 동시에 클라이언트에 전송을 시작할 수 있다. 본 논문에서는 IETF의 RTSP 환경에서 프리픽스 캐슁 서비스를 무선망에 적용시키고, 무선 상황이나 핸드오프 시에 네트 워크 상황에 적응적으로 대응하고 단절현상을 줄일 수 있는 효과적인 RTSP 핸들링 기법을 제안 한다. 또한 캐슁 프락시의 성능을 향상시키기 위해 트래픽 기반 캐슁 기법(TSLRU)을 제안한다, TSLRU는 트래픽을 세 종류로 분류하여 캐슁하며, 교체 대상 결정시 여러 요소(traffic types, recency, frequency, object size)를 반영함으로써 캐슁 프락시의 성능을 향상 시킨다. 모의실험에서 캐슁 알고리즘은 byte hit Rate와 startup latency에서 높은 성능을 보였으며, 제안한 RTSP 핸들링 기법 역시 throughput에서 좋은 성능을 보였다.

캐쉬 메모리가 버스 트래픽에 끼치는 영향 (The Effects of Cache Memory on the System Bus Traffic)

  • 조용훈;김정선
    • 한국통신학회논문지
    • /
    • 제21권1호
    • /
    • pp.224-240
    • /
    • 1996
  • It is common sense for at least one or more levels of cache memory to be used in these day's computer systems. In this paper, the impact of the internal cache memory organization on the performance of the computer is investigated by using a simulator program, which is wirtten by authors and run on SUN SPARC workstation, with several real execution, with several real execution trace files. 280 cache organizations have been simulated using n-way set associative mapping and LRU(Least Recently Used) replacement algorithm with write allocation policy. As a result, 16-way setassociative cache is the best configuration, and when we select 256KB cache memory and 64 byte line size, the bus traffic ratio was decreased compared to that of the noncache system so that a single bus could support almost 7 processors without any delay and degradationof high ratio(hit ratio was 99.21%). The smaller the line size we choose, the little lower hit ratio we can get, but the more processors can be supported by a single bus(maximum 18 processors). Therefore, using a proper cache memory organization can make a single bus structure be able to support multiple processors without any performance degradation.

  • PDF

스트리밍 캐쉬 서버를 위한 가중치 윈도우 기반의 캐쉬 교체 정책 (A Weighted-window based Cache Replacement Policy for Streaming Cache Server)

  • 오재학;차호정;박병준
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권10호
    • /
    • pp.556-568
    • /
    • 2003
  • 본 논문에서는 스트리밍 미디어 캐슁 서버의 효율적인 캐슁을 위하여 가중치 윈도우에 기반한 캐쉬 교체 정책을 제시하고 성능을 분석한다. 제안된 캐쉬 교체 정책은 참조 횟수, 참조량, 참조 시간 등의 정량적인 인자들과 사용자 요구 주기를 적용하여 기존 캐쉬 교체 정책과 차등화된 개념을 도입하였으며, 최근 참조 경향에 높은 가중치를 부여함으로써 변화하는 콘텐츠 선호 경향에 빠르게 적응하는 구조를 제시하였다. 교체 정책 성능 분석은 시뮬레이션 환경 구축을 통해 실험하였으며 기존의 캐쉬 교체 정책인 LRU, LFU와 SEG보다 참조 적중률, 참조량 적중률, 시작 지연률과 반입량에서 향상된 결과를 보였다.

Degraded Quality Service Policy with Bitrate based Segmentation in a Transcoding Proxy

  • Lee, Jung-Hwa;Park, Yoo-Hyun
    • Journal of information and communication convergence engineering
    • /
    • 제8권3호
    • /
    • pp.245-250
    • /
    • 2010
  • To support various bandwidth requirements for many kinds of devices such as PC, notebook, PDA, cellular phone, a transcoding proxy is usually necessary to provide not only adapting multimedia streams to the client by transcoding, but also caching them for later use. Due to huge size of streaming media, we proposed the 3 kinds of segmentation - PT-2, uniform, bitrate-based segmentation. And to reduce the CPU cost of transcoding video, we proposed the DQS service policy. In this paper, we simulate the combined our previous two researches that are bitrate-based segmentation and DQS(Degraded Quality Service) policy. Experimental results show that the combined policy outperforms companion schemes in terms of the byte-hit ratios and delay saving ratios.

모바일 컴퓨팅 환경에서 데이터의 중요도에 기반한 캐시 교체와 일관성 유지 (Cache Replacement and Coherence Policies Depending on Data Significance in Mobile Computing Environments)

  • 김삼근;김형호;안재근
    • 한국통신학회논문지
    • /
    • 제36권2A호
    • /
    • pp.149-159
    • /
    • 2011
  • 최근 모바일 컴퓨팅 환경은 사회 전반으로 보편화가 진행되고 있다. 이러한 경향은 모바일 플랫폼 상에서 무선 네트워트를 통한 유선 네트워크 상의 데이터베이스 시스템의 접근 필요성을 부각시킨다. 그러나 모바일 컴퓨팅 환경은 전통적인 컴퓨팅 환경과는 본질적으로 다른 특성으로 인하여 데이터베이스 접근 방식을 그대로 적용하기 어렵다. 이 논문은 새로운 에이전트 기반 모바일 데이터베이스 접근 모델을 제시하고, 데이터 비축을 위한 캐시 교체와 일관성 유지 과정에서 대상 데이터를 선정하는 두 가지 데이터 중요도 함수를 제안한다. 이 함수들은 데이터의 접근 기간, 접근 빈도, 접근 경향, 갱신 빈도, 갱신 경향, 데이터 크기 분포 등을 종합적으로 반영한다. 모의실험에 의하면, 제안하는 함수를 사용한 정책은 LRU 정책, LIX 정책, SAIU 정책에 비하여 접근 지연 시간 감소, 캐시 바이트 적중률 향상, 캐시 바이트 오염률 감소 측면에서 경쟁력이 있음을 보인다.

인테넷상에서 NOD 서비스를 위한 연속미디어 전송 및 푸쉬-캐싱 기법 (A Push-Caching and a Transmission Scheme of Continuous Media for NOD Service on the Internet)

  • 박성호;임은지;최태욱;정기동
    • 한국정보처리학회논문지
    • /
    • 제7권6호
    • /
    • pp.1766-1777
    • /
    • 2000
  • In multimedia new service on the internet, there are problems such as server overload, network congestion and initial latency. To overcome these problems, we propose a proxy push-caching scheme that stores a portion of continuous media stream or entire stream, and a transmission scheme of NOD continuous media, RTP-RR and RTP-nR to exploit push-caching scheme. With the proposed push-caching scheme, NOD server pushes fixed portion of stream to a proxy when new data is generated, and the cached size of each stream changes dynamically according to the caching utility value of each stream. As a result, the initial latency of client side could be reduced and the amount of data transmitted fro ma proxy server to client could be increased. Moreover, we estimate a caching utility value of each stream using correlation between disk space occupied by the stream and the amount of data stream requested by client. And we applied the caching utility value ot replacement policies. The performance of the proxy push-caching and continuous media transmission schemes proposed were compared with other schemes using simulations. In the simulation, these schemes show better results than other schemes in terms of BHR (Byte Hit Rate), initial latency, the number of replacement and packet loss rate.

  • PDF

Write Back 모드용 FIFO 버퍼 기능을 갖는 비동기식 데이터 캐시 (Design of an Asynchronous Data Cache with FIFO Buffer for Write Back Mode)

  • 박종민;김석만;오명훈;조경록
    • 한국콘텐츠학회논문지
    • /
    • 제10권6호
    • /
    • pp.72-79
    • /
    • 2010
  • 본 논문에서는 32bit 비동기 임베디드 프로세서용 쓰기 버퍼 기능을 갖는 데이터 캐시 구조를 제안하고 성능을 검증하였다. 데이터 캐시는 비동기 시스템에서 메인 메모리 장치와 프로세서 사이의 데이터 처리속도 향상을 목적으로 한다. 제안된 데이터 캐시의 메모리 크기는 8KB, 매핑 방식으로는 4 words(16byte)의 라인 크기를 가지며, 사상 기법으로는 4 way set associative, 교체 알고리즘으로는 pusedo LRU방식을 사용하였으며, 쓰기 정책을 위한 dirty 레지스터와 쓰기 버퍼를 적용시켰다. 설계한 데이터 캐시는 $0.13-{\mu}m$ CMOS공정으로 합성하였으며, MI벤치마크 검증 결과 평균 히트율은 94%이고 처리 속도가 46% 향상되었다.

트랜스코딩 프록시에서 세그먼트 기반 캐쉬 교체 정책 (Segment-based Cache Replacement Policy in Transcoding Proxy)

  • 박유현;김학영;김경석
    • 정보처리학회논문지A
    • /
    • 제15A권1호
    • /
    • pp.53-60
    • /
    • 2008
  • 최근 스트리밍 미디어는 인터넷 상의 많은 트래픽을 유발하고 있다. 기존의 웹을 위한 객체와 마찬가지로 스트리밍 객체 또한 프록시 시스템을 사용하게 되면 여러 이점이 있긴 하지만, 스트리밍 미디어를 캐슁 하는 방법은 기존의 웹을 위한 객체보다 매우 크고 높은 대역폭을 요구하기 때문에 고려해야 할 점이 많다. 또한 많은 종류의 단말들의 다양한 대역폭을 적절히 서비스 하기 위해서 프록시 기능과 트랜스코딩 기능을 함께 할 수 있는 트랜스코딩 프록시가 유용하다. 기존의 프록시는 객체가 프록시 서버에 저장되어 있거나, 그렇지 않은 경우로만 고려되었으나, 트랜스코딩 프록시에서는 같은 객체의 다양한 버전에 대해서 종합적인 효과를 고려하여 최적의 버전 집합을 저장 해야 한다. 또한 최근의 멀티미디어 캐슁 시스템들은 접근 빈도가 높은 앞부분을 캐슁하여 지연 시간을 줄이고 높은 효율을 얻을 수 있도록 하는 방법을 사용한다. 한편 많은 연구에서 멀티미디어 데이터의 효율적인 저장 관리를 위해서 객체를 세그먼트로 나누어 관리하는 방법을 사용하고 있다. 본 논문에서는 부분 캐슁을 사용하는 트랜스코딩 프록시에서 사용자 요청에 따른 후속 작업을 결정하기 위해 4개의 기본 이벤트를 이용하여 9개의 이벤트로 정의한다. 또한 트랜스코딩 프록시 시스템을 위하여 세그먼트 기반의 관리정책을 제안한다. 실험결과는 제안하는 방법이 사용자 지연시간, BHR와 트랜스코딩 데이터의 양이 적음을 보여준다.