• Title/Summary/Keyword: 지연 캐싱

Search Result 63, Processing Time 0.023 seconds

Wireless Caching Techniques Based on Content Popularity for Network Resource Efficiency and Quality of Experience Improvement (네트워크 자원효율 및 QoE 향상을 위한 콘텐츠 인기도 기반 무선 캐싱 기술)

  • Kim, Geun-Uk;Hong, Jun-Pyo
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.21 no.8
    • /
    • pp.1498-1507
    • /
    • 2017
  • According to recent report, global mobile data traffic is expected to increase by 11 times from 2016 to 2020. Moreover, this growth is expected to be driven mainly by mobile video traffic which is expected to account for about 70% of the total mobile data traffic. To cope with enormous mobile traffic, we need to understand video traffic's characteristic. Recently, the repetitive requests of some popular content such as popular YouTube videos cause a enormous network traffic overheads. If we constitute a network with the nodes capable of content caching based on the content popularity, we can reduce the network overheads by using the cached content for every request. Through device-to-device, multicast, and helpers, the video throughput can improve about 1.5~2 times and prefix caching reduces the playback delay by about 0.2~0.5 times than the conventional method. In this paper, we introduce some recent work on content popularity-based caching techniques in wireless networks.

An Integrated Prefetching/Caching Scheme for P2P Live Streaming (P2P 라이브 스트리밍 시스템을 위한 프리패칭/캐싱 통합 기법)

  • Kim, Taeyoung;Kim, Eunsam
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.14 no.1
    • /
    • pp.69-76
    • /
    • 2014
  • In this paper, we propose a buffering scheme to improve the performance in P2P live streaming systems by adjusting the ratio of caching and prefetching portion of each peer. To this end, we assign all the peers into many groups depending on their playback periods. We then determine the ratio of caching and prefetching portion in each peer depending on its playback time position relative to those of other peers within the same group. In other words, as the playback position of a peer gets later, we increase the ratio of its caching portion. On the contrary, as the playback position of a peer gets eariler, we increase the ratio of its prefetching portion. This can significantly increase the degree of data duplication among peers that belong to each specific group. By simulation experiments, we show that our proposed an integrated prefetching/caching scheme can improve the performance considerably in terms of jitter ratio, initial playback delay and shared buffermap ratio when compared to the existing fixed portion buffering scheme.

Proxy Caching Grouping by Partition and Mapping for Distributed Multimedia Streaming Service (분산 멀티미디어 스트리밍 서비스를 위한 분할과 사상에 의한 프록시 캐싱 그룹화)

  • Lee, Chong-Deuk
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.19 no.1
    • /
    • pp.40-47
    • /
    • 2009
  • Recently, dynamic proxy caching has been proposed on the distributed environment so that media objects by user's requests can be served directly from the proxy without contacting the server. However, it makes caching challenging due to multimedia large sizes, low latency and continuous streaming demands of media objects. To solve the problems caused by streaming demands of media objects, this paper has been proposed the grouping scheme with fuzzy filtering based on partition and mapping. For partition and mapping, this paper divides media block segments into fixed partition reference block(R$_f$P) and variable partition reference block(R$_v$P). For semantic relationship, it makes fuzzy relationship to performs according to the fixed partition temporal synchronization(T$_f$) and variable partition temporal synchronization(T$_v$). Simulation results show that the proposed scheme makes streaming service efficiently with a high average request response time rate and cache hit rate and with a low delayed startup ratio compared with other schemes.

Design of Caching Scheme for Mobile Underground Geospatial Information Map System (모바일용 지하공간정보지도 관리 시스템에서 응답속도 향상을 위한 캐싱 기법)

  • Kim, Yong-Tae;Kouh, Hoon-Joon
    • Journal of Convergence for Information Technology
    • /
    • v.12 no.1
    • /
    • pp.7-14
    • /
    • 2022
  • Unlike general maps, the underground geospatial Information is a system made to view underground information in a 3D shape. This system is managed by a tile maps to lighten the data. But there are various underground structures in the basement, and the structures are made of 3D data, so the data size is large. Therefore, when a client mobile program requests a tile map, the service server fetches the requested tile map from the DB server and transmits ti to the client, but there is a transmission delay time problem. In this paper, we design the tile cache method to improve the request response speed for the tile map data provided to the client in the mobile underground geospatial information system. We propose a method in which a service server predicts and prefetchs the next tile map while the client is viewing tile map, and stores the prefetching data in the memory of client mobile terminal. Then, the transmission delay time problem can be solved.

SSD Cache for RAID: Integrating Data Caching and Parity Update Delay (RAID를 위한 SSD 캐시: 데이터 캐싱과 패리티 갱신 지연 기법의 결합)

  • Minh, Sophal;Lee, Donghee
    • KIISE Transactions on Computing Practices
    • /
    • v.23 no.6
    • /
    • pp.379-385
    • /
    • 2017
  • In enterprise environments, hybrid storage typically utilizes SSDs over disk-based RAID. Typically, SSDs over RAID are used as the data cache. Recently, the LeavO caching scheme was introduced to reduce the parity update overhead of the underlying RAID. In this paper, we combine the data caching and LeavO caching schemes and derive cost models of the combined cache to determine the optimal data and LeavO cache sizes. We also propose the Adaptive Combined Cache that dynamically adjusts the data cache and LeavO cache sizes for evolving workloads. Experimental results show that the performance of the Adaptive Combined Cache is significantly superior to that of the conventional data caching scheme and is comparable with that of the off-line optimal scheme.

Distributed In-Memory Caching Method for ML Workload in Kubernetes (쿠버네티스에서 ML 워크로드를 위한 분산 인-메모리 캐싱 방법)

  • Dong-Hyeon Youn;Seokil Song
    • Journal of Platform Technology
    • /
    • v.11 no.4
    • /
    • pp.71-79
    • /
    • 2023
  • In this paper, we analyze the characteristics of machine learning workloads and, based on them, propose a distributed in-memory caching technique to improve the performance of machine learning workloads. The core of machine learning workload is model training, and model training is a computationally intensive task. Performing machine learning workloads in a Kubernetes-based cloud environment in which the computing framework and storage are separated can effectively allocate resources, but delays can occur because IO must be performed through network communication. In this paper, we propose a distributed in-memory caching technique to improve the performance of machine learning workloads performed in such an environment. In particular, we propose a new method of precaching data required for machine learning workloads into the distributed in-memory cache by considering Kubflow pipelines, a Kubernetes-based machine learning pipeline management tool.

  • PDF

A Scalable Cache Group Configuration Policy using Role-Partitioned Cache (캐쉬의 역할 구분을 이용한 확장성이 있는 캐쉬 그룹 구성 정책)

  • 현진일;민준식
    • The Journal of the Korea Contents Association
    • /
    • v.3 no.3
    • /
    • pp.63-73
    • /
    • 2003
  • Today, in exponential growth of internet, the importance of file caching which could reduce the sun load, the volume of network traffic, and the latency of response has emerged. Actually, in one network, the traffic has reduced by using the cache and this means that file caching can improve the internet environment by cost a fraction of link upgrades. In this paper, we address a dynamic cache group configuration policy, to solve the scalable problem. The simulation result shows that the cache group using our proposal policy reduces the latency of response time and it means that out cache group configuration is more scalable than the static cache configuration.

  • PDF

Efficient Caching Technique in iSCSI-based Network (iSCSI 기반 네트워크 환경에서의 효율적인 캐싱 기법)

  • Cho, Kuk-Pyo;Lim, Hyo-Taek
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2003.11b
    • /
    • pp.927-930
    • /
    • 2003
  • iSCSI 기반의 원격 스토리지 시스템에 대한 관심이 증가하면서 이에 대한 연구가 활발히 진행되고 있다. IP 네트워크를 사용하여 통신하는 iSCSI 는 기존의 IP 네트워크의 많은 문제점을 가지고 있다. IP 네트워크를 사용하는 웹 역시 많은 문제점을 가지고 있으며 이를 해결하기 위해 프락시라는 메커니즘을 사용하였다. 효율적인 네트워크 대역폭 사용을 위해 설계된 프록시는 응답속도를 줄이는데 가장 효과적으로 많이 채택되었다. 그러나, 캐시에 저장된 데이터를 사용자에게 제공하기 때문에 이미 캐시되어진 자료가 웹 서버의 최신 자료와 다를 가능성이 있으며 또한 캐시되어진 데이터에 대한 유효성을 검사하기 때문에 추가의 지연시간이 발생하게 된다. 본 논문에서는 iSCSI 기반의 네트워크에서 캐시되어진 데이터에 대한 유효성 검사 없이 항상 fresh 한 상태의 캐시 데이터를 사용자에게 제공할 수 있는 캐싱 기법에 대한 내용과 이것을 적용한 캐시 스토리지 시스템 설계 및 기존의 원격 스토리지 시스템과의 성능을 비교 분석한 내용을 기술한다.

  • PDF

A Design and Implementation of Proxy Server for Live-Video Stream Transmission (생방송 비디오 스트림 전송을 위한 프록시 서버의 설계와 구현)

  • 김현민;낭종호
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04b
    • /
    • pp.529-531
    • /
    • 2002
  • 생방송 비디오 프록시는 사용자에게 최신의 비디오 데이터를 전송해야 한다. 그러나 큰 파일을 나누어 미리 캐싱하는 기존의 방법으로는 최신의 데이터를 보여줘야 하는 생방송 VOD의 제약을 만족시킬 수 없다. 본 논문에서는 생방송 비디오 스트림을 대상으로 효과적으로 캐싱할 수 있도록 클라이언트의 요청을 받는 큐와, 생방송 비디오 데이터를 저장하는 버퍼풀을 구성하였고, 이들이 제대로 동작하기 위한 동기화 과정을 설계하였다. 이 구조의 특징은 프록시가 클라이언트들의 요청을 일정시간 동안 모아서, 미디어 서버에게 한번만 요청한다는 데에 있다 미디어 서버는 프록시에게만 요청을 받고 데이터를 전달하게 되며, 모든 부하는 프록시 쪽으로 옮겨간다 결국 프록시 서버의 개수를 늘리거나 성능을 확장하면 서비스 가능한 클라이언트의 수를 확장시진 수 있는, 이른바 확장성의 개선을 기대할 수 있다. 실제로 구현해본 절과 지연시간 개선, 확장성 효과 등 프록시로서 만족할 만한 성능이 나옴을 확인하였다. 비연속적인 비디오 데이터를 대상으로 한 본 논문은, 오디오와 같이 연속적인 성질의 데이터에 대한 처리를 보강한다면 수요가 늘고있는 생방송 VOD서비스에 대비한 프록시 개발에 도움을 줄 것이다.

  • PDF

Efficient Caching Technique for Replacement of Execution Code on Active Network Environment (액티브 네트워크 환경에서 실행 코드 교체를 위한 효율적인 캐싱 기법)

  • 조정희;김동혁;장창복;조성훈;최의인
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2004.05a
    • /
    • pp.438-441
    • /
    • 2004
  • 인터넷의 급속한 발전과 컴퓨터 성능의 발달로 많은 사용자들은 네트워크를 통해 정보를 획득하고 이용하고 있다. 이에 따라 사용자의 요구도 빠르게 증가하고 있으며, 이러한 사용자 요구를 해결하기 위해 액티브 네트워크와 같은 기술들이 활발하게 연구되고 있다. 액티브 네트워크란 라우터나 스위치가 프로그램 실행 능력을 가지고 있어서 프로그램을 포함하고 있거나 중간 노드의 프로그램을 실행하도록 하는 패킷을 다양하고 유동적으로 처리할 수 있는 환경을 말한다. 이러한 액티브 네트워크의 중간 노드(Active Node)는 단순한 패킷 전달(forwarding) 기능 이외에 사용자의 실행 코드를 저장하고, 처리할 수 있는 기능을 가지고 있다. 따라서 액티브 노드에서 패킷을 실행하기 위해서는 각 패킷을 처리하는데 필요한 실행 코드가 요구되고, 이러한 실행 코드는 이전의 액티브 노드나 코드 서버에 요청함으로써 얻을 수 있다. 하지만 이러한 실행 코드를 이전 액티브 노드나 코드 서버에서 가져오게 되면 실행코드가 전달될 때까지의 시간지연이 발생하므로 사용되었던 실행 코드를 액티브 노드의 캐시에 저장하여 코드의 실행 속도를 증가 시킬 필요가 있다. 따라서 본 논문에서는 액티브 노드 상에 실행 코드를 효율적으로 캐시 함으로써 실행코드 요청의 횟수를 줄이고 패킷 처리 속도를 향상시킬 수 있는 캐싱 기법을 제안하였다.

  • PDF