• 제목/요약/키워드: caching performance

검색결과 279건 처리시간 0.032초

Community Model for Smart TV over the Top Services

  • Pandey, Suman;Won, Young Joon;Choi, Mi-Jung;Gil, Joon-Min
    • Journal of Information Processing Systems
    • /
    • 제12권4호
    • /
    • pp.577-590
    • /
    • 2016
  • We studied the current state-of-the-art of Smart TV, the challenges and the drawbacks. Mainly we discussed the lack of end-to-end solution. We then illustrated the differences between Smart TV and IPTV from network service provider point of view. Unlike IPTV, viewer of Smart TV's over-the-top (OTT) services could be global, such as foreign nationals in a country or viewers having special viewing preferences. Those viewers are sparsely distributed. The existing TV service deployment models over Internet are not suitable for such viewers as they are based on content popularity, hence we propose a community based service deployment methodology with proactive content caching on rendezvous points (RPs). In our proposal, RPs are intermediate nodes responsible for caching routing and decision making. The viewer's community formation is based on geographical locations and similarity of their interests. The idea of using context information to do proactive caching is itself not new, but we combined this with "in network caching" mechanism of content centric network (CCN) architecture. We gauge the performance improvement achieved by a community model. The result shows that when the total numbers of requests are same; our model can have significantly better performance, especially for sparsely distributed communities.

쿠버네티스에서 ML 워크로드를 위한 분산 인-메모리 캐싱 방법 (Distributed In-Memory Caching Method for ML Workload in Kubernetes)

  • 윤동현;송석일
    • Journal of Platform Technology
    • /
    • 제11권4호
    • /
    • pp.71-79
    • /
    • 2023
  • 이 논문에서는 기계학습 워크로드의 특징을 분석하고 이를 기반으로 기계학습 워크로드의 성능 향상을 위한 분산 인-메모리 캐싱 기법을 제안한다. 기계학습 워크로드의 핵심은 모델 학습이며 모델 학습은 컴퓨팅 집약적 (Computation Intensive)인 작업이다. 쿠버네티스 기반 클라우드 환경에서 컴퓨팅 프레임워크와 스토리지를 분리한 구조에서 기계학습 워크로드를 수행하는 것은 자원을 효과적으로 할당할 수 있지만, 네트워크 통신을 통해 IO가 수행되야 하므로 지연이 발생할 수 있다. 이 논문에서는 이런 환경에서 수행되는 머신러닝 워크로드의 성능을 향상하기 위한 분산 인-메모리 캐싱 기법을 제안한다. 특히, 제안하는 방법은 쿠버네티스 기반의 머신러닝 파이프라인 관리 도구인 쿠브플로우를 고려하여 머신러닝 워크로드에 필요한 데이터를 분산 인-메모리 캐시에 미리 로드하는 새로운 방법을 제안한다.

  • PDF

A Caching Scheme to Support Session Locality in Hierarchical SIP Networks

  • 최광희;김현우
    • 한국산업정보학회논문지
    • /
    • 제18권1호
    • /
    • pp.1-9
    • /
    • 2013
  • Most calls of a called user are invoked by the group of calling users. This call pattern is defined as call locality. Similarly Internet sessions including IP telephony calls have this pattern. We define it session locality. In this paper, we propose a caching scheme to support session locality in hierarchical SIP networks. The proposed scheme can be applied easily by adding only one filed to cache to a data structure of the SIP mobility agent. And this scheme can reduce signaling cost, database access cost and session setup delay to locate a called user. Moreover, it distributes the load on the home registrar to the SIP mobility agents. Our performance evaluation shows the proposed caching scheme outperforms the hierarchical SIP scheme when session to mobility ratio is high.

인터넷 상에서 비디오 스트림을 위한 효과적인 캐슁기법 (A efficient caching scheme of Continuous stream service on the internet)

  • 김종경;남현우
    • 한국컴퓨터산업학회논문지
    • /
    • 제4권12호
    • /
    • pp.1083-1092
    • /
    • 2003
  • 본 논문에서는 인터넷 상에서 비디오 스트림을 서비스할 때 인기도에 기반으로하는 서비스 지연시간을 최소화하는 방법을 제안하였다. 접근 빈도와 각 서버들의 총 캐슁공간의 상관관계를 고려하여 제안한 알고리즘의 성능을 측정한 결과는 에이전트 캐슁방법보다는 서비스 지연에 대한 캐쉬 활용율이 15%의 향상 그리고 인터벌 캐슁보다는 3배의 정도의 성능 향상을 보여주었다.

  • PDF

Cache-Filter: A Cache Permission Policy for Information-Centric Networking

  • Feng, Bohao;Zhou, Huachun;Zhang, Mingchuan;Zhang, Hongke
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권12호
    • /
    • pp.4912-4933
    • /
    • 2015
  • Information Centric Networking (ICN) has recently attracted great attention. It names the content decoupling from the location and introduces network caching, making the content to be cached anywhere within the network. The benefits of such design are obvious, however, many challenges still need to be solved. Among them, the local caching policy is widely discussed and it can be further divided into two parts, namely the cache permission policy and the cache replacement policy. The former is used to decide whether an incoming content should be cached while the latter is used to evict a cached content if required. The Internet is a user-oriented network and popular contents always have much more requests than unpopular ones. Caching such popular contents closer to the user's location can improve the network performance, and consequently, the local caching policy is required to identify popular contents. However, considering the line speed requirement of ICN routers, the local caching policy whose complexity is larger than O(1) cannot be applied. In terms of the replacement policy, Least Recently Used (LRU) is selected as the default one for ICN because of its low complexity, although its ability to identify the popular content is poor. Hence, the identification of popular contents should be completed by the cache permission policy. In this paper, a cache permission policy called Cache-Filter, whose complexity is O(1), is proposed, aiming to store popular contents closer to users. Cache-Filter takes the content popularity into account and achieves the goal through the collaboration of on-path nodes. Extensive simulations are conducted to evaluate the performance of Cache-Filter. Leave Copy Down (LCD), Move Copy Down (MCD), Betw, ProbCache, ProbCache+, Prob(p) and Probabilistic Caching with Secondary List (PCSL) are also implemented for comparison. The results show that Cache-Filter performs well. For example, in terms of the distance to access to contents, compared with Leave Copy Everywhere (LCE) used by Named Data Networking (NDN) as the permission policy, Cache-Filter saves over 17% number of hops.

Hierarchical Location Caching Scheme for Mobile Object Tracking in the Internet of Things

  • Han, Youn-Hee;Lim, Hyun-Kyo;Gil, Joon-Min
    • Journal of Information Processing Systems
    • /
    • 제13권5호
    • /
    • pp.1410-1429
    • /
    • 2017
  • Mobility arises naturally in the Internet of Things networks, since the location of mobile objects, e.g., mobile agents, mobile software, mobile things, or users with wireless hardware, changes as they move. Tracking their current location is essential to mobile computing. To overcome the scalability problem, hierarchical architectures of location databases have been proposed. When location updates and lookups for mobile objects are localized, these architectures become effective. However, the network signaling costs and the execution number of database operations increase particularly when the scale of the architectures and the numbers of databases becomes large to accommodate a great number of objects. This disadvantage can be alleviated by a location caching scheme which exploits the spatial and temporal locality in location lookup. In this paper, we propose a hierarchical location caching scheme, which acclimates the existing location caching scheme to a hierarchical architecture of location databases. The performance analysis indicates that the adjustment of such thresholds has an impact on cost reduction in the proposed scheme.

PON기반 5G 프론트홀의 캐싱 성능 평가 (Performance Evaluation of Caching in PON-based 5G Fronthaul)

  • 정복래
    • 융합정보논문지
    • /
    • 제10권1호
    • /
    • pp.22-27
    • /
    • 2020
  • 5G 인프라 보급과 더불어 기하급수적으로 증가하는 1인 미디어 방송, 유튜브와 같은 모바일 콘텐츠 서비스를 안정적으로 제공하기 위해서는 사용자 부근에 캐시 서버를 분산 배치하는 콘텐츠 전송 네트워크(CDN:Content Delivery Network) 도입이 필수적이다. 지역 캐시 없이 사용자가 콘텐츠 사업자(Content Provider)로부터 직접 서비스를 받는 트래픽이 늘어날수록 모바일 백홀(Backhaul)과 프론트홀(Fronthaul)에서 감당해야 할 부담은 상당히 증가하게 된다. 본 연구는 광기반 5G 프론트홀 구조와 캐싱 방법을 제안하여 모바일 백홀의 대역폭 및 서비스 품질을 개선하는 데 목적이 있다. 이를 위해 우선 전용 광케이블을 프론트홀로 사용하는 콘텐츠 전송 네트워크와 수동광가입자망(PON:Passive Optical Network)을 사용하는 구조를 제안한다. 그 위에 PON 캐싱에 특화된 집화된 콘텐츠 요청 방법을 제안하고 모델링과 시뮬레이션을 통해 그 성능을 기존의 방식과 비교한다. 제안된 PON 캐싱은 기존 캐싱이 없는 구조에 비해 최대 0.5초의 평균접근시간 감소, 1/n개의 수신된 요청 패킷 감소, 약 60% 백홀 대역폭 절감 효과를 나타냈다. 이 연구는 모바일 백홀 비용과 서비스 품질 사이에서 고민하는 통신사업자들에게 하나의 참고 자료가 될 수 있으며, 추후 캐시 적중률을 더욱 끌어올리는 방안으로 확장될 것이다.

Forecasting Load Balancing Method by Prediction Hot Spots in the Shared Web Caching System

  • Jung, Sung-C.;Chong, Kil-T.
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.2137-2142
    • /
    • 2003
  • One of the important performance metrics of the World Wide Web is how fast and precise a request from users will be serviced successfully. Shared Web Caching (SWC) is one of the techniques to improve the performance of the network system. In Shared Web Caching Systems, the key issue is on deciding when and where an item is cached, and also how to transfer the correct and reliable information to the users quickly. Such SWC distributes the items to the proxies which have sufficient capacity such as the processing time and the cache sizes. In this study, the Hot Spot Prediction Algorithm (HSPA) has been suggested to improve the consistent hashing algorithm in the point of the load balancing, hit rate with a shorter response time. This method predicts the popular hot spots using a prediction model. The hot spots have been patched to the proper proxies according to the load-balancing algorithm. Also a simulator is developed to utilize the suggested algorithm using PERL language. The computer simulation result proves the performance of the suggested algorithm. The suggested algorithm is tested using the consistent hashing in the point of the load balancing and the hit rate.

  • PDF

가상화 환경에서 저널링 기법에 의한 입출력 성능저하 분석 및 개선 (Analysis and Improvement of I/O Performance Degradation by Journaling in a Virtualized Environment)

  • 김성환;이은지
    • 한국인터넷방송통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.177-181
    • /
    • 2016
  • 본 논문에서는 저널링을 사용하는 전가상화 시스템에서 호스트 캐시의 효율을 높이기 위한 기법을 제안한다. 게스트의 저널링 데이터는 쓰기를 위해 호스트 캐시에 한번만 접근되는 패턴과 빈번한 sync 명령으로 인해 캐시의 효율을 감소시킨다. 이러한 성능 감소를 줄이기 위하여 본 논문에서는 게스트의 저널링 데이터가 호스트 캐시에 접근하는 것을 막는 PDC라는 기법을 제안한다. PDC는 Linux 4.14 버전에서 QEMU-KVM 2.1 버전을 기반으로 구현하였으며, 다양한 워크로드에서 3-32%의 성능 향상을 보였다.

웹 객체 크기 이질성 기반의 웹 캐시 대체 기법의 설계와 성능 평가 (A Design and Performance Analysis of Web Cache Replacement Policy Based on the Size Heterogeneity of the Web Object)

  • 나윤지;고일석;조동욱
    • 정보처리학회논문지C
    • /
    • 제12C권3호
    • /
    • pp.443-448
    • /
    • 2005
  • 웹 캐시의 효율적인 사용은 웹기반 시스템의 효율성을 판단하는 중요한 척도가 되고 있다. 캐시의 성능은 한정된 공간에서 객체를 동적으로 관리하는 대체 알고리즘에 크게 영향을 받는다. 본 연구에서는 웹기반 시스템의 효율을 높이기 위한 웹 캐싱 알고리즘을 제안한다. 제안 알고리즘은 분할 영역에 대해 웹 객체의 크기 참조 특성과 이질성을 고려하도록 설계되었다. 또한 실험 환경에서 제안 알고리즘이 기존의 대체 알고리즘을 비교하여, $15\%$ 이상 성능이 향상되었음을 확인하였다.