• 제목/요약/키워드: Caching Algorithm

검색결과 105건 처리시간 0.03초

A Bankruptcy Game for Optimize Caching Resource Allocation in Small Cell Networks

  • Zhang, Liying;Wang, Gang;Wang, Fuxiang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권5호
    • /
    • pp.2319-2337
    • /
    • 2019
  • In this paper, we study the distributed cooperative caching for Internet content providers in a small cell of heterogeneous network (HetNet). A general framework based on bankruptcy game model is put forth for finding the optimal caching policy. In this framework, the small cell and different content providers are modeled as bankrupt company and players, respectively. By introducing strategic decisions into the bankruptcy game, we propose a caching value assessment algorithm based on analytic hierarchy process in the framework of bankruptcy game theory to optimize the caching strategy and increase cache hit ratio. Our analysis shows that resource utilization can be improved through cooperative sharing while considering content providers' satisfaction. When the cache value is measured by multiple factors, not just popularity, the cache hit rate for user access is also increased. Simulation results show that our approach can improve the cache hit rate while ensuring the fairness of the distribution.

일정한 채널 대역폭상에서 정규화 된 버퍼크기를 이용한 효율적인 선택적 캐슁 알고리즘 (Effective Scalable Caching Algorithm by Minimizing Normalized Buffer Size over Constant-Bit-Rate Channel)

  • 오형래;송황준
    • 한국통신학회논문지
    • /
    • 제30권8B호
    • /
    • pp.535-540
    • /
    • 2005
  • 본 논문에서는 캐슁 용량이 정해져 있는 프락시 서버의 효과적인 스케일러블 캐슁 알고리즘을 제안한다. 압축 효율 향상을 위해 엔트로피 코더를 사용하는 동영상 압축기의 특성과 움직임이 일정하지 않은 동영상 자체의 특성 때문에 동영상 데이터는 VBR(Variable Bit Rate) 성질을 가지고 있다. 이러한 VBR트래픽은 네트워크에 많은 부하를 주며, 네트워크에 부담을 줄이기 위해 CBR(Constant Bit Rate)로 전송하였을 때는 클라이언트에 보다 큰버퍼를 요구하며 또한 응답시간 지연이 발생할 수 있다. . 이러한 문제를 왜결하기 위한 한가지 방법으로 프락시 서버를 이용한 캐슁 방법이 제시되었다. 캐슁 방법을 사용하였을 때 클라이언트에서 요구되는 버퍼크기와 대역폭은 캐슁한 프레임의 크기와 위치에 따라 결정된다. 이러한 사실을 고려하여 정규화된 버퍼크기(Normalized Buffer Size)를 기초로 캐슁할 프레임을 선택함으로써, 효율적으로 버퍼크기와 대역폭을 줄일 수 있는 캐슁 기법을 제안한다. 마지막으로 실험결과에서 본 논문에서 제안한 알고리즘을 사용하였을 때 요구되는 대역폭은 Prefix caching과 거의 같으면서 요구되는 버퍼크기는 SCQ에 비해 10-35\%$ 개선된 것을 보인다.

A Novel Service Migration Method Based on Content Caching and Network Condition Awareness in Ultra-Dense Networks

  • Zhou, Chenjun;Zhu, Xiaorong;Zhu, Hongbo;Zhao, Su
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권6호
    • /
    • pp.2680-2696
    • /
    • 2018
  • The collaborative content caching system is an effective solution developed in recent years to reduce transmission delay and network traffic. In order to decrease the service end-to-end transmission delay for future 5G ultra-dense networks (UDN), this paper proposes a novel service migration method that can guarantee the continuity of service and simultaneously reduce the traffic flow in the network. In this paper, we propose a service migration optimization model that minimizes the cumulative transmission delay within the constraints of quality of service (QoS) guarantee and network condition. Subsequently, we propose an improved firefly algorithm to solve this optimization problem. Simulation results show that compared to traditional collaborative content caching schemes, the proposed algorithm can significantly decrease transmission delay and network traffic flow.

Social-Aware Collaborative Caching Based on User Preferences for D2D Content Sharing

  • Zhang, Can;Wu, Dan;Ao, Liang;Wang, Meng;Cai, Yueming
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권3호
    • /
    • pp.1065-1085
    • /
    • 2020
  • With rapid growth of content demands, device-to-device (D2D) content sharing is exploited to effectively improve the service quality of users. Considering the limited storage space and various content demands of users, caching schemes are significant. However, most of them ignore the influence of the asynchronous content reuse and the selfishness of users. In this work, the user preferences are defined by exploiting the user-oriented content popularity and the current caching situation, and further, we propose the social-aware rate, which comprehensively reflects the achievable contents download rate affected by the social ties, the caching indicators, and the user preferences. Guided by this, we model the collaborative caching problem by making a trade-off between the redundancy of caching contents and the cache hit ratio, with the goal of maximizing the sum of social-aware rate over the constraint of limited storage space. Due to its intractability, it is computationally reduced to the maximization of a monotone submodular function, subject to a matroid constraint. Subsequently, two social-aware collaborative caching algorithms are designed by leveraging the standard and continuous greedy algorithms respectively, which are proved to achieve different approximation ratios in unequal polynomial-time. We present the simulation results to illustrate the performance of our schemes.

Forecasting Load Balancing Method by Prediction Hot Spots in the Shared Web Caching System

  • Jung, Sung-C.;Chong, Kil-T.
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.2137-2142
    • /
    • 2003
  • One of the important performance metrics of the World Wide Web is how fast and precise a request from users will be serviced successfully. Shared Web Caching (SWC) is one of the techniques to improve the performance of the network system. In Shared Web Caching Systems, the key issue is on deciding when and where an item is cached, and also how to transfer the correct and reliable information to the users quickly. Such SWC distributes the items to the proxies which have sufficient capacity such as the processing time and the cache sizes. In this study, the Hot Spot Prediction Algorithm (HSPA) has been suggested to improve the consistent hashing algorithm in the point of the load balancing, hit rate with a shorter response time. This method predicts the popular hot spots using a prediction model. The hot spots have been patched to the proper proxies according to the load-balancing algorithm. Also a simulator is developed to utilize the suggested algorithm using PERL language. The computer simulation result proves the performance of the suggested algorithm. The suggested algorithm is tested using the consistent hashing in the point of the load balancing and the hit rate.

  • PDF

Cooperative Content Caching and Distribution in Dense Networks

  • Kabir, Asif
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권11호
    • /
    • pp.5323-5343
    • /
    • 2018
  • Mobile applications and social networks tend to enhance the need for high-quality content access. To address the rapid growing demand for data services in mobile networks, it is necessary to develop efficient content caching and distribution techniques, aiming at significantly reduction of redundant content transmission and thus improve content delivery efficiency. In this article, we develop optimal cooperative content cache and distribution policy, where a geographical cluster model is designed for content retrieval across the collaborative small cell base stations (SBSs) and replacement of cache framework. Furthermore, we divide the SBS storage space into two equal parts: the first is local, the other is global content cache. We propose an algorithm to minimize the content caching delay, transmission cost and backhaul bottleneck at the edge of networks. Simulation results indicates that the proposed neighbor SBSs cooperative caching scheme brings a substantial improvement regarding content availability and cache storage capacity at the edge of networks in comparison with the current conventional cache placement approaches.

웹 객체 크기 이질성 기반의 웹 캐시 대체 기법의 설계와 성능 평가 (A Design and Performance Analysis of Web Cache Replacement Policy Based on the Size Heterogeneity of the Web Object)

  • 나윤지;고일석;조동욱
    • 정보처리학회논문지C
    • /
    • 제12C권3호
    • /
    • pp.443-448
    • /
    • 2005
  • 웹 캐시의 효율적인 사용은 웹기반 시스템의 효율성을 판단하는 중요한 척도가 되고 있다. 캐시의 성능은 한정된 공간에서 객체를 동적으로 관리하는 대체 알고리즘에 크게 영향을 받는다. 본 연구에서는 웹기반 시스템의 효율을 높이기 위한 웹 캐싱 알고리즘을 제안한다. 제안 알고리즘은 분할 영역에 대해 웹 객체의 크기 참조 특성과 이질성을 고려하도록 설계되었다. 또한 실험 환경에서 제안 알고리즘이 기존의 대체 알고리즘을 비교하여, $15\%$ 이상 성능이 향상되었음을 확인하였다.

이동성 기반의 엣지 캐싱 및 사용자 연결 알고리즘 연구 (A Study on Mobility-Aware Edge Caching and User Association Algorithm)

  • 이태윤;이수경
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제12권2호
    • /
    • pp.47-52
    • /
    • 2023
  • 최근 스마트 디바이스 및 스트리밍 서비스의 수요 증가에 따른 네트워크 트래픽을 효과적으로 관리하기 위한 방법으로 Mobile Edge Computing(MEC)기술이 주목받고 있다. MEC는 Base Station(BS)과 같은 네트워크 엣지에 캐시를 설치함으로써 사용자에게 보다 가까운 곳에서 서비스를 제공하므로 낮은 지연시간을 제공하고, 네트워크 부하를 감소시킬 수 있다. 또한, 엣지 네트워크에서 사용자는 가장 가까운 BS와 연결되는 것보다 요청된 콘텐츠가 캐싱되어 있는 BS와 연결하는 것이 서비스 지연시간 감소에 유리하다. 따라서 본 논문에서는 캐시 적중률 향상을 위한 이동성 기반 캐싱 및 사용자 연결(user association)알고리즘을 제안한다. 제안 알고리즘은 체류시간과 콘텐츠 요청 유사도를 토대로 사용자 연결을 결정하고 콘텐츠를 캐싱한다. 시뮬레이션을 통해 기존 연구 대비 제안 알고리즘의 향상된 캐시 적중률과 감소된 지연시간을 확인한다.

분산 파일시스템을 위한 효율적인 협력캐쉬 알고리즘 (Efficient Cooperative Caching Algorithm for Distributed File Systems)

  • 박새미;이석재;유재수
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2003년도 추계종합학술대회 논문집
    • /
    • pp.234-244
    • /
    • 2003
  • 분산 파일시스템 환경에서는 디스크 접근 비용을 줄이기 위해 각 노드에 캐쉬된 데이터를 서로 공유하는 협력캐쉬 기법이 사용된다. 협력캐쉬 기법은 분산되어있는 시스템들의 캐쉬정보를 서로 공유하여 가상으로 더 큰 캐쉬를 형성함으로써 캐쉬 히트율을 높이고 디스크 접근을 줄이는 방법이다. 기존에 제안된 협력캐쉬 기법들은 캐쉬에 대한 근사정보를 이용하여 메시지 비용을 줄이고, 로컬캐쉬영역과 글로벌 캐쉬영역을 가변적으로 사용하여 캐쉬히트율을 높이고 있다. 또한 캐시교체시 교체된 블록을 비활동적인 노드로 보내어 계속 캐쉬에 유지하도록 하여 글로벌 캐시히트율을 높이는 장점을 갖는다. 그러나 잘못된 근사정보가 성능을 저하시킬 수 있으며 일관성 유지를 위한 메시지교환 비용이 많이 든다는 단점을 갖고 있다. 또한 비활동적인 노드를 선정하기 위해 사용되는 각 노드의 에이지정보 관리비용이 많이드는 단점을 갖고 있다. 본 논문에서는 정확한 캐쉬정보를 유지하며 일관성 유지비용과 캐시에이지정보 관리비용을 최소화시키는 협력캐쉬 알고리즘을 제안한다. 그리고 성능평가를 통해 기존의 협력캐쉬 기법과 비교하여 제안하는 알고리즘의 우수성을 보인다.

  • PDF

무선 환경에서 QoS 적응적인 스트리밍 프락시 서버를 위한 트래픽 기반 캐싱 알고리즘 및 성능 분석 (Traffic-based Caching Algorithm and Performance Evaluation for QoS-adaptive Streaming Proxy Server in Wireless Networks)

  • 김화성;김용술;홍정표
    • 방송공학회논문지
    • /
    • 제10권3호
    • /
    • pp.313-320
    • /
    • 2005
  • 멀티미디어 스트리밍 서비스의 증가는 인터넷 컨텐츠의 새로운 국면으로 나타나고 있다. 특히, 무선이동통신망에서 증가하는 멀티미디어 응용에 대한 QoS 제공은 무엇보다 중요하다. 멀티미디어 스트림은 일반적으로 인터넷과 무선망의 유실 특성, 지연, 프로토콜 오버헤드로 인해 높은 초기 지연시간을 가진다. 서비스 제공자는 클라이언트 가까이에 있는 프락시에서 자주 액세스 되어지는 멀티미디어 스트림의 초기 세그먼트를 캐슁함으로써 성능을 향상 시킬 수 있다. 프락시는 서버로부터 스트림의 나머지 부분을 요구함과 동시에 클라이언트에 전송을 시작할 수 있다. 본 논문에서는 캐슁 프락시의 성능을 향상시키기 위해 트래픽 기반 캐슁 기법(TSLRU)을 제안한다 TSLRU는 트래픽을 세 종류로 분류하여 캐슁하며, 교체 대상 결정 시 여러 요소(traffic types, recency, frequency, object size)를 반영함으로 써 캐슁 프락시의 성능을 향상 시킨다. 모의실험에서 캐슁 알고리즘은 byte hit rate과 startup latency에서 높은 성능을 보였다.