• 제목/요약/키워드: (Network cache

검색결과 270건 처리시간 0.036초

CCN에서 실시간 생성자 인기도 기반의 LFU 정책 (A LFU based on Real-time Producer Popularity in Concent Centric Networks)

  • 최종현;권태욱
    • 한국전자통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.1113-1120
    • /
    • 2021
  • 콘텐츠 중심 네트워크(CCN)은 기존 위치(IP) 기반의 네트워크 방식을 콘텐츠 이름(Content Name) 중심의 네트워크 구조로 변모시킴으로써 네트워크 전반의 효율성을 높이고자 하는 시도이다. CCN에서는 네트워크 효율을 높이기 위해 라우터 저장공간을 활용한 캐싱을 수행하는데, 캐시 교체정책은 CCN의 전반적인 성능을 좌우하는 중요한 요소이다. 따라서 CCN 분야에서는 캐시 교체정책과 관련된 많은 선행 연구가 있었다. 본 논문에서는 CCN 기본 캐시 교체정책인 LFU를 개선한 실시간 생성자 인기도 기반의 캐시 교체정책을 제안하였다. 또한, 실험을 통해 제안한 캐시 교체정책이 대조군보다 우수함을 입증하였다.

Mitigating Cache Pollution Attack in Information Centric Mobile Internet

  • Chen, Jia;Yue, Liang;Chen, Jing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권11호
    • /
    • pp.5673-5691
    • /
    • 2019
  • Information centric mobile network can significantly improve the data retrieving efficiency by caching contents at mobile edge. However, the cache pollution attack can affect the data obtaining process severely by requiring unpopular contents deliberately. To tackle the problem, we design an algorithm of mitigating cache pollution attacks in information centric mobile network. Particularly, the content popularity distribution statistic is proposed to detect abnormal behavior. Then a probabilistic caching strategy based on abnormal behavior is applied to dynamically maintain the steady-state distribution for content visiting probability and achieve the purpose of defense. The experimental results show that the proposed scheme can achieve higher request hit ratio and smaller latency for false locality content pollution attack than the CacheShield approach and the baseline approach where no mitigation approach is applied.

Cache-Filter: A Cache Permission Policy for Information-Centric Networking

  • Feng, Bohao;Zhou, Huachun;Zhang, Mingchuan;Zhang, Hongke
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권12호
    • /
    • pp.4912-4933
    • /
    • 2015
  • Information Centric Networking (ICN) has recently attracted great attention. It names the content decoupling from the location and introduces network caching, making the content to be cached anywhere within the network. The benefits of such design are obvious, however, many challenges still need to be solved. Among them, the local caching policy is widely discussed and it can be further divided into two parts, namely the cache permission policy and the cache replacement policy. The former is used to decide whether an incoming content should be cached while the latter is used to evict a cached content if required. The Internet is a user-oriented network and popular contents always have much more requests than unpopular ones. Caching such popular contents closer to the user's location can improve the network performance, and consequently, the local caching policy is required to identify popular contents. However, considering the line speed requirement of ICN routers, the local caching policy whose complexity is larger than O(1) cannot be applied. In terms of the replacement policy, Least Recently Used (LRU) is selected as the default one for ICN because of its low complexity, although its ability to identify the popular content is poor. Hence, the identification of popular contents should be completed by the cache permission policy. In this paper, a cache permission policy called Cache-Filter, whose complexity is O(1), is proposed, aiming to store popular contents closer to users. Cache-Filter takes the content popularity into account and achieves the goal through the collaboration of on-path nodes. Extensive simulations are conducted to evaluate the performance of Cache-Filter. Leave Copy Down (LCD), Move Copy Down (MCD), Betw, ProbCache, ProbCache+, Prob(p) and Probabilistic Caching with Secondary List (PCSL) are also implemented for comparison. The results show that Cache-Filter performs well. For example, in terms of the distance to access to contents, compared with Leave Copy Everywhere (LCE) used by Named Data Networking (NDN) as the permission policy, Cache-Filter saves over 17% number of hops.

Neighbor Cooperation Based In-Network Caching for Content-Centric Networking

  • Luo, Xi;An, Ying
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권5호
    • /
    • pp.2398-2415
    • /
    • 2017
  • Content-Centric Networking (CCN) is a new Internet architecture with routing and caching centered on contents. Through its receiver-driven and connectionless communication model, CCN natively supports the seamless mobility of nodes and scalable content acquisition. In-network caching is one of the core technologies in CCN, and the research of efficient caching scheme becomes increasingly attractive. To address the problem of unbalanced cache load distribution in some existing caching strategies, this paper presents a neighbor cooperation based in-network caching scheme. In this scheme, the node with the highest betweenness centrality in the content delivery path is selected as the central caching node and the area of its ego network is selected as the caching area. When the caching node has no sufficient resource, part of its cached contents will be picked out and transferred to the appropriate neighbor by comprehensively considering the factors, such as available node cache, cache replacement rate and link stability between nodes. Simulation results show that our scheme can effectively enhance the utilization of cache resources and improve cache hit rate and average access cost.

CCN에서 적중률 향상을 위한 지연감쇠 LFU(DA-LFU) 캐시 교체 정책 (Delay Attenuation LFU (DA-LFU) Cache Replacement Policy to Improve Hit Rates in CCN)

  • 반빈;권태욱
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제9권3호
    • /
    • pp.59-66
    • /
    • 2020
  • 현재 네트워크의 트래픽 부하 급증과 같은 문제를 해결하기 위해 기존의 호스트 기반 네트워크와 완전히 다른 아키텍처를 가진 콘텐츠 중심네트워크(CCN)가 등장하였다. 네트워크 상 모든 라우터가 캐시 한다는 특징을 가진 CCN의 성능을 향상시키기 위해 캐시 교체 정책에 대한 연구가 매우 활발하다. 따라서 본 논문에서는 실제 네트워크 상황을 고려하여 요청되는 콘텐츠의 인기도가 끊임없이 변화하는 상황에 적합한 캐시 교체 정책을 제안한다. 제안하는 알고리즘의 성능을 평가하기 위해 콘텐츠의 인기도가 지속적으로 변화하는 환경에서 실험하였고, 적중률 비교와 서버 부하분석을 통해 기존의 교체정책보다 우수함을 확인하였다.

Performance Impact of Large File Transfer on Web Proxy Caching: A Case Study in a High Bandwidth Campus Network Environment

  • Kim, Hyun-Chul;Lee, Dong-Man;Chon, Kil-Nam;Jang, Beak-Cheol;Kwon, Tae-Kyoung;Choi, Yang-Hee
    • Journal of Communications and Networks
    • /
    • 제12권1호
    • /
    • pp.52-66
    • /
    • 2010
  • Since large objects consume substantial resources, web proxy caching incurs a fundamental trade-off between performance (i.e., hit-ratio and latency) and overhead (i.e., resource usage), in terms of caching and relaying large objects to users. This paper investigates how and to what extent the current dedicated-server based web proxy caching scheme is affected by large file transfers in a high bandwidth campus network environment. We use a series of trace-based performance analyses and profiling of various resource components in our experimental squid proxy cache server. Large file transfers often overwhelm our cache server. This causes a bottleneck in a web network, by saturating the network bandwidth of the cache server. Due to the requests for large objects, response times required for delivery of concurrently requested small objects increase, by a factor as high as a few million, in the worst cases. We argue that this cache bandwidth bottleneck problem is due to the fundamental limitations of the current centralized web proxy caching model that scales poorly when there are a limited amount of dedicated resources. This is a serious threat to the viability of the current web proxy caching model, particularly in a high bandwidth access network, since it leads to sporadic disconnections of the downstream access network from the global web network. We propose a peer-to-peer cooperative web caching scheme to address the cache bandwidth bottleneck problem. We show that it performs the task of caching and delivery of large objects in an efficient and cost-effective manner, without generating significant overheads for participating peers.

Development of a Distributed Web Caching Network through Consistent Hashing and Dynamic Load Balancing

  • Hwan Chang;Jong Ho Park;Ju Ho Park;Kil To Chong
    • 한국통신학회논문지
    • /
    • 제27권11C호
    • /
    • pp.1040-1045
    • /
    • 2002
  • This paper focuses on a hash-based, distributed Wet caching network that eliminates inter-cache communication. An agent program on cache servers, a mapping program on the DNS server, and other components comprised in a distributed Web caching network were modified and developed to implement a so-called "consistent" hashing. Also, a dynamic load balancing algorithm is proposed to address the load-balancing problem that is a key performance issue on distributed architectures. This algorithm effectively balances the load among cache servers by distributing the calculated amount of mapping items that have higher popularity than others. Therefore, this developed network can resolve the imbalanced load that is caused by a variable page popularity, a non-uniform distribution of a hash-based mapping, and a variation of cache servers.

데이터 검색의 적중률 향상을 위한 이중 캐시의 푸시 에이전트 모델 설계 (Design of Push Agent Model Using Dual Cache for Increasing Hit-Ratio of Data Search)

  • 김광중;고현;김영자;이연식
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.153-166
    • /
    • 2005
  • 기존 단일 캐시 구조는 각기 사용되는 교체 전략에 따라 적중률의 차이를 보임으로써 보다 향상된 적중률을 제공하며 서버 및 네트워크 트래픽을 감소시키는 새로운 캐시 구조가 필요하다. 그러므로 본 논문에서는 지속적인 정보 제공 및 동일한 정보의 중복 요청으로 인한 서버 과부하 및 네트워크 트래픽을 감소시키며 적중률을 향상시키는 이중 캐시를 이용한 푸시 에이전트 모델을 설계한다. 제안된 푸시 에이전트 모델에서는 서버 및 네트워크 부하를 감소시키기 위해 두 개의 캐시 저장소를 이용하여 단계적인 캐시 교체를 수행하는 이중 캐시 구조를 제안하며, 또한 캐시 내 데이터들의 효용성을 증가시키기 위해 Log(Size)+LRU, LFU, PLC의 교체 정책을 기반으로 데이터 갱신과 삭제를 수행하는 새로운 캐시 교체기법 및 알고리즘을 제시한다. 그리고 실험을 통해 이중 캐시 푸시 에이전트 모델에 대한 성능을 평가한다.

  • PDF

소형셀 환경에서 코어망 오프로딩을 위한 캐시 알고리즘 (Caching Algorithm for Core Network Offloading in Smallcell Environment)

  • 정소이;김재현
    • 전자공학회논문지
    • /
    • 제52권3호
    • /
    • pp.32-38
    • /
    • 2015
  • 본 논문에서는 소형셀 환경에서 사용자의 context를 반영한 local caching 알고리즘을 제안한다. 소형셀 내부에 캐시를 이용하면 코어망으로 전달되는 트래픽을 감소시킬 뿐만 아니라 네트워크 비용을 절감시키고 통신의 성능을 증가시킬 수 있다. 제안하는 알고리즘은 소형셀 특성을 활용해 각 소형셀 사용자에 맞는 적절한 데이터를 캐시에 저장한다. 이를 통해 제한된 캐시저장 공간을 효율적으로 사용하고 고전적인 웹 캐시 방식에 비해 캐시 적중률을 높였다. 성능분석을 위해 코어망 트래픽 감소량을 나타내는 cache efficiency를 정의하고 제안한 알고리즘의 성능을 검증한 결과 기존 웹 캐시 방식에 비해 200%의 성능향상이 있었다.

CACHE:상황인식 기반의 계층적 클러스터링 알고리즘에 관한 연구 (CACHE:Context-aware Clustering Hierarchy and Energy efficient for MANET)

  • 문창민;이강환
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2009년도 추계학술대회
    • /
    • pp.571-573
    • /
    • 2009
  • 이동 애드혹 네트워크(MANET)는 무선네트워크에서 노드들이 제한적인 에너지를 가지고 있기 때문에 보다 효율적인 노드의 관리가 요구 된다. 이러한 MANET에서는 정적인 네트워크에 비해 토폴로지가 자주 변하므로 이동성을 고려한 에너지 효율적인 라우팅 프로토콜이 요구된다. 기존에 제안 된 CACH(Context-aware Adaptive Clustering Hierarchy)[1]는 하이브리드 라우팅 방식을 분산 클러스터링 기반으로 구성하여 네트워크 수명을 연장하고 지연시간을 감소하였다. 하지만 노드의 밀도증가를 효율적으로 알고리즘에 적용하지 못한 문제점이 있다. 이를 보완하기 위해 본 논문에서는, CACHE(Context-aware Adaptive Clustering Hierarchy and Energy efficient)를 제안한다. CACHE는 노드 밀도 변경에 대해 적응적으로 알고리즘을 적용할 수 있도록 클러스터 구성을 수정하여, CACH가 갖는 노드 밀도 문제를 개선하였다.

  • PDF