• 제목/요약/키워드: Network Cache

검색결과 271건 처리시간 0.021초

네트워크 필터링에서 캐시를 적용한 트라이 구조의 탐색 성능 개선 (Improving Search Performance of Tries Data Structures for Network Filtering by Using Cache)

  • 김호연;정규식
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제3권6호
    • /
    • pp.179-188
    • /
    • 2014
  • 트래픽의 엄청난 양과 함께 급격한 증가로 인하여 네트워크 장비들의 성능이 중요한 이슈가 되고 있다. 방화벽 또는 부하분산기와 같이 패킷을 처리하는 네트워크 장비에서 성능에 영향을 주는 주요한 기능 중에 하나가 네트워크 필터링이다. 본 논문에서는 네트워크 필터링의 탐색 방법 중의 하나인 기존 트라이 방법의 성능을 개선하기 위하여 캐시를 적용한 트라이를 제안한다. 클라이언트와 서버 사이의 패킷 교환에서 한 번에 다수의 패킷이 송수신되는 경우에 대하여, 기존 방법은 동일한 탐색을 반복적으로 수행한다. 반면, 본 논문에서 제안하는 방법은 기존 방법에 캐시를 적용하여 불필요한 반복 탐색을 방지함으로써 네트워크 필터링 성능이 향상될 수 있다. 기존 방법과 제안 방법을 이용한 네트워크 필터링 실험을 수행하였다. 실험결과는 제안 방법이 기존 방법에 비하여 최대 초당 790,000개의 패킷을 더 처리할 수 있었음을 보여준다. 캐시 리스트 크기가 11일 때, 메모리 사용 증가량(7.75%) 대비 성능 개선(18.08%)이 가장 우수하였다.

A Video Cache Replacement Scheme based on Local Video Popularity and Video Size for MEC Servers

  • Liu, Pingshan;Liu, Shaoxing;Cai, Zhangjing;Lu, Dianjie;Huang, Guimin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권9호
    • /
    • pp.3043-3067
    • /
    • 2022
  • With the mobile traffic in the network increases exponentially, multi-access edge computing (MEC) develops rapidly. MEC servers are deployed geo-distribution, which serve many mobile terminals locally to improve users' QoE (Quality of Experience). When the cache space of a MEC server is full, how to replace the cached videos is an important problem. The problem is also called the cache replacement problem, which becomes more complex due to the dynamic video popularity and the varied video sizes. Therefore, we proposed a new cache replacement scheme based on local video popularity and video size to solve the cache replacement problem of MEC servers. First, we built a local video popularity model, which is composed of a popularity rise model and a popularity attenuation model. Furthermore, the popularity attenuation model incorporates a frequency-dependent attenuation model and a frequency-independent attenuation model. Second, we formulated a utility based on local video popularity and video size. Moreover, the weights of local video popularity and video size were quantitatively analyzed by using the information entropy. Finally, we conducted extensive simulation experiments based on the proposed scheme and some compared schemes. The simulation results showed that our proposed scheme performs better than the compared schemes in terms of hit rate, average delay, and server load under different network configurations.

CCN에서 응답시간 감소를 위한 생산자 거리 기반 캐시정책 (Cache Policy based on Producer Distance to Reduce Response Time in CCN)

  • 김건;권태욱
    • 한국전자통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.1121-1132
    • /
    • 2021
  • 지금은 스마트폰, 태블릿 등 모바일기기를 사용하지 않는 사람을 찾는 것이 더 어려운 시대다. 손가락만 움직이면 접근 가능한 콘텐츠들이 넘쳐난다. 하지만 기존 네트워크는 넘치는 콘텐츠들로 인해 발생하는 문제들에 대해 효율적인 대응이 어려운 구조를 가지고 있다. 특히, 다수의 사용자가 동시에 집약적으로 서버에 콘텐츠를 요구할 시 발생하는 병목현상 문제가 대표적인데 이를 해소하기 위해 미래 네트워크의 대안으로 CCN이 등장했다. CCN은 중간노드의 In-Network Cache 기능을 통해 네트워크의 대역폭을 효율적으로 사용해 사용자들의 요청이 Server에 도달하기 위해 소요되는 트래픽을 개선해 네트워크 내에서 응답시간을 줄이고 트래픽 집중을 분산한다. 이런 CCN 환경에서 효율성을 향상시킬 수 있는 캐시정책을 제안한다.

Improving QoS using Cellular-IP/PRC in Hospital Wireless Network

  • 김성홍
    • 한국전자통신학회논문지
    • /
    • 제1권2호
    • /
    • pp.120-126
    • /
    • 2006
  • 병원 무선망에서 호 수락 방식과 보다 적은 범위 셀 환경에서 QoS를 보장하기 위해 통합된 페이징과 루프 정보 관리 캐시를 사용하는 Cellular IP 특성을 가진 Cellular-IP/PRC 네트워크를 제안한다. 제안한 호 수락 방식은, 이동 노드의 홈 기지국 용량이 충분하고, 인접 셀 이동 노드가 홈 기지국에서 호가 수락되었다고 가정할 경우 받을 간섭의 증가량을 고려해 통화 품질이 보장될 때, 홈 기지국은 새로운 호를 이동 노드의 송신 전력 예측에 기반을 둔 호 수락 방식이다. 병원 무선망 내의 페이징과 라우터를 관리하기 위해 사용되었던 PC(Paging Cache)와 RC(Routing Cache)를 하나의 PRC(Paging Router Cache)로 통합 관리하고, 모든 노드 내에 구성하여 운용토록 하고, 이동 노드의 핸드오프 및 로밍 상태를 효율적으로 관리 할 수 있도록 이동 노드에 핸드오프 상태 머신을 추가하며, 노드에서 관련 기능을 수행하도록 연구한다. 시스템 환경에서 통화량에 영향을 주는 인자를 분석하고 각 링크 통화권 및 불균형 정도를 예측하여, 하향링크에 의해 통화권이 제한되었는지를 판단하여 호를 수락 또는 차단하는 알고리즘 이용 총 송수신 전력을 기반으로 제안한 알고리즘을 응용해서 QoS에서 가장 밀접하고 중요한 호 차단 확률과 호 탈락 확률, GoS(Grade of Service), 셀 용량의 효율을 예측 처리하여 QoS 성능 개선을 나타낸다.

  • PDF

A Review of Web Cache Prefetching

  • Deng, YuFeng;Manoharan, Sathiamoorthy
    • Journal of information and communication convergence engineering
    • /
    • 제12권3호
    • /
    • pp.161-167
    • /
    • 2014
  • Web caches help to reduce latencies arising from slow networks through storing and reusing what was used before. Repeat access to a cached resource does not incur network latencies. However, resources that have never been used will not be found in the cache. Cache prefetching is a technique that helps to fill a cache with still-unused resources in anticipation that these resources will be used in the near future. Typically these unused resources are related to the resources that have been accessed in the recent past. While web caching exploits temporal locality, prefetching attempts to exploit spatial locality. Access to the prefetched resources will be cache hits, and therefore reduces the latency as perceived by the user. This paper reviews the cache infrastructure supported by the hypertext transfer protocol and discusses web cache prefetching in general, including Mozilla's prefetching infrastructure. It then classifies and reviews some prefetching techniques.

Multi-path Routing Policy for Content Distribution in Content Network

  • Yang, Lei;Tang, Chaowei;Wang, Heng;Tang, Hui
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권5호
    • /
    • pp.2379-2397
    • /
    • 2017
  • Content distribution technology, which routes content to the cache servers, is considered as an effective method to reduce the response time of the user requests. However, due to the exponential increases of content traffic, traditional content routing methods suffer from high delay and consequent inefficient delivery. In this paper, a content selection policy is proposed, which combines the histories of cache hit and cache hit rate to collaboratively determine the content popularity. Specifically, the CGM policy promotes the probability of possible superior paths considering the storage cost and transmission cost of content network. Then, the content routing table is updated with the proportion of the distribution on the paths. Extensive simulation results show that our proposed scheme improves the content routing and outperforms existing routing schemes in terms of Internet traffic and access latency.

Dynamic Caching Routing Strategy for LEO Satellite Nodes Based on Gradient Boosting Regression Tree

  • Yang Yang;Shengbo Hu;Guiju Lu
    • Journal of Information Processing Systems
    • /
    • 제20권1호
    • /
    • pp.131-147
    • /
    • 2024
  • A routing strategy based on traffic prediction and dynamic cache allocation for satellite nodes is proposed to address the issues of high propagation delay and overall delay of inter-satellite and satellite-to-ground links in low Earth orbit (LEO) satellite systems. The spatial and temporal correlations of satellite network traffic were analyzed, and the relevant traffic through the target satellite was extracted as raw input for traffic prediction. An improved gradient boosting regression tree algorithm was used for traffic prediction. Based on the traffic prediction results, a dynamic cache allocation routing strategy is proposed. The satellite nodes periodically monitor the traffic load on inter-satellite links (ISLs) and dynamically allocate cache resources for each ISL with neighboring nodes. Simulation results demonstrate that the proposed routing strategy effectively reduces packet loss rate and average end-to-end delay and improves the distribution of services across the entire network.

무선 ATM망에서 신호 트래픽 관리를 위한 기억공간 적재기법의 성능분석 (Performance analysis of cache strategy for signaling traffic management in wireless ATM network)

  • 최기무;조동호
    • 한국통신학회논문지
    • /
    • 제23권7호
    • /
    • pp.1639-1649
    • /
    • 1998
  • 무선 멀티미디어 서비스를 위하여 무선 ATM(Asynchronous Transfer Mode)망에 관한 연구가 현재 활발하게 진행 되고 있다. 이러한 무선 ATM망 환경에서 현재의, 모든 신호 부하가 HLR(Home Location Register)에서 처리되는 중앙 집중구조는 HLR의 부하 집중의 원인이 된다. 따라서 중앙 집중 구조는 호처리 지연의 직접적인 원인으로 작용 하므로 분산 구조를 이용하면 연결설정 지연을 줄일 수 있다. 본 논문에서는 호 처리 및 등록에 대한 시그널링 부 하의 폭증으로 인한 호처리의 지연을 방지하기 위하여 분산 호처리 구조를 기반으로 하는 구조에서 캐쉬(Cache)를 이용한 호처리 절차와 ATM의 Multicasting을 이용한 등록의 캐쉬 갱신(Update)을 통하여 망 전체에 대한 시그널 링 부하를 줄이는 방안을 제시하고 기존 방안과 제안된 방안에 대하여 비용을 비교 분석하였다. 이 결과 제안한 캐쉬 방안이 전체적인 성능향상을 보였으며 특히 이동성이 적고 호 트래픽이 많은 경우에 상당한 성능향상을 나타내었다.

  • PDF

i$^2$SCSI: Storage Area Network에서 캐시 일관성을 제공하는 지능적인 iSCSI 공유 디스크 (i$^2$SCSI: Intelligent iSCSI Shared Disk Providing Cache Consistency in Storage Area Network)

  • 이주평;황주영;임승호;박규호
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅲ
    • /
    • pp.1327-1330
    • /
    • 2003
  • The internet SCSI(iSCSI) disk has been studied as a storage system which can be directly connected to TCP/IP network. We designed and implemented a shared disk following the iSCSI protocol and providing cache consistency. It is named as intelligent iSCSI(i$^2$SCSI) disk. The i$^2$SCSI disk provides cache consistency of all blocks that belong to the disk using a conventional lease method and it uses 'contiguous blocks-level locking' The prototype of the i$^2$SCSI disk emulator and its client is designed and implemented in Linux 2.4.

  • PDF

Web Service Proxy Architecture using WS-Eventing for Reducing SOAP Traffic

  • Terefe, Mati Bekuma;Oh, Sangyoon
    • 정보화연구
    • /
    • 제10권2호
    • /
    • pp.159-167
    • /
    • 2013
  • Web Services offer many benefits over other types of middleware in distributed computing. However, usage of Web Services results in large network bandwidth since Web Services use XML-based protocol which is heavier than binary protocols. Even though there have been many researches to minimize the network traffic and bandwidth usages of Web Services messages, none of them are solving problem clearly yet. In this paper, we propose a transparent proxy with cache to avoid transfer of repeated SOAP data, sent by Web Service to an application. To maintain the cache consistency, we introduce publish/subscribe paradigm using WS-Eventing between the proxy and Web Service. The implemented system based on our proposed architecture will not compromise the standards of Web Service. The evaluation of our system shows that caching SOAP messages not only reduces the network traffic but also decreases the request delays.