• 제목/요약/키워드: Network Cache

검색결과 271건 처리시간 0.026초

효율적인 레이블 스위칭을 위한 캐쉬 테이블 관리 (Cache Table Management for Effective Label Switching)

  • 김남기;윤현수
    • 한국정보과학회논문지:정보통신
    • /
    • 제28권2호
    • /
    • pp.251-261
    • /
    • 2001
  • 인터넷이 급속도로 발전되면서 트래픽이 폭발적으로 증가하여 현재 라우터에는 많은 부하가 걸리고 있으며 스위칭 기술은 라우팅 보다 빠르게 데이터를 전송하면서 라우터 병목 현상을 줄일수 있다. 따라서 IP 라우팅에 스위칭 기술을 접목한 레이블 스위칭 네트워크가 출현하게 되었다. 레이블 스위칭 기술 중 데이터 기반 레이블 스위칭에서는 흐름 분류와 캐쉬 테이블 관리가 중요하다. 흐름 분류는 패킷을 스위칭으로 전송할 것인지 그렇지 않으면 기존 라우팅으로 전송할 것인지를 결정하는 부분인데 이러한 흐름 분류를 위한 정보와 레이블 스위칭을 위한 정보를 저장하는 곳이 캐쉬 테이블이다. 이런 캐쉬 테이블이 크면 클수록 많은 패킷을 스위칭 할 수 있고 스위칭 설정 비용을 줄일 수 있기 때문에 캐쉬 테이블은 클수록 좋으나 라우터 자원에 의해 제약을 받으므로 적절한 캐쉬 테이블 관리가 필요하다. 따라서 효율적인 캐쉬 테이블 관리를 위해 인터넷 트래픽 특성을 고려한 캐쉬 대체 기법에 관한 연구가 요구되어 진다. 본 논문에서는 레이블 스위칭을 위한 여러 캐쉬 대체 기법들을 소개하고 제안한다. 첫째로 스위칭 용량에 한계가 없을 경우 FIFO, LFC, LRU,기법을 평가하고 우선순위 LRU 가중치 우선순위 LRU 기법을 제안한다. 둘째로 스위칭 용량에 한계가 있을 경우 LFC-LFC, LFC-LRU, LRU-LFC, LRU-LRU 기법이 한계가있을 경우 LRU-가중치 LRU 기법이 가장 나은 성능을 보였다

  • PDF

병원 무선망에서 Cellular-IP/PRC에 의한 QoS 개선 (Improving QoS using Cellular-IP/PRC in Hospital Wireless Network)

  • 석경휴;김성홍
    • 한국전자통신학회논문지
    • /
    • 제3권3호
    • /
    • pp.188-194
    • /
    • 2008
  • 병원 무선망에서 호 수락 방식과 보다 적은 범위 셀 환경에서 QoS를 보장하기 위해 통합된 페이징과 루프 정보 관리 캐시를 사용하는 Cellular IP 특성을 가진 Cellular-IP/PRC 네트워크를 제안한다. 제안한 호 수락 방식은, 이동 노드의 홈 기지국 용량이 충분하고, 인접 셀 이동 노드가 홈 기지국에서 호가 수락되었다고 가정할 경우 받을 간섭의 증가량을 고려해 통화 품질이 보장될 때, 홈 기지국은 새로운 호를 이동 노드의 송신 전력 예측에 기반을 둔 호 수락 방식이다. 병원 무선망 내의 페이징과 라우터를 관리하기 위해 사용되었던 PC(Paging Cache)와 RC(Routing Cache)를 하나의 PRC(Paging Router Cache)로 통합 관리하고, 모든 노드 내에 구성하여 운용토록 하고, 이동 노드의 핸드오프 및 로밍 상태를 효율적으로 관리 할 수 있도록 이동 노드에 핸드오프 상태 머신을 추가하며, 노드에서 관련 기능을 수행하도록 연구한다. 시스템 환경에서 통화량에 영향을 주는 인자를 분석하고 각 링크 통화권 및 불균형 정도를 예측하여, 하향링크에 의해 통화권이 제한되었는지를 판단하여 호를 수락 또는 차단하는 알고리즘 이용 총 송수신 전력을 기반으로 제안한 알고리즘을 응용해서 QoS에서 가장 밀접하고 중요한 호 차단 확률과 호 탈락 확률, GoS(Grade of Service), 셀 용량의 효율을 예측 처리하여 QoS 성능 개선을 나타낸다.

  • PDF

Eager Data Transfer Mechanism for Reducing Communication Latency in User-Level Network Protocols

  • Won, Chul-Ho;Lee, Ben;Park, Kyoung;Kim, Myung-Joon
    • Journal of Information Processing Systems
    • /
    • 제4권4호
    • /
    • pp.133-144
    • /
    • 2008
  • Clusters have become a popular alternative for building high-performance parallel computing systems. Today's high-performance system area network (SAN) protocols such as VIA and IBA significantly reduce user-to-user communication latency by implementing protocol stacks outside of operating system kernel. However, emerging parallel applications require a significant improvement in communication latency. Since the time required for transferring data between host memory and network interface (NI) make up a large portion of overall communication latency, the reduction of data transfer time is crucial for achieving low-latency communication. In this paper, Eager Data Transfer (EDT) mechanism is proposed to reduce the time for data transfers between the host and network interface. The EDT employs cache coherence interface hardware to directly transfer data between the host and NI. An EDT-based network interface was modeled and simulated on the Linux-based, complete system simulation environment, Linux/SimOS. Our simulation results show that the EDT approach significantly reduces the data transfer time compared to DMA-based approaches. The EDTbased NI attains 17% to 38% reduction in user-to-user message time compared to the cache-coherent DMA-based NIs for a range of message sizes (64 bytes${\sim}$4 Kbytes) in a SAN environment.

통합 캐시 및 개선된 적응형 세미소프트 핸드오프를 이용한 셀룰러 IP의 성능분석 (Performance Analysis of Cellular IP using Combined Cache and Improved Adaptive Semi-soft Handoff Method)

  • 최정훈;김남;정승호
    • 한국콘텐츠학회논문지
    • /
    • 제4권4호
    • /
    • pp.113-121
    • /
    • 2004
  • 기존 셀룰러 IP는 많은 중복패킷으로 인하여 네트워크에 큰 트래픽 부하가 가중되고, 패킷 손실과 핸드오프 지연이 발생한다. 본 논문에서는, 페이징 캐시와 라우팅 캐시를 결합한 통합 캐시와 중복 패킷 발생을 최소화하는 개선된 적응형 세미소프트 핸드오프를 함께 운용할 것을 제안하였다. 컴퓨터 시뮬레이션을 통하여 패킷 손실, 핸드오프 지연 및 네트워크 내 트래픽 부하 특성 등을 고찰하였다. 그 결과, 제안한 방식은 액세스 네트워크 내 노드와 이동 호스트의 수, 노드 내 다운링크의 수가 증가할수록 세미소프트 핸드오프를 적용한 기존의 셀룰러 IP와 비교하여 크게 개선되었다는 것을 확인하였다.

  • PDF

RHC(Routing History Cache)를 사용한 저전력 소모 라우팅 알고리즘 (Low-power Routing Algorithm using Routing History Cache for Wireless Sensor Network)

  • 이두완;장경식
    • 한국정보통신학회논문지
    • /
    • 제13권11호
    • /
    • pp.2441-2446
    • /
    • 2009
  • 무선 센서 네트워크는 특정지역에서 데이터를 수집하여 처리는 작은 센서 노드들로 구성된다. 이러한 센서들은 최초로 설치된 이후에는 배터리로 동작되며, 동작기간이 수개월에서 수년까지 지속되어야 함으로 제한된 자원을 효율적으로 활용할 수 있어야 한다. 본 논문에서는 데이터 중심개념을 적용한 Directed Diffusion의 기본동작구조에 RHC(rounting history cache)를 적용하여, 데이터 전송경로 설정에 신뢰성과 효율성을 높인다. 제안하는 RHC 알고리즘은 각 센서 노드가 자신의 RHC를 주기적으로 업데이트 하여 최적화경로를 저장하고 있기 때문에, 이벤트 발생시마다 경로를 재설정하여 에너지가 낭비되는 것을 최소화하였고, 중복메시지의 최소화로 신뢰성을 향상시켰다.

이중 캐쉬 서버를 사용한 실시간 데이터의 좡대역 네트워크 대역폭 감소 정책 (A Strategy To Reduce Network Traffic Using Two-layered Cache Servers for Continuous Media Data on the Wide Area Network)

  • 박용운;백건효;정기동
    • 한국정보처리학회논문지
    • /
    • 제7권10호
    • /
    • pp.3262-3271
    • /
    • 2000
  • 연속형 미디어 데이터는 대용량이고 실시간으로 전송되어야 하므로 데이터 전송 시에 네트워크에 많은 부하를 주게 된다. 이러한 네트워크는 부하 문제를 해결하기 위하여 프락시 서버가 사용되며 프락시 서버에는 자주 접근되는 데이터가 저장되어 원래의 데이터가 존재하는 서버로의 네트워크 교통량을 줄이게 된다. 그러나 현재의 프락시 서버는 텍스트나 이미지 데이터등의 비 연속형 데이터만을 고려하여 설계되었으므로 연속형 미디어 데이터의 캐슁에는 적합하지 않다. 그러므로 본 연구에서는 연속형 미디어 데이터의 특징을 고려하여 프락시 서버를 두 계층으로 나누어 배치하여 데이터를 캐슁하고 데이터의 접근 패턴과 크기를 동시에 고려한 재할당 정책을 사용하여 캐쉬공간을 관리하는 프락시 서버 관리 정책을 제안한다. 제안된 정책에서는 각각의 LAN 마다 하나의 프락시 서버가 존재하며 각 LAN은 여러 개의 서브LAN으로 나뉘어 져서 이러한 각각의 서브 LAN에는 또한 하나의 서브 LAN 프락시가 존재한다. 이에 병행하여 각각의 데이터들도 각각 전방 분할(front-end partition)과 후방 분할(rear-end partition)로 나뉘어져서 해당 데이터의 참조 유형에 따라 하나의 프락시에 동시에 저장되기도 하고 LAN 캐쉬 서버와 서브 LAN 캐쉬 서버에 각각 따로 저장되기도 한다. 이러한 정책을 사용함으로써 전체 데이터를 단위로 캐슁할 경우보다 데이터공간의 할당과 재할당에 따른 오버헤드가 감소함으로써 궁극적으로는 원래의 저장 서버로의 네트워크 교통량을 보다 더 감소시킬 수 있다.

  • PDF

A Cache Privacy Protection Mechanism based on Dynamic Address Mapping in Named Data Networking

  • Zhu, Yi;Kang, Haohao;Huang, Ruhui
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권12호
    • /
    • pp.6123-6138
    • /
    • 2018
  • Named data networking (NDN) is a new network architecture designed for next generation Internet. Router-side content caching is one of the key features in NDN, which can reduce redundant transmission, accelerate content distribution and alleviate congestion. However, several security problems are introduced as well. One important security risk is cache privacy leakage. By measuring the content retrieve time, adversary can infer its neighbor users' hobby for privacy content. Focusing on this problem, we propose a cache privacy protection mechanism (named as CPPM-DAM) to identify legitimate user and adversary using Bloom filter. An optimization for storage cost is further provided to make this mechanism more practical. The simulation results of ndnSIM show that CPPM-DAM can effectively protect cache privacy.

Efficient Document Replacement Policy by Web Site Popularity

  • Han, Jun-Tak
    • International Journal of Contents
    • /
    • 제3권1호
    • /
    • pp.14-18
    • /
    • 2007
  • General replacement policy includes document-based LRU or LFU technique and other various replacement policies are used to replace the documents within cache effectively. But, these replacement policies function only with regard to the time and frequency of document request, not considering the popularity of each web site. In this paper, we present the document replacement policies with regard to the popularity of each web site, which are suitable for modern network environments to enhance the hit-ratio and efficiently manage the contents of cache by effectively replacing documents on intermittent requests by new ones.

효율적인 분산 VOD 서버를 위한 Channel Bonding 기반 M-VIA 및 인터벌 캐쉬의 활용 (Utilizing Channel Bonding-based M-n and Interval Cache on a Distributed VOD Server)

  • 정상화;오수철;윤원주;김현필;최영인
    • 정보처리학회논문지A
    • /
    • 제12A권7호
    • /
    • pp.627-636
    • /
    • 2005
  • 본 논문에서는 분산 VOD 서버의 내부 통신망에 발생하는 부하를 줄이기 위해 channel bonding 기반 M-VIA 및 인터벌 캐쉬를 적용하는 방법을 제안한다. 분산 VOD 서버의 각 노드는 클러스터상에 분산 저장된 비디오 데이터를 서버 내부 통신망을 사용하여 전송받아 사용자에게 제공한다. 이 때, 대량의 비디오 데이터가 서버 내부 통신망을 통하여 전송됨으로 서버 내부 통신망에 부하가 증가한다. 본 논문에서는 서버 내부 통신망의 부하를 감소시키기 위해서 두 가지 기법을 적용하였다. 첫째, channel bonding을 지원하는 M-VIA를 개발하여 Gigabit Ethernet기반 서버 내부 통신망에 적용하였다. M-VIA는 TCP/IP의 통신 오버헤드를 제거한 사용자 수준 통신 프로토콜로 통신에 소요되는 시간을 감소시켜준다. 이러한 M-VIA에 복수개의 네트워크 카드를 사용하여 통신이 가능하게 하는 channel bonding 기법을 적용함으로써 서버 내부 통신망 자체의 대역폭을 증가시켰다. 두번째, 인터벌 캐쉬 기법을 적용하여 원격 서버 노드에서 전송 받은 비디오 데이터를 지역 노드의 메인 메모리에 캐쉬함으로써, 서버 내부 통신망에 발생하는 통신량을 감소시켰다. 실험을 통하여 분산 VOD 서버의 성능을 측정하였으며, TCP/IP에 기반하고 인터벌 캐쉬를 지원하지 않는 기존의 분산 VOD 서버와 성능을 비교하였다. 실험결과, channel bonding 기반 M-VIA의 적용으로 약$20\%$의 성능 향상, 그리고 인터벌 캐쉬 기법을 적용하여 추가로 약 $10\%$의 성능 향상이 생겨 총 $30\%$의 성능 향상을 얻을 수 있었다.

캐쉬메카니즘을 이용한 시맨틱 스키마 데이터 처리 (Semantic schema data processing using cache mechanism)

  • 김병곤;오성균
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권3호
    • /
    • pp.89-97
    • /
    • 2011
  • 네크워크상의 분산되어 있는 정보를 접근하는 온톨로지와 같은 시맨틱 웹 정보 시스템에서는 효율적인 질의 처리를 위하여 질의 응답 시간을 줄여주는 향상된 캐쉬 메카니즘을 필요로 한다. 특히, P2P 네트워크 시스템은 웹 환경의 기본적인 하부 구조를 이루고 있으며, 질의가 발생하면, 소스 피어(Peer)로의 데이터 전송량을 줄이는 문제가 효율적인 질의 처리의 중요한 부분이다. 전통적인 데이터베이스 캐쉬 메카니즘으로부터 현재의 웹 환경에 적합한 질의 메카니즘들이 연구되어 왔으며, 질의 처리 결과를 캐쉬하는 것은 입력 질의 요구를 빠른 시간에 바로 사용자에게 전달할 수 있다. 웹 환경에서는 시맨틱 캐싱 방법이 연구되어 왔으며, 이는 캐쉬를 의미적인 영역들로 이루어진 공간으로 관리하는 개념이며, 논리적인 캐싱 단위가 질의와 질의 결과이므로 웹 환경에서 적합한 개념이다. 본 연구에서는 온톨로지와 같은 시맨틱 웹 정보가 클러스터 단위로 여러 피어에 분산되어 있는 경우에 캐쉬 메카니즘을 이용하여 효율적인 질의 처리가 이루어지도록 하는 방법을 제시한다. 특히, 캐쉬를 유지하고 처리하는 방법으로 스키마를 이용한 캐쉬 데이터 필터링 방법과 온톨로지와 질의 결과의 유사도를 측정하여 캐쉬 대체 영역 선택에 사용하는 방법을 제시한다.