• Title/Summary/Keyword: 네트워크 캐쉬

Search Result 95, Processing Time 0.027 seconds

A Forwarding Pointer-Based Cache Strategy for User Location Management in PCS Networks (PCS 네트워크의 사용자 위치 관리를 위한 포워딩 포인터 기반 캐쉬 기법)

  • 공기식;한연희;길준민;송의성;황종선
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04a
    • /
    • pp.157-159
    • /
    • 2001
  • 최근 이동 단말 사용자의 수가 급증함에 따라 네트워크 트래픽을 줄여 신속한 호 설정을 가능하게 하는 것이 중요하게 되었다. 이러한 목적을 달성하기 위하여, 빈번하게 호 요청을 하는 이동 단말들에 대해서는 캐쉬를 사용하는 기법이 제안되었다. 그러나, 기존의 캐쉬 기법은 낮은 캐쉬 실패와, 캐쉬 실패 발생시 불필요한 네트워크 지연을 초래하는 문제점이 있다. 본 논문에서는 이동 단말 사용자들이 이동 지역성을 가진다는 점을 이용하여 캐쉬 실패가 발생하더라도 HLR까지 질의하지 않고 포워딩 포인터를 따라 인접 VLR들을 질의하게 함으로써 시스템 전반적으로 위치 질의 비용을 줄여 신속한 호 설정을 가능하게 한다. 이는 HLR로 집중되는 네트워크 트래픽을 감소시켜 PCS 네트워크 사용자들에게 보다 나은 QoS를 제공하는데 이용될 수 있다. 아울러 제안하는 기법이 기존의 위치 관리 기법들보다 위치 관리비용 측면에서 보다 효율적임을 수학적 성능 분석 모델을 통하여 보인다.

Design and Performance of a CC-NUMA Prototype Card for SCI-Based PC Clustering (SCI 기반 PC 클러스터링을 위한 CC-NUMA 프로토타입 카드의 설계와 성능)

  • Oh, Soo-Cheol;Chung, Sang-Hwa
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.29 no.1
    • /
    • pp.35-41
    • /
    • 2002
  • It is extremely important to minimize network access time in constructing a high-performance PC cluster system For an SCI based PC cluster it is possilbe to reduce the network access time by maintaining network cache in each cluster node, This paper presents a CC-NUMA card that utilizes network cache for SCI based PC clustering The CC-NUMA card is directly plugged into the PCI solot of each node, and contains shared memory network cache, and interconnection modules. The network cache is maintained for the shared memory on the PCI bus of cluster nodes. The coherency mechanism between the network cache and the shared memory is based on the IEEE SCI standard. A CC-NUMA prototype card is developed to evaluate the performance of the system. According to the experiments. the cluster system with the CC-NUMA card showed considerable improvements compared with an SCI based clustser without network cache.

Cache Management Method for Query Forwarding Optimization in the Grid Database (그리드 데이터베이스에서 질의 전달 최적화를 위한 캐쉬 관리 기법)

  • Shin, Soong-Sun;Jang, Yong-Il;Lee, Soon-Jo;Bae, Hae-Young
    • Journal of Korea Multimedia Society
    • /
    • v.10 no.1
    • /
    • pp.13-25
    • /
    • 2007
  • A cache is used for optimization of query forwarding in the Grid database. To decrease network transmission cost, frequently used data is cached from meta database. Existing cache management method has a unbalanced resource problem, because it doesn't manage replicated data in each node. Also, it increases network cost by cache misses. In the case of data modification, if cache is not updated, queries can be transferred to wrong nodes and it can be occurred others nodes which have same cache. Therefore, it is necessary to solve the problems of existing method that are using unbalanced resource of replica and increasing network cost by cache misses. In this paper, cache management method for query forwarding optimization is proposed. The proposed method manages caches through cache manager. To optimize query forwarding, the cache manager makes caching data from lower loaded replicated node. The query processing cost and the network cost will decrease for the reducing of wrong query forwarding. The performance evaluation shows that proposed method performs better than the existing method.

  • PDF

A Route Cache Management Scheme for Load Balancing In Mobile Ad Hoc Networks (모바일 애드혹 네트워크에서 로드 밸런싱을 위한 경로캐쉬 정보 관리 기법)

  • Kim, Young-Duk;Yoo, Hong-Seok;Yang, Yeon-Mo
    • Proceedings of the KIEE Conference
    • /
    • 2007.10a
    • /
    • pp.211-212
    • /
    • 2007
  • 최근 자가 구성이 가능한 모바일 애드 혹 네트워크상에서 통신을 지원하기 위하여 DSR, AODV등 많은 On Demand 라우팅 프로토콜들이 제안되었다. 이들 라우팅 프로토콜들은 경로탐색과정에서 Route Request(RREQ) 패킷을 브로드캐스트하여 목적 노드로부터 Route Reply(RREP) 패킷을 받음으로써 라우팅 경로를 설정한다. 이때 경로탐색의 지연을 최소로 줄이고자 과거 경로탐색 정보 및 라우팅 정보를 경로캐쉬에 저장하여, 중간노드에서 RREP를 대신 보낼 수 있다. 이러한 캐쉬 기법은 간단하면서 매우 효율적인 방법이지만, 캐쉬 정보가 잘못된 경우 불필요한 지연을 일으킨다. 더욱이 캐쉬 정보를 이용할 경우, 특정 노드에게 보내는 데이터가 집중되는 문제가 발생하여 혼잡의 원인이 된다. 본 논문에서는 이러한 혼잡을 해결하고자 캐쉬 정보를 동적으로 관리하여, 혼잡의 원인이 되는 RREP를 억제하고자 한다. 이를 위하여 혼잡 임계값 및 파라미터를 정의한다. 마지막으로 실험을 통하여 네트워크 트래픽이 많을 경우 제안된 기법을 적용했을 때, 더 우수한 성능을 가짐을 보인다.

  • PDF

Implementation of a cache performance analyzer for roadside network based on SMPL (SMPL을 이용한 노변 네트워크 캐쉬 성능 분석기의 구현)

  • Lee, Junghoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.04a
    • /
    • pp.1045-1046
    • /
    • 2009
  • 본 논문에서는 이산 이벤트 시뮬레이터인 SMPL을 이용하여 노변 네트워크에서의 데이터 처리에 따르는 데이터 캐쉬 성능분석기를 구현한다. 구현된 성능분석기는 SMPL의 요청 도착과 서비스 사건 처리를 기본 골격으로 하여 실제 차량의 궤적 데이터에 기반한 데이터 요청 생성부와 큐잉 정책과 캐쉬 정책을 선택할 수 있는 정책 처리부 등으로 구성된다. 이 분석기는 서비스율, 해당 정책, 캐쉬의 크기 등의 수행인자를 설정하여 이에 따르는 큐 길이의 분포, 캐쉬의 히트율, 요청 처리시간의 분포 등을 측정할 수 있도록 한다. 추정된 성능 요소를 기반으로 노변 네트워크에 기반한 차량 텔레매틱스 시스템에서 RSU(RoadSide Unit)의 배치, 성능 요구사항 분석, 새로운 큐잉 정책과 캐쉬 정책의 설계 등 다양한 응용이 가능하다.

Design and Implementation of an SCI-Based Network Cache Coherent NUMA System for High-Performance PC Clustering (고성능 PC 클러스터 링을 위한 SCI 기반 Network Cache Coherent NUMA 시스템의 설계 및 구현)

  • Oh Soo-Cheol;Chung Sang-Hwa
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.31 no.12
    • /
    • pp.716-725
    • /
    • 2004
  • It is extremely important to minimize network access time in constructing a high-performance PC cluster system. For PC cluster systems, it is possible to reduce network access time by maintaining network cache in each cluster node. This paper presents a Network Cache Coherent NUMA (NCC-NUMA) system to utilize network cache by locating shared memory on the PCI bus, and the NCC-NUMA card which is core module of the NCC-NUMA system is developed. The NCC-NUMA card is directly plugged into the PCI slot of each node, and contains shared memory, network cache, shared memory control module and network control module. The network cache is maintained for the shared memory on the PCI bus of cluster nodes. The coherency mechanism between the network cache and the shared memory is based on the IEEE SCI standard. According to the SPLASH-2 benchmark experiments, the NCC-NUMA system showed improvements of 56% compared with an SCI-based cluster without network cache.

Performance Analysis of PC Cluster-based CC-NUMA System using Execution-driven Simulation (실행주도 시뮬레이션에 의한 PC 클러스터 기반 CC-NUMA 시스템 성능분석)

  • Ha, Chi-Jeong;Jeong, Sang-Hwa;O, Su-Cheol
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.28 no.4
    • /
    • pp.188-195
    • /
    • 2001
  • 본 논문에서는 PC 클러스터 기반 CC-NUMA 시스템을 제안하고, 시뮬레이션을 통하여 성능을 분석하였다. PC 클러스터 기반 CC-NUMA 시스템은 PC의 PCI slot에 CC-NUMA 카드를 장착함으로써 구현되며 공유메모리, 네트워크 캐쉬, 네트워크 제어 모듈을 포함한다. CC-NUMA 시스템은 PCI 버스상에 존재하는 메모리를 공유대상으로 하며, 공유메모리와 네트워크 캐쉬사이의 일관성은 IEEE SCI 표준에 의해 유지된다. CC-NUMA 시스템을 시뮬레이션 하기 위해 실행주도 시뮬레이터인 Limes를 수정하여 사용하였으며, 캐쉬 일관성 유지 알고리즘으로 SCI의 typical set을 구현하였다. 또한 기존 시스템과의 비교를 위해서 네트워크 캐쉬를 활용하지 않는 Dolphin사의 PCI-SCI 카드에 기반한 NUMA 시스템을 시뮬레이션 하였다. CC-NUMA 시스템의 성능을 측정하기 위하여 다양한 실험을 수행하였으며, 실험결과 CC-NUMA 시스템이 NUMA 시스템에 비해서 성능향상이 우수함을 알 수 있었다. 또한, CC-NUMA 시스템이 최적의 성능을 발휘하는 파라미터의 값을 도출하였으며, 이를 CC-NUMA 시스템의 실제 구현에 반영하였다.

  • PDF

A Scalable Cache Group Configuration Policy using Role-Partitioned Cache (캐쉬의 역할 구분을 이용한 확장성이 있는 캐쉬 그룹 구성 정책)

  • 현진일;민준식
    • The Journal of the Korea Contents Association
    • /
    • v.3 no.3
    • /
    • pp.63-73
    • /
    • 2003
  • Today, in exponential growth of internet, the importance of file caching which could reduce the sun load, the volume of network traffic, and the latency of response has emerged. Actually, in one network, the traffic has reduced by using the cache and this means that file caching can improve the internet environment by cost a fraction of link upgrades. In this paper, we address a dynamic cache group configuration policy, to solve the scalable problem. The simulation result shows that the cache group using our proposal policy reduces the latency of response time and it means that out cache group configuration is more scalable than the static cache configuration.

  • PDF

A Study on data cache locking policy for Packet Filtering System's performance improvement (패킷 여과 시스템의 성능 향상을 위한 데이터 캐쉬 잠금 방안 연구)

  • Cho, Hak-Bong;Choi, Chang-Seok;Moon, Jong-Wook;Jung, Gi-Hyun;Choi, Kyung-Hee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2003.11a
    • /
    • pp.435-438
    • /
    • 2003
  • 오늘날 네트워크 보호를 위해 firewall 과 같은 패킷 여과 시스템이 많이 보급되어 있다. 이러한 시스템에서는 해당 패킷의 생사 및 진행방향을 정할 수 있는 Rule 이 다수 존재하며, 각 패킷에 해당하는 Rule 을 검색하는 시간은 전체 네트워크의 응답시간을 지연시킨다. 더불어 해당 네트워크의 병목현상을 일으키는 주범이 될 수 있다. 본 논문에서는 데이터 캐쉬 잠금 방법을 활용한 네트워크 프로세서를 모델로, 캐쉬 잠금을 이용해 패킷 여과 Rule 의 접근 시간을 줄일 수 있는 파라미터를 찾고 수식화하며 Simulation 을 통해 효용성을 검토해 본다.

  • PDF

A Design of Efficient Cache Management Scheme Using Meta Information in the Web (메타정보를 이용한 웹에서의 효율적인 캐쉬 관리 기법의 설계)

  • 한지영;윤성대
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2003.11b
    • /
    • pp.1039-1042
    • /
    • 2003
  • 웹 정보의 급격한 양적 팽창은 네트워크 병목 현상과 사용자의 지연시간 증가 및 웹 서버의 과부하 등의 문제를 야기하고 있다. 이를 완화시키기 위한 방법으로 웹 캐슁이 이용되는데, 전통적인 캐슁과는 달리 문서의 종류와 크기가 가변적이며 많은 사용자의 요구를 처리해야하는 특성이 있다. 따라서 본 논문에서는 동적인 웹 환경과 한정된 크기의 웹 캐쉬 공간의 사용 효율을 향상시켜 캐쉬 적중률을 증가시키기 위한 방법으로, 서비스되는 각 파일의 메타정보를 Main Server의 캐쉬에 리스트 형태로 유지하는 CRBM(Client Request Buffer Manager)을 제안한다.

  • PDF