• Title/Summary/Keyword: 이웃 캐싱

Search Result 8, Processing Time 0.025 seconds

Performance Increment of Ad Hoc Networks using Neighbor Caching (이웃 캐싱을 이용한 애드혹 망의 성능향상)

  • 조준호;오승택;이준원
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04d
    • /
    • pp.7-9
    • /
    • 2003
  • 애드혹 네트워크 상의 노드들이 서로의 분산된 데이터를 주고 받는 어플리케이션은 멀티 홉 무선 통신의 오버헤드로 인하여 효율성이 떨어진다. 이것을 극복하기 위해서 본 논문은 이웃 캐싱기법을 제안하고, 이 방법이 노드들의 독립적인 캐싱 방법보다 효율적이라는 것을 보이고 있다. 이웃 캐싱은 쉬고 있는 이웃 노드의 저장 공간을 잠시 빌려 봄으로써 캐싱 공간을 확대하고 먼 거리에서 데이터를 가져오는 멀티 홉 무선 통신의 단점을 극복하는 방법이다. 이와 항껜 본 논문에서는 이웃 캐싱을 할 때 노드들 중에서 최적의 이웃 노드를 선별해 내는 우선순위에 근거한 예측기법을 제안하였다. 우선순위에 근거한 예측 기법을 통해 데이터가 가장 오랫동안 보관될 가능성이 높은 이웃 노드를 선별해내고 우선순위가 낮은 데이터를 이웃 캐싱 하지 않을 수 있어서 이웃 캐싱의 효율성을 높일 수 있다.

  • PDF

Neighbor Caching for P2P Applications in MUlti-hop Wireless Ad Hoc Networks (멀티 홉 무선 애드혹 네트워크에서 P2P 응용을 위한 이웃 캐싱)

  • 조준호;오승택;김재명;이형호;이준원
    • Journal of KIISE:Information Networking
    • /
    • v.30 no.5
    • /
    • pp.631-640
    • /
    • 2003
  • Because of multi-hop wireless communication, P2P applications in ad hoc networks suffer poor performance. We Propose neighbor caching strategy to overcome this shortcoming and show it is more efficient than self caching that nodes store data in theirs own cache individually. A node can extend its caching storage instantaneously with neighbor caching by borrowing the storage from idle neighbors, so overcome multi-hop wireless communications with data source long distance away from itself. We also present the ranking based prediction that selects the most appropriate neighbor which data can be stored in. The node that uses the ranking based prediction can select the neighbor that has high possibility to keep data for a long time and avoid caching the low ranked data. Therefore the ranking based prediction improves the throughput of neighbor caching. In the simulation results, we observe that neighbor caching has better performance, as large as network size, as long as idle time, and as small as cache size. We also show the ranking based prediction is an adaptive algorithm that adjusts times of data movement into the neighbor, so makes neighbor caching flexible according to the idleness of nodes

A Caching Technique for P2P Applications in Network based on Gnutella Protocol (Gnutella Protocol 기반 네트워크에서 P2P응용을 위한 캐싱 기법)

  • 김병룡;김기창
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04a
    • /
    • pp.844-846
    • /
    • 2004
  • Gnutella Protocol기반 네트워크에서 상호간 통신 및 검색과 응답과정에서 릴레이와 브로드캐스팅 되는 Query메시지들로 인해 많은 통신 부하를 초래한다. 또한 멀티 홉을 통한 질의 응답과정의 통신 오버헤드로 인해 통신 효율성이 저하된다. 따라서 본 논문에서는 Zipf's law 을 기반으로 한 검색어 캐싱기법을 통해, 검색어 및 검색된 응답 문자열의 빈도수와 랭킹, 그리고 검색된 파일의 크기와의 상관 관계를 얻어 캐싱 정책을 수립하고. 이에 따라 캐싱함과 동시에 캐싱정책을 이웃 peer에게 전과함으로써 전체적인 네트웍에서의 P2P응용 성능을 향상시킬 수 있는 캐싱 기법을 제안한다.

  • PDF

P2P Cooperative Cache Replacement Policy for Web Caching (웹 캐싱을 위한 P2P 협력적인 캐시 교체 정책)

  • Kim, Sang-Hoon;Ryu, Young-Suk;Yang, Sung-Bong
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11a
    • /
    • pp.253-255
    • /
    • 2005
  • P2P 웹 캐싱 기술은 자신의 로컬 캐시에서 원하는 웹 객체를 찾지 못한 경우, 중앙 서버나 프락시 서버로부터 웹 객체를 받기 전에 P2P 네트워크에 참여하는 이웃으로부터 웹 객체를 받음으로써 기존의 서버-클라이언트 방식을 탈피하여 중앙 서버의 고장에 영향을 적게 받고, 중앙 서버로의 과도한 부하를 막아준다. 기존의 많은 P2P 웹 캐싱 시스템은 피어의 로컬 캐시 교체 정책으로 LRU기법을 사용한다. 하지만 이는 P2P 환경을 고려하지 않는 단순한 정책이다. 따라서 본 논문에서는 P2P 환경을 고려한 디렉토리 기반의 웹 캐싱 시스템을 통해서 P2P 협력적인 캐시 교체 정책을 제시하고 실제 웹 로그 트레이스로 시뮬레이션을 하여, 제안하는 교체 정책이 효과가 있음을 기술한다.

  • PDF

Caching Scheme Considering Access Patterns in Graph Environments (그래프 환경에서 접근 패턴을 고려한 캐싱 기법)

  • Yoo, Seunghun;Kim, Minsoo;Bok, Kyoungsoo;Yoo, Jaesoo
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2017.05a
    • /
    • pp.19-20
    • /
    • 2017
  • 최근 소셜 미디어와 센서 장비의 기술의 발달로 그래프 데이터의 양이 급격히 증가 하였다. 그래프 데이터의 처리 과정에서 I/O 비용이 발생하여 데이터가 많아지면 병목현상으로 인해 데이터의 처리와 관리에 있어 성능에 한계가 발생한다. 이러한 문제를 해결하기 위해 데이터를 메모리에서 관리하는 캐시 기법에 대한 연구가 이루어 졌다. 본 논문에서는 서브그래프 데이터의 접근 패턴을 고려한 캐싱 기법을 제안한다. 그래프 환경에서 그래프 질의 이력을 통해 패턴을 찾고 질의 관리 테이블과 FP(frequent pattern)-Tree 통해 선별된 데이터를 메모리에 적재시킨다. 또한, 캐시 실패(cache miss)가 발생 하였을 때, 주변의 이웃 정점을 같이 메모리에 적재시킨다. 메모리가 가득 찰 경우 캐시 된 데이터를 퇴출시키는 교체 전략을 제안한다.

  • PDF

Node ID-based Service Discovery for Mobile Ad Hoc Networks (모바일 애드-혹 네트워크를 위한 노드 ID 기반 서비스 디스커버리 기법)

  • Kang, Eun-Young
    • Journal of the Korea Society of Computer and Information
    • /
    • v.14 no.12
    • /
    • pp.109-117
    • /
    • 2009
  • In this paper, we propose an efficient service discovery scheme that combines peer-to-peer caching advertisement and node ID-based selective forwarding service requests. P2P caching advertisement quickly spreads available service information and reduces average response hop count since service information store in neighbor node cache. In addition, node ID-based service requests can minimize network transmission delay and can reduce network load since do not broadcast to all neighbor node. Proposed scheme does not require a central lookup server or registry and not rely on flooding that create a number of transmission messages. Simulation results show that proposed scheme improved network loads and response times since reduce a lot of messages and reduce average response hop counts using adaptive selective nodes among neighbor nodes compared to traditional flooding-based protocol.

Performance of the Finite Difference Method Using Cache and Shared Memory for Massively Parallel Systems (대규모 병렬 시스템에서 캐시와 공유메모리를 이용한 유한 차분법 성능)

  • Kim, Hyun Kyu;Lee, Hyo Jong
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.50 no.4
    • /
    • pp.108-116
    • /
    • 2013
  • Many algorithms have been introduced to improve performance by using massively parallel systems, which consist of several hundreds of processors. A typical example is a GPU system of many processors which uses shared memory. In the case of image filtering algorithms, which make references to neighboring points, the shared memory helps improve performance by frequently accessing adjacent pixels. However, using shared memory requires rewriting the existing codes and consequently results in complexity of the codes. Recent GPU systems support both L1 and L2 cache along with shared memory. Since the L1 cache memory is located in the same area as the shared memory, the improvement of performance is predictable by using the cache memory. In this paper, the performance of cache and shared memory were compared. In conclusion, the performance of cache-based algorithm is very similar to the one of shared memory. The complexity of the code appearing in a shared memory system, however, is resolved with the cache-based algorithm.

An Efficient Service Discovery for Mobile Ad Hoc Networks (모바일 애드-혹 네트워크를 위한 효율적인 서비스 디스커버리)

  • Kang, Eun-Young
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.34 no.9B
    • /
    • pp.947-954
    • /
    • 2009
  • In mobile ad hoc networks, service discovery to search for an available service is an important issue. In this paper, we propose an efficient service discovery protocol that is combined a dht-based service discovery scheme and a P2P caching-based information spreading scheme. Proposed scheme store key information in hashed zone and search services using it's information. To search quickly a service, it use its physical neighbors information which collected by 1-hop hello message between a node and its physical neighbors. We do not use a central look up server and do not rely on flooding. Hence, it uniquely balanced all node's load in mobile ad hoc networks and reduced the number of messages exchanged, network load and response time. The simulation results show that our protocol outperforms DHT-based and flooding protocols.