• 제목/요약/키워드: Caching Strategy

검색결과 52건 처리시간 0.034초

데이타 방송 시스템에서 클라이언트의 요구정보를 이용한 캐싱 전략들의 성능 (Performance of Caching Strategies using Clients' Request Information in Data Broadcast Systems)

  • 신동천
    • 한국정보과학회논문지:정보통신
    • /
    • 제32권4호
    • /
    • pp.535-542
    • /
    • 2005
  • 무선 컴퓨팅 환경에서 데이타 방송 기법은 다수의 클라이언트에게 데이타를 전송하는 유용한 기법이다. 일반적으로 낮은 대역폭을 갖는 데이타 방송 시스템에서 캐싱은 대역폭에 대한 클라이언트들의 경쟁을 줄임으로써 응답 시간을 향상시키기 위해 도입된다. 본 논문에서는, 클라이언트가 유지하는 정보를 이용하는 기존 연구와 달리 서버가 유지하는 클라이언트의 데이타 요구에 관한 정보를 이용하는 캐싱 전략들을 제시하고 제안한 전략들의 성능을 시뮬레이션을 통하여 평가한다. 성능 평가에 따르면, 서버에서 유지하는 인기도와 대기 시간 정보를 함께 고려하는 전략이 다른 전략들보다 전반적으로 좋은 성능을 보여 주고 있다.

방송 환경에서 데이터 방송을 위한 오브젝트 캐러셀 매니저 및 효율적인 캐싱 기법 제안 (Object Carousel Manager And Caching Strategy For Efficiency System In Data Broadcasting System)

  • 김세창;원재훈;고상원;전제민;김정선
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2007년도 가을 학술발표논문집 Vol.34 No.2 (D)
    • /
    • pp.462-466
    • /
    • 2007
  • 본 논문에서는 데이터 방송 환경에서의 DSM-CC 관련 Object Carousel Manager를 구현하고, 성능향상을 위한 캐싱 기법을 제안한다. Object Carousel Manger 구현은 다음과 같은 순서로 이루어진다. 먼저, 방송스트림에서 해당 PID별로 얻어온 모듈을 캐시에 저장한 후, 모듈에서 BIOP 메세지 오브젝트별로 분석한 뒤 파싱 한다. 그런 후, 파싱된 BIOP 메시지 오브젝트를 해당 서비스 게이트웨이, 디렉터리. 파일로 변환해준다. 마지막으로, 변환된 파일시스템에서 해당하는 Xlet Application을 실행시켜 주게 된다. 시스템성능 향상을 위해서 제안하는 캐싱 기법은 다음과 같다. DII의 Caching Priority Descriptor를 이용하여, Object들을 포함하고 있는 각각의 모듈에 대해서 Version Number를 Checking하는 주기인 Transparency_level을 부여하고, Application 실행 시 보여 주는 화면 순서대로 필요한 모듈에 대해 우선순위를 부여하여, 캐시에 업데이트 시 이를 반영하여, 시스템 전체의 성능을 향상시킨다.

  • PDF

멀티미디어 객체 처리 성능 향상을 위한 웹 캐싱 (A Web Caching for Improvement of Processing Performance on a Multimedia Object)

  • 나윤지;고일석
    • 정보처리학회논문지A
    • /
    • 제11A권7호
    • /
    • pp.469-474
    • /
    • 2004
  • 웹 트래픽의 중가에 따라, 사용자에게 제공되는 웹 객체의 지연이 증가하고 있다. 웹 캐싱 웹 기반 시스템의 성능을 향상시키는 하나의 방법이며, 캐시 저장영역의 효율적인 관리를 위한 많은 연구가 활발히 이루어지고 있다. 웹의 성능을 평가하는 중요한 척도는 사용자가 원하는 웹 객체를 제공하는 속도라 할 수 있다. 또한 웹 캐싱의 중요한 이슈는 웹 객체의 효율적인 관리를 통한 캐싱 시스템의 효율 향상이다. 이를 위한 해결책은 웹 객체의 이질성을 고려한 캐싱 전략을 세우는 것이다. 본 연구에서는 멀티미디어 객체 처리의 성능 항상을 위한 웹 캐싱 기법을 제안한다. 제안 기법은 멀티미디어 객체의 이질성을 기반으로 하고 있으며, 멀티미디어 객체의 캐싱 효율을 높여 캐싱 시스템의 성능을 높이고자 하는 것이다. 또한 실험에서 제안 시스템의 성능 분석을 통해 캐싱 시스템의 성능 향상을 검증하였다.

수요에 따른 교체 우선 순위 기반 모바일 데이터베이스 캐쉬 동기화 정책 (A mobile data caching synchronization strategy based on in-demand replacement priority)

  • 조진화;하영;이순조;배해영
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권2호
    • /
    • pp.13-21
    • /
    • 2012
  • 모바일 데이터 캐슁 기법은 로컬 데이터 전송 과정에서 속도를 향상시키거나 서버의 오버로드를 줄이기 위한 효과적인 기법으로 많이 사용되었고 모바일 컴퓨팅 환경의 저전력, 접속지연 및 간헐적인 인터넷 연결 등의 제약 사항의 해결을 위해 캐싱 기법을 사용하는 다수의연구가 진행되었다. 그러나 최근 스마트폰이 대량 보급되면서 서버 기반 어플리케이션 등 다양한 어플리케이션들에서 모바일 데이터베이스에서 전송해야 되는 데이터 량이 급증하는 등 문제가 발생하고 있으며, 이런 환경에서는 기존 기법들의 사용이 적합하지 않아 어플리케이션의 서버 대기 시간이 길어지는 등 서비스 품질 저하로 연결된다. 본 논문에서는 데이터 캐쉬의 사용률을 높이고 통신횟수를 줄이고 무선 통신망에서의 데이터 전송량을 줄이고 모바일 데이터베이스 시스템의 성능을 향상시키기 위하여 수요에 따른 교체 우선순위기반모바일동기화정책을제안한다. 또한성능평가를통하여제안기법이데이터전송량을줄이고데이터 전송 성공 확률을 향상시켜 모바일 클라이언트가 대량의 데이터의 전송을 요청할 때 데이터 전송 효율이 향상됨을 보인다.

네트워크 동적 참여 기반의 효율적인 피어-투-피어 웹 캐슁 모델 (An Efficient Peer-to-Peer Web Caching Model with the Dynamic Participation of Peers)

  • 류영석;양성봉
    • 한국정보과학회논문지:정보통신
    • /
    • 제32권6호
    • /
    • pp.705-715
    • /
    • 2005
  • P2P(peer-to-peer) 웹 캐슁 모델은 서버 쪽에 집중되는 트래픽을 완화시킴으로써 전통적인 웹 캐슁 모델을 보완할 수 있다는 측면에서 최근에 활발히 연구되어 왔다. P2P 웹 캐슁은 클라이언트들의 로컬 캐쉬를 활용하여 부가적인 인프라의 추가없이 캐쉬 공간이 확대되는 효과를 얻을 수 있지만, 각 클라이언트들은 독립된 피어로서의 자율성(autonomy)을 가지므로 이러한 자율성의 제한을 최소화해야한다. 본 논문에서는 피어의 자율적인 동적 참여와 로컬 캐슁 전략을 보장하여 시스템의 실행 가능성(feasibility)을 높인 환경에서 효율적인 디렉토리 기반 P2P 웹 캐슁 시스템을 제안하였다 제안하는 P2P 웹 캐슁 시스템은 동적인 P2P 네트워크 상에서의 오브젝트의 lifetime을 예상하여 이를 이웃 선택(neighbor selection)과 저장 공간 관리(storage management)에 적용하였다. 시스템의 성능 평가를 위하여 클라이언트의 http 요청 로그 데이터셋을 이용하여 트레이스 기반(trace-driven) 시뮬레이션을 수행하였다. 시뮬레이션 결과를 통하여 제안하는 시스템이 기존의 시스템에 비하여 주어진 동일한 환경에서 더 높은 정확성과 더 적은 리디렉션 실패(redirection failure)를 가짐을 확인하였다.

웹 서버 작업부하 감소를 위한 캐시 정책 (Cache Policies for WWW Sewers to Reduce Workload)

  • 임재현
    • 인터넷정보학회논문지
    • /
    • 제5권6호
    • /
    • pp.103-110
    • /
    • 2004
  • 본 논문에서는 웹 서버 성능에 있어 캐싱 정책의 영향을 분석하고 연구하였다. 새롭게 제안한 파일 타입 기반 캐싱 정책은 캐시안의 크고 작은 파일간에 균형 잡힌 결과를 갖도록 지원하며, 뿐만 아니라 작은 파일과 큰 파일에 대한 요청에 훌륭한 성능을 나타낸다. 본 논문에서는 파일 타입 기반 캐싱이 적중률과 바이트적중률 모두 다 좋은 결과를 나타냄을 보인다.

  • PDF

A Chinese Restaurant Game for Distributed Cooperative Caching in Small Cell Networks

  • Chen, Junliang;Wang, Gang;Wang, Fuxiang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권1호
    • /
    • pp.222-236
    • /
    • 2019
  • Wireless content caching in small cell networks has recently been considered as a promising way to alleviate the congestion of the backhaul in emerging heterogenous cellular network. However, how to select files which are cached in SBSs and how to make SBSs work together is an important issue for cooperative cache research for the propose of reducing file download time. In this paper, a Cooperative-Greedy strategy (CGS) among cache-enabled small base stations (SBSs) in small cell network is proposed, in order to minimize the download time of files. This problem is formulated as a Chinese restaurant game.Using this game model, we can configure file caching schemes based on file popularity and the spectrum resources allocated to several adjacent SBSs. Both the existence and uniquencess of a Nash equilibrium are proved. In the theoretical analysis section, SBSs cooperate with each other in order to cache popular files as many as possible near UEs. Simulation results show that the CGS scheme outperforms other schemes in terms of the file-download time.

Device Caching Strategy Maximizing Expected Content Quality

  • Choi, Minseok
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권1호
    • /
    • pp.111-118
    • /
    • 2021
  • 본 논문에서는 디바이스 캐싱 네트워크에서 다양한 퀄리티의 콘텐츠를 캐싱하는 기술을 제안한다. 하나의 파일을 온전히 캐싱하는 기존 기술들과 다르게, 저자는 콘텐츠의 일부 조각을 캐싱하는 것을 허용하였고, 사용자가 스스로 캐시 히트를 달성할 수 있는 경우를 고려하였다. 캐싱하는 콘텐츠의 퀄리티와 캐시 히트율 간의 트레이드오프를 분석하고, 사용자가 소비하는 콘텐츠의 기대 퀄리티를 최대화하는 디바이스 캐싱 기법을 제안한다. 퀄리티와 파일 크기의 관계 파라미터에 따라 볼록 최적화 문제와 DC programming 문제 두 가지 방식으로 나누어서 캐싱 문제를 풀어냈다. 퀄리티 증가 폭에 비해 파일 크기가 더 빠르게 증가하면, 인기도에 따라 캐싱할 콘텐츠의 부분 조각이 점차 증가하는 반면, 파일 크기가 더 느리게 증가하면, 일부 인기도가 높은 콘텐츠는 전체를 캐싱하고 그렇지 않은 콘텐츠는 아예 캐싱하지 않는 결과를 낸다.

Content-Aware D2D Caching for Reducing Visiting Latency in Virtualized Cellular Networks

  • Sun, Guolin;Al-Ward, Hisham;Boateng, Gordon Owusu;Jiang, Wei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권2호
    • /
    • pp.514-535
    • /
    • 2019
  • Information-centric networks operate under the assumption that all network components have built-in caching capabilities. Integrating the caching strategies of information centric networking (ICN) with wireless virtualization improves the gain of virtual infrastructure content caching. In this paper, we propose a framework for software-defined information centric virtualized wireless device-to-device (D2D) networks. Enabling D2D communications in virtualized ICN increases the spectral efficiency due to reuse and proximity gains while the software-defined network (SDN) as a platform also simplifies the computational overhead. In this framework, we propose a joint virtual resource and cache allocation solution for latency-sensitive applications in the next-generation cellular networks. As the formulated problem is NP-hard, we design low-complexity heuristic algorithms which are intuitive and efficient. In our proposed framework, different services can share a pool of infrastructure items. We evaluate our proposed framework and algorithm through extensive simulations. The results demonstrate significant improvements in terms of visiting latency, end user QoE, InP resource utilization and MVNO utility gain.

HLR 에이전트와 캐쉬 스킴을 이용한 위치 관리 기법 (A Location Management Scheme using HLR Agent and Caching)

  • 최문석;한기준
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2002년도 봄 학술발표논문집 Vol.29 No.1 (A)
    • /
    • pp.466-468
    • /
    • 2002
  • 본 논문에서는 가상의 HLR agent database를 이용해서 다양한 CM을 가지는 단말들에 대해 적용할 수 있는 위치관리 기법을 제안한다. 기존에 제안된 방법들은 단말의 CMR을 특정범위로 제한하고 있다. 표적으로 AS(Anchor Strategy)는 CMR이 낮을 경우 위치등록 용을, caching은 CMR이 높을 경우 호 설정 비용을 줄이는 기법이다. 그러나 현실적으로는 단말의 이동과 호 수신 패턴은 일정치 않다. 기존 기법과 본 논문에서 제안하는 기법간에 성능평가를 위해 다양한 CMR을 가지는 단말들에 대한 시뮬레이션을 수행한 결과, 제안기법은 데이터베이스 접근비용이 다소 증가하지만 전체적으로 15%~20%의 성능향상을 가져올 수 있었다.

  • PDF