• Title/Summary/Keyword: Data caching

Search Result 222, Processing Time 0.028 seconds

LOB 캐쉬를 위한 SQL CLI의 확장 (Extending SQL CLI for Large Object Caching)

  • 이종민;강현철
    • 정보처리학회논문지D
    • /
    • 제8D권1호
    • /
    • pp.1-9
    • /
    • 2001
  • SQL CLI(Call Level Interface)는 클라이언트-서버 환경에서 적합한 데이타베이스 응용 프로그래밍 인터페이스(API)로서 ODBC, JDBC 등의 업계 표준이 여러 응용 분야에 걸쳐 널리 사용되고 있다. 그러나 현재의 표준안에서는 멀티미디어 데이타와 같은 대용량 데이타를 효율적으로 검색하기 위한 기능을 다양하게 제공해주지 못하고 있다. 본 논문에서는 멀티미디어 데이타를 구성하는 LOB(Large OBject)의 효율적 검색을 위하여 SQL CLI상에서 LOB의 캐쉬를 제안하고, 이를 위한 SQL CLI의 확장을 제안한다. 제안한 내용을 한국전자통신연구원에서 개발한 바다-II DBMS를 위한 SQL CLI 라이브러리 상에 구현하며, 실험을 통하여 캐쉬로부터의 LOB 검색 성능을 기존의 SQL CLI 표준 사양에 따른 LOB 검색의 성능과 비교 평가한다.

  • PDF

분산 디렉토리 시스템에서의 원격 질의에 대한 캐싱 기법 (A Caching Mechanism for Remote Queries in Distributed Directory Systems)

  • 이강우
    • 한국정보처리학회논문지
    • /
    • 제7권1호
    • /
    • pp.50-56
    • /
    • 2000
  • 본 논문에서는 분산 디렉토리 시스템에서 질의 처리 속도를 향상시키기 위하여 원격지의 객체에 대한 질의와 결과를 요청지의 캐시에 저장하는 캐싱 메카니즘을 제안한다. 이를 위하여 첫째, 분산 디렉토리 시스템에 저장되는 캐시 정보를 응용 데이터 정보, 시스템 데이터 정보로 분류하고, 분류된 캐시 정보를 기반으로 캐시 시스템 구조를 설계하였다. 둘째, 각각의 캐시에 대한 거리 정보와 접근 회수를 가중치로 부여한 최소-TTL 대체 기법을 개발하였다. 마지막으로 제안된 캐시 기법과 타 기법(LRU, LFU 대체 기법)에 대하여 성능 평가를 수행하여 제안된 기법이 LRU 기법 보다 25%의 성능향상을 보였으며, LFU 기법보다는 30%의 성능향상 결과를 보였다.

  • PDF

가상화 환경 IoT 게이트웨이의 성능 향상을 위한 SSD 캐시 기법 (SSD Caching for Improving Performance of Virtualized IoT Gateway)

  • 이동우;엄영익
    • 정보과학회 논문지
    • /
    • 제42권8호
    • /
    • pp.954-960
    • /
    • 2015
  • 스토리지는 응용 프로그램의 성능에 가장 큰 영향을 주므로 가상화된 IoT 게이트웨이를 사용 한 홈 클라우드 환경에서 매우 중요하다. 스토리지의 성능 향상을 위해 SSD와 같은 고성능의 디스크를 캐시로 사용해 왔으나 취약한 쓰기 성능과 제한된 셀 수명 문제로 인해 주로 읽기 전용 캐시로 사용하였다. 그러나 사용자 응용의 성능 향상을 위해서는 읽기 작업뿐만 아니라 쓰기 작업의 성능도 매우 중요하다. 본 논문은 이러한 환경에서 읽기 및 쓰기에 모두 사용 가능한 새로운 SSD 캐시 기법을 제안한다. 실험을 통해 본 캐시 기법이 응용 프로그램의 임의 쓰기 작업을 순차적 동작으로 변환시켜 성능 향상을 이룰 수 있음을 확인하였다.

센서 네트워크에서 Event-driven 데이터의 신뢰성 있는 전송 및 버퍼 관리 기법 (A Reliable Transmission and Buffer Management Techniques of Event-driven Data in Wireless Sensor Networks)

  • 김대영;조진성
    • 한국통신학회논문지
    • /
    • 제35권6B호
    • /
    • pp.867-874
    • /
    • 2010
  • 무선 센서 네트워크에서는 멀티 홉 전송동안 높은 패킷 손실률이 발생하기 때문에 신뢰성 있는 데이터 전송방안이 필요하다. 특히, 화재 경보 시스템과 같은 event-driven 데이터가 발생하는 경우, 신뢰성 있는 데이터 전송을 위해서는 손실된 패킷을 복원하기 위한 재전송 방안이 제공되어야 한다. 손실된 데이터의 재전송은 데이터를 캐쉬하고 있는 노드에 요청이 되기 때문에, 데이터를 캐쉬하고 있는 노드는 모든 데이터 패킷을 버퍼에서 유지하고 있어야 한다. 그러나 일반적으로 센서 네트워크의 노드들은 제한된 자원을 가지 있다. 따라서 신뢰성 있는 데이터 전송을 위해서는 손실 패킷의 재전송 방안과 노드의 버퍼 관리 기법이 함께 제공되어야 한다. 본 논문에서는 전송 데이터의 신뢰도에 따라 데이터의 캐쉬지점을 결정하여 손실된 데이터를 복원하는 손실 복원 기법을 사용하는 데이터 전송에서의 효율적인 버퍼 관리기법을 제안하고, 컴퓨터 시뮬레이션을 통하여 제안하는 방안의 우수성을 검증하였다.

T-Cache: 시계열 배관 데이타를 위한 고성능 캐시 관리자 (T-Cache: a Fast Cache Manager for Pipeline Time-Series Data)

  • 신제용;이진수;김원식;김선효;윤민아;한욱신;정순기;박세영
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제13권5호
    • /
    • pp.293-299
    • /
    • 2007
  • 지능형 배관 검사체(PIG)는 가스나 기름 배관 안을 지나가며 검사체에 장착된 여러 센서로부터 신호(센서 데이타로 불림)들을 취합하는 장치이다. PIG로부터 취합된 센서데이타들을 분석함으로써, 배관의 구멍, 뒤틀림 또는 잠재적으로 가스 폭발의 위험을 가지고 있는 결함들을 발견할 수 있다. 배관의 센서 데이타를 분석가가 분석을 할 때에는 주로 두 가지 분석 패턴을 사용한다. 첫 번째는 센서 데이터를 순차적으로 분석하는 순차적 분석 패턴이고, 두 번째는 특정한 구간을 반복해서 분석하는 반복적 분석 패턴이다. 특히, 센서 데이타를 분석할 때 반복적 분석 패턴이 많이 사용된다. 기존의 PIG 소프트웨어들은 사용자의 요청이 있을 때 마다 서버로부터 센서 데이타들을 오므로, 매 요청마다 네트워크 전송비용과 디스크 액세스 비용이 든다. 이와 같은 방법은 순차적 분석 패턴에는 효율적이지만, 분석 패턴의 대부분을 차지하는 반복적 분석 패턴에는 비효율적이다. 이와 같은 문제는 서버/클라이언트 환경에서 다수의 분석가가 동시에 분석을 할 경우에는 매우 심각해진다. 이러한 문제점을 해결하기 위해 본 논문에서는 배관 센서 데이타들을 여러 개의 시계열 데이타로 생각하고, 효율적으로 시계열 데이타를 캐싱 하는 T-Cache라 부르는 주기억장치 고성능 캐시 관리자를 제안한다. 본 연구는 클라이언트 측에서 시계열 데이타를 캐싱하는 최초의 연구이다. 먼저, 고정된 거리의 시계열 데이타들의 집합을 캐싱 단위로 생각하는 신호 캐시 라인이라는 새로운 개념을 제안하였다. 다음으로, T-Cache에서 사용되는 스마트 커서와 여러 알고리즘을 포함하는 여러 가지 자료구조를 제안한다. 실험 결과, 반복적 분석 패턴의 경우 T-Cache를 사용하는 것이 디스크 I/O측면과 수행 시간 측면에서 월등한 성능 향상을 보였다. 순차적 분석 패턴의 경우에도 T-Cache를 사용하지 않은 경우와 거의 유사한 성능을 보였다. 즉, 캐시를 사용함으로써 발생하는 추가비용은 무시할 수 있음을 보였다.

Cache-Filter: A Cache Permission Policy for Information-Centric Networking

  • Feng, Bohao;Zhou, Huachun;Zhang, Mingchuan;Zhang, Hongke
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권12호
    • /
    • pp.4912-4933
    • /
    • 2015
  • Information Centric Networking (ICN) has recently attracted great attention. It names the content decoupling from the location and introduces network caching, making the content to be cached anywhere within the network. The benefits of such design are obvious, however, many challenges still need to be solved. Among them, the local caching policy is widely discussed and it can be further divided into two parts, namely the cache permission policy and the cache replacement policy. The former is used to decide whether an incoming content should be cached while the latter is used to evict a cached content if required. The Internet is a user-oriented network and popular contents always have much more requests than unpopular ones. Caching such popular contents closer to the user's location can improve the network performance, and consequently, the local caching policy is required to identify popular contents. However, considering the line speed requirement of ICN routers, the local caching policy whose complexity is larger than O(1) cannot be applied. In terms of the replacement policy, Least Recently Used (LRU) is selected as the default one for ICN because of its low complexity, although its ability to identify the popular content is poor. Hence, the identification of popular contents should be completed by the cache permission policy. In this paper, a cache permission policy called Cache-Filter, whose complexity is O(1), is proposed, aiming to store popular contents closer to users. Cache-Filter takes the content popularity into account and achieves the goal through the collaboration of on-path nodes. Extensive simulations are conducted to evaluate the performance of Cache-Filter. Leave Copy Down (LCD), Move Copy Down (MCD), Betw, ProbCache, ProbCache+, Prob(p) and Probabilistic Caching with Secondary List (PCSL) are also implemented for comparison. The results show that Cache-Filter performs well. For example, in terms of the distance to access to contents, compared with Leave Copy Everywhere (LCE) used by Named Data Networking (NDN) as the permission policy, Cache-Filter saves over 17% number of hops.

클라이언트/서버 환경에서 효율적인 공간질의 처리를 위한 데이터 캐싱과 변경에 관한 연구 (A Study on Data Caching and Updates for Efficient Spatial Query Processing in Client/Server Environments)

  • 문상호
    • 한국정보통신학회논문지
    • /
    • 제7권6호
    • /
    • pp.1269-1275
    • /
    • 2003
  • 본 논문에서는 클라이어언트/서버 환경에서 클라이언트의 공간질의를 효율적으로 처리하기 위한 데이터 캐싱과 캐시된 데이터의 일관성 유지를 다룬다. 이를 위하여 먼저 클라이언트에서 데이터 캐싱을 위하여 실체화된 공간뷰를 이용한다. 그리고 서버의 데이터 변경에 따른 실체화된 클라이언트 뷰의 변경을 위하여 유도관련성을 이용한 점진적 변경 기법을 적용한다. 실체화된 뷰는 클라이언트의 공간질의를 효율적으로 처리 할 수 있지만, 일관성 유지에 대한 오버헤드가 발생한다. 본 논문에서는 효율적인 공간질의 처리를 위하여 서버에서 공간연산자의 비용을 기반으로 질의 수행과 뷰 일관성 유지에 따른 비용식을 제시한다. 이를 기반으로 클라이언트에서 질의 요청시 비용을 평가하여 뷰의 실체화 여부를 서버에서 결정한다. 이 방법은 클라이언트/서버 환경에서 뷰의 실체화와 재수행 방법을 병행함으로써, 클라이언트의 공간질의를 효율적으로 처리할 수 있는 장점을 제공한다.

SBR-k(Sized-based replacement-k) : 데이터 그리드 환경에서 파일 교체 (SBR-k(Sized-base replacement-k) : File Replacement in Data Grid Environments)

  • 박홍진
    • 한국콘텐츠학회논문지
    • /
    • 제8권11호
    • /
    • pp.57-64
    • /
    • 2008
  • 데이터 그리드는 대용량의 데이터 어플리케이션 처리를 위해 지리적으로 분산되어 있는 저장 자원을 제공한다. 대용량을 처리해야 하는 데이터 그리드 환경에서는 기존 웹 캐싱 정책이나 가상 메모리 캐쉬 교체 정책과는 다른 파일 교체 정책이 필요하다. LRU(Least Recently Used)나 LCB-K(Least Cost Beneficial based on K), EBR(Economic-based cache replacement), LVCT(Least Value-based on Caching Time) 같은 기존의 파일 교체 전략은 파일 교체를 위해 추가적인 자원이 필요하거나 미래를 예측해야한다. 본 논문은 이를 해결하기 위해 파일의 크기에 기반하여 파일 교체를 수행하는 SBR-k(Sized-based replacement-k)을 제안한다. 제안된 정책은 불확실한 미래 예측의 부담을 줄이고, 요청된 파일에 대응되는 교체 파일의 개수가 적게 하이 위해 파일 크기를 고려하였다. 성능평가 결과 캐쉬 크기가 작은 경우에 적중률이 비슷하나 캐쉬 크기가 크면 본 논문에서 제시한 정책이 우수함을 보였다.

Content Distribution for 5G Systems Based on Distributed Cloud Service Network Architecture

  • Jiang, Lirong;Feng, Gang;Qin, Shuang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권11호
    • /
    • pp.4268-4290
    • /
    • 2015
  • Future mobile communications face enormous challenges as traditional voice services are replaced with increasing mobile multimedia and data services. To address the vast data traffic volume and the requirement of user Quality of Experience (QoE) in the next generation mobile networks, it is imperative to develop efficient content distribution technique, aiming at significantly reducing redundant data transmissions and improving content delivery performance. On the other hand, in recent years cloud computing as a promising new content-centric paradigm is exploited to fulfil the multimedia requirements by provisioning data and computing resources on demand. In this paper, we propose a cooperative caching framework which implements State based Content Distribution (SCD) algorithm for future mobile networks. In our proposed framework, cloud service providers deploy a plurality of cloudlets in the network forming a Distributed Cloud Service Network (DCSN), and pre-allocate content services in local cloudlets to avoid redundant content transmissions. We use content popularity and content state which is determined by content requests, editorial updates and new arrivals to formulate a content distribution optimization model. Data contents are deployed in local cloudlets according to the optimal solution to achieve the lowest average content delivery latency. We use simulation experiments to validate the effectiveness of our proposed framework. Numerical results show that the proposed framework can significantly improve content cache hit rate, reduce content delivery latency and outbound traffic volume in comparison with known existing caching strategies.

Wireless Ad-hoc Network에서 보안 협력 캐싱 기법에 관한 연구 (A Study on Secure Cooperative Caching Technique in Wireless Ad-hoc Network)

  • 양환석
    • 디지털산업정보학회논문지
    • /
    • 제9권3호
    • /
    • pp.91-98
    • /
    • 2013
  • Node which plays the role of cache server does not exist in the wireless ad-hoc network consisting of only mobile nodes. Even if it exists, it is difficult to provide cache services due to the movement of nodes. Therefore, the cooperative cache technique is necessary in order to improve the efficiency of information access by reducing data access time and use of bandwidth in the wireless ad-hoc network. In this paper, the whole network is divided into zones which don't overlap and master node of each zone is elected. General node of each zone has ZICT and manages cache data to cooperative cache and gateway node use NZCT to manage cache information of neighbor zone. We proposed security structure which can accomplish send and receive in the only node issued id key in the elected master node in order to prepare for cache consistent attack which is vulnerability of distributed caching techniques. The performance of the proposed method in this paper could confirm the excellent performance through comparative experiments of GCC and GC techniques.