• 제목/요약/키워드: Data Caches

검색결과 61건 처리시간 0.023초

데이타베이스 공유 시스템에서 B-트리 인덱스를 위한 캐쉬 일관성 제어 (A Cache Consistency Control for B-Tree Indices in a Database Sharing System)

  • 온경오;조행래
    • 정보처리학회논문지D
    • /
    • 제8D권5호
    • /
    • pp.593-604
    • /
    • 2001
  • 데이타베이스 공유 시스템(Database Sharing System:Dss)은 고성능의 트랜잭션 처리를 위해 제안된 구조이다. DSS에서 고속의 통신망으로 연결된 노드들은 별도의 메모리와 운영체제를 가지며, 데이타베이스를 저장하고 있는 디스크 모든 노드에 의해 공유된다. 빈번한 디스크 액세스를 피하기 위해 각 노드는 최근에 액세스한 데이타 페이지와 인덱스 페이지들을 자신의 메로리 버퍼에 캐싱한다. 일반적으로 B-트리 인덱스페이지들은 데이타 페이지에 비해 빈번하게 캐싱되고, Fetch, Fetch Next, 삽입, 그리고 삭제와 같은 복잡한 연산을 수행하므로, 높은 동시성을 지원하는 효율적인 캐쉬 일관성 기법이 필요하다. 본 논문에서는 DSS에서 B-트리 인덱스 페이지의 식별자와 리프 페이지의 PageLSN을 사용한 캐쉬 일관성 기법을 제안한다.

  • PDF

Leveraging Proxy Mobile IPv6 with SDN

  • Raza, Syed M.;Kim, Dongsoo S.;Shin, DongRyeol;Choo, Hyunseung
    • Journal of Communications and Networks
    • /
    • 제18권3호
    • /
    • pp.460-475
    • /
    • 2016
  • The existing Proxy Mobile IPv6 suffers from a long handover latency which in turn causes significant packet loss that is unacceptable for seamless realtime services such as multimedia streaming. This paper proposes an OpenFlow-enabled proxy mobile IPv6 (OF-PMIPv6) in which the control of access gateways is centralized at an OpenFlow controller of a foreign network. The proposed OF-PMIPv6 separates the control path from the data path by performing the mobility control at the controller, whereas the data path remains direct between a mobile access gateway and a local mobility anchor in an IP tunnel form. A group of simple OpenFlow-enabled access gateways performs link-layer control and monitoring activities to support a comprehensive mobility of mobile nodes, and communicates with the controller through the standard OpenFlow protocol. The controller performs network-layer mobility control on behalf of mobile access gateways and communicates with the local mobility anchor in the Proxy Mobile IPv6 domain. Benefiting from the centralized view and information, the controller caches the authentication and configuration information and reuses it to significantly reduce the handover latency. An analytical analysis of the proposed OF-PMIPv6 reactive and proactive handover schemes shows 43% and 121% reduction in the handover latency, respectively, for highly utilized network. The results gathered from the OF-PMIPv6 testbed suggest similar performance improvements.

u-GIS 환경에서 효율적인 공간 정보 유통을 위한 S-XML 변환 기법 (S-XML Transformation Method for Efficient Distribution of Spatial Information on u-GIS Environment)

  • 이동욱;백성하;김경배;배해영
    • 한국공간정보시스템학회 논문지
    • /
    • 제11권1호
    • /
    • pp.55-62
    • /
    • 2009
  • u-GIS 환경에서는 센서 네트워크를 통해 필요한 공간 데이터를 수집하고 이를 실시간 처리 및 가공 또는 기 저장되어 있는 정보와 함께 유통된다. 웹 기반 응용서비스 등에서 인터넷 망을 통한 정보가 요청되는 경우 표준 문서인 XML로 전달된다. 특히 요청되는 정보에 공간 데이터가 포함되는 경우 공간데이터 처리가 가능한 GML, S-XML 등의 문서가 사용된다. 이 과정에서 DSMS에서와 같이 실시간 처리된 스트림데이터는 S-XML 문서 형태로 변환되고, 웹 기반의 공간정보 응용서비스는 인터넷 망을 통해 S-XML 문서를 전달받는다. 대부분의 공간정보 응용서비스는 저장시스템으로 기존의 공간 데이터베이스 관리 시스템을 사용하기 때문에 S-XML 데이터와 SDBMS에서 사용되는 데이터간의 상호 변환과정이 필요하다. 본 논문에서는 공간 데이터의 캐싱을 이용한 S-XML 변환 기법을 제안한다. 제안 기법은 공간 정보유통을 위한 S-XML과 관계형 공간 데이터베이스와의 효율적인 변환을 위해, S-XML에서 공간 데이터에 해당하는 부분을 캐싱하고, 동일 지역의 공간데이터에 대한 변환이 요구될 경우 캐시 데이터를 재사용하여 별도의 변환 비용 없이 변환한다. 제안 기법을 통해 u-GIS 환경에서 공간정보의 유통을 위한 S-XML 문서와 이를 이용하는 웹 기반 공간정보 응용서비스 사이의 변환 비용을 감소하였으며, 성능평가를 통하여 질의 처리 성능이 향상됨을 보인다.

  • PDF

분산공유 메모리 시스템을 위한 동적 제한 디렉터리 기법 (Dynamic Limited Directory Scheme for Distributed Shared Memory Systems)

  • 이동광;권혁성;최성민;안병철
    • 한국정보처리학회논문지
    • /
    • 제6권4호
    • /
    • pp.1098-1105
    • /
    • 1999
  • 분산 공유 메모리(distributed shared memory) 시스템에서 캐쉬는 메모리 접근 지연과 통신 부하 줄임으로 성능을 향상시킬 수 있으나 캐쉬일관성 문제를 해결하여야 한다. 본 논문은 DSM 시스템에서 캐쉬일관성 문제를 해결하고 성능을 향상시킬 수 있는 새 디렉터리 프로토콜을 제안한다. 캐시 일관성을 유지하기 일정거리 이내에 있는 처리기는 전체 디렉터리 기법처럼 비트 벡터를 사용하여 통신 오버헤드를 줄일 수 있다. 그리고 일정거리 이상에 있는 처리기는 포인터를 디렉터리 풀에 저장한다. 이 비트 벡터와 디렉터리 풀의 사용은 불필요한 캐쉬 무효화를 방지하므로 시스템의 성능을 향상시킬 수 있다. 제안한 기법은 제한 디렉터리 기법보다 통행량을 66%까지 줄일 수 있으며 동적할당 디렉터리 기법보다 디렉터리 접근 회수도 27%까지 각각 줄일 수 있다.

  • PDF

모바일 아이피에서 개선된 캐싱 에이전트와 CoA 풀을 사용한 빠른 핸드오프 기법 (Fast Handoff Technique using Improved Cashing Agent and CoA Pool in Mobile IP)

  • 이장수;김성천
    • 대한전자공학회논문지TC
    • /
    • 제45권2호
    • /
    • pp.75-82
    • /
    • 2008
  • 모바일 아이피는 무선 모바일 노드의 이동성에 따른 기존 아이피 주소 체계의 고유성 보장 문제를 해결하고자 제안되었다. 네트워크 레이어에서의 핸드오프는 모바일 광고 메시지를 수신하게 됨으로써 완료되는데, 메시지 광고 주기는 지연 시간과 밀접한 관련을 가지게 된다. 일반적으로 평균 500ms의 큰 지연시간을 발생시키게 되며 인터넷 전화나 멀티미디어 스트리밍 서비스와 같은 경우에 치명적인 문제로 작용할 수 있다. 기존의 기법에서는 최근의 모바일 광고 메시지를 저장하고 있는 캐싱 에이전트의 리플레잉 정책에 의하여 핸드오프 지연 시간을 감소시켰지만, 모바일 아이피 등록 과정 동안의 패킷 손실과 지연 시간 증가의 문제점을 가지고 있다. 본 논문에서는 위와 같은 문제를 해결하고자 캐싱 에이전트를 개선해 핸드오프 완료 전에 데이터 포워딩이 가능하도록 하였고, 또한 빠른 모바일 아이피 등록을 위해 CoA풀을 도입하여 핸드오프 지연 효과를 감소하는 기법을 제안하였다.

DVD 쥬크박스 기반의 계층적 VOD 서버 구성을 위한 파이프라인 로딩 기법 (A Pipelined Loading Mechanism for a Hierarchical VOD Server Based on DVD Jukebox)

  • 최황규
    • 한국컴퓨터산업학회논문지
    • /
    • 제3권3호
    • /
    • pp.391-406
    • /
    • 2002
  • 최근 관심을 끌고 있는 VOD 시스템을 현실적으로 실현 가능하게 하기 위해서는 대용량 멀티미디어 정보를 장기적으로 저장할 수 있도록 저가이면서 저장 용량이 큰 3차 저장장치를 사용하는 계층적 VOD 서버를 필요로 한다. 본 논문은 이러한 계층적 VOD 서버를 저가의 대용량 DVD 쥬크박스를 온라인 저장장치로 사용하여 구성하고, 여러 개의 스트림들을 적당한 시간을 주기로 드라이브들을 교대로 활용하게 함으로써 서비스 스트림을 최대화함으로써 효율을 높일 수 있다. 그러나 DVD 쥬크박스 내에서 하나의 스트림이 저장된 DVD-ROM의 교환은 상대적으로 긴 시간을 요구하므로 본 논문에서는 DVD 쥬크박스를 기반으로 한 VOD 서버에서 DVD-ROM의 교환시간을 은폐하면서 효율적인 데이터 전송을 지원 할 수 있는 파이프라인 로딩 기법을 제안한다. 또한 디스크를 캐쉬로 사용하여 스트림의 초기 일부분을 미리 디스크 캐쉬에 적재하여 놓음으로써 최대허용 스트림 수를 증가시킬 수 있는 기법을 제안한다. 제안된 기법들은 시뮬레이션 성능분석을 통하여 파이프라인 상황하에서 사용하는 드라이브 수에 비하여 최대 허용 스트림 수가 크게 증가될 수 있음을 보인다.

  • PDF

이동 클라이언트/서버 컴퓨팅환경에서의 캐싱 및 동시성 제어 (Caching and Concurrency Control in a Mobile Client/Sever Computing Environment)

  • 이상근;황종선;이원규;유헌창
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제26권8호
    • /
    • pp.974-987
    • /
    • 1999
  • 이동 컴퓨팅 환경에서 자주 접근하는 데이터에 대한 캐싱은 무선 채널의 좁은 대역폭에서 경쟁을 줄일 수 있는 유용한 기술이다. 그러나, 트랜잭션 캐시 일관성을 지원하는 전통적인 클라이언트/서버 전략은 클라이언트와 서버간에 많은 양의 통신을 필요로 하기 때문에 이동 클라이언트/서버 컴퓨팅 환경에서는 적절하지 않다. 본 논문에서는 브로드캐스트-기반 캐시 무효화 정책을 사용하면서 트랜잭션 캐시 일관성을 지원하는 OCC-UTS (Optimistic Concurrency Control with Update TimeStamp) 프로토콜을 제안한다. 접근한 데이터에 대한 일관성 검사 및 완료 프로토콜은 캐시 무효화 과정의 내부 과정으로 완전 분산 형태로 효율적으로 구현되며, 일관성 체크의 대부분이 이동 클라이언트에서 수행된다. 또한, 분석 모델에 기반한 성능 비교를 통해, 본 논문에서 제안하는 OCC-UTS 프로토콜이 다른 경쟁 프로토콜보다 높은 트랜잭션 처리율을 얻으며, 데이터 항목을 자주 접근하면 할수록 지역 캐시를 사용하는 OCC-UTS 프로토콜이 더 효율적임을 보인다. 이동 클라이언트의 접속 단절에 대해서는 무효화 브로드캐스트 윈도우를 크게 하여 접속 단절에 적절히 대처할 수 있다.Abstract In a mobile computing environment, caching of frequently accessed data has been shown to be a useful technique for reducing contention on the narrow bandwidth of the wireless channels. However, the traditional client/server strategies for supporting transactional cache consistency that require extensive communications between a client and a server are not appropriate in a mobile client/server computing environment. In this paper, we propose a new protocol, called OCC-UTS (Optimisitic Concurrency Control with Update TimeStamp), to support transactional cache consistency in a mobile client/server computing environment by utilizing the broadcast-based solutions for the problem of invalidating caches. The consistency check on accessed data and the commitment protocol are implemented in a truly distributed fashion as an integral part of cache invalidation process, with most burden of consistency check being downloaded to mobile clients. Also, our experiments based on an analytical model substantiate the basic idea and study the performance characteristics. Experimental results show that OCC-UTS protocol without local cache outperforms other competitor protocol, and the more frequent a mobile client accesses data items the more efficient OCC-UTS protocol with local cache is. With respect to disconnection, the tolerance to disconnection is improved if the invalidation broadcast window size is extended.

대용량 파일시스템을 위한 선택적 압축을 지원하는 인-메모리 캐시의 설계와 구현 (Design and Implementation of an In-Memory File System Cache with Selective Compression)

  • 최형원;서의성
    • 정보과학회 논문지
    • /
    • 제44권7호
    • /
    • pp.658-667
    • /
    • 2017
  • DRAM 기반의 인메모리 캐시는 고비용으로 인해 용량을 늘리는 데에는 한계가 있다. 이를 위해 압축을 이용하여 더 많은 데이터를 캐시하는 기법들이 연구되어 왔다. 그러나 압축은 높은 처리부하와 반응 지연을 야기한다. 본 논문에서는 섀넌 엔트로피를 통해 파일의 압축률을 낮은 오버헤드를 통해 고속으로 예측하여, 높은 압축률을 가진 파일만 압축하는 선택적 압축 기법을 제안하였다. 또한 이를 파일시스템 내에서 실제 사용이 가능하도록 커널 레벨에서 파일 시스템을 위한 인메모리 캐시를 제공하도록 구현하였다. 실험 결과 선택적 압축 기법은 비 압축에 비해 약 18%의 실행시간 감소를 보이며, 전체 캐시 데이터 압축 방법에 비해서도 캐시 히트율의 감소에 의한 성능하락을 최소화 시키고, 동시에 압축에 대한 오버헤드를 줄여, 7.5%의 실행시간을 감소시킬 수 있음을 보였다. 또한 압축에 사용되는 CPU사용시간을 모두 압축 했을 때와 비교하여 28%감소시킬 수 있음을 보여주었다.

이중 캐쉬 서버를 사용한 실시간 데이터의 좡대역 네트워크 대역폭 감소 정책 (A Strategy To Reduce Network Traffic Using Two-layered Cache Servers for Continuous Media Data on the Wide Area Network)

  • 박용운;백건효;정기동
    • 한국정보처리학회논문지
    • /
    • 제7권10호
    • /
    • pp.3262-3271
    • /
    • 2000
  • 연속형 미디어 데이터는 대용량이고 실시간으로 전송되어야 하므로 데이터 전송 시에 네트워크에 많은 부하를 주게 된다. 이러한 네트워크는 부하 문제를 해결하기 위하여 프락시 서버가 사용되며 프락시 서버에는 자주 접근되는 데이터가 저장되어 원래의 데이터가 존재하는 서버로의 네트워크 교통량을 줄이게 된다. 그러나 현재의 프락시 서버는 텍스트나 이미지 데이터등의 비 연속형 데이터만을 고려하여 설계되었으므로 연속형 미디어 데이터의 캐슁에는 적합하지 않다. 그러므로 본 연구에서는 연속형 미디어 데이터의 특징을 고려하여 프락시 서버를 두 계층으로 나누어 배치하여 데이터를 캐슁하고 데이터의 접근 패턴과 크기를 동시에 고려한 재할당 정책을 사용하여 캐쉬공간을 관리하는 프락시 서버 관리 정책을 제안한다. 제안된 정책에서는 각각의 LAN 마다 하나의 프락시 서버가 존재하며 각 LAN은 여러 개의 서브LAN으로 나뉘어 져서 이러한 각각의 서브 LAN에는 또한 하나의 서브 LAN 프락시가 존재한다. 이에 병행하여 각각의 데이터들도 각각 전방 분할(front-end partition)과 후방 분할(rear-end partition)로 나뉘어져서 해당 데이터의 참조 유형에 따라 하나의 프락시에 동시에 저장되기도 하고 LAN 캐쉬 서버와 서브 LAN 캐쉬 서버에 각각 따로 저장되기도 한다. 이러한 정책을 사용함으로써 전체 데이터를 단위로 캐슁할 경우보다 데이터공간의 할당과 재할당에 따른 오버헤드가 감소함으로써 궁극적으로는 원래의 저장 서버로의 네트워크 교통량을 보다 더 감소시킬 수 있다.

  • PDF

에너지 효율이 높은 이중웨이선택형 연관사상캐시 (Energy-efficient Set-associative Cache Using Bi-mode Way-selector)

  • 이성재;강진구;이주호;윤지용;이인환
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제1권1호
    • /
    • pp.1-10
    • /
    • 2012
  • 본 논문은 레벨1 캐시에서 가장 우수한 수준의 에너지 효율을 제공하는 웨이룩업캐시와 레벨2 캐시에서 가장 높은 에너지 효율을 제공하는 웨이추적캐시의 장점을 결합하여, 모든 레벨의 캐시에서 가장 높은 수준의 에너지 효율을 제공하는 이중웨이선택캐시를 제안한다. Alpha 21264 프로세서의 예를 이용한 시뮬레이션 결과에 따르면, 이중웨이선택캐시는 레벨1 명령어캐시에서 일반적인 연관사상캐시에 비해 27.57%의 에너지를 소비하여, 웨이룩업캐시와 같은 수준의 에너지 효율을 제공한다. 그리고 이중웨이선택캐시는 레벨1 데이터 캐시에서 일반적인 연관사상캐시에 비해 28.42%의 에너지를 소비하며, 이는 웨이룩업캐시에 비해 에너지 소비가 15.54% 감소한 것이다. 또한 이중웨이선택캐시는 레벨2 캐시에서 일반적인 연관사상캐시에 비해 15.41%의 에너지를 소비하며, 이는 웨이추적캐시에 비해 에너지 소비가 16.16% 감소한 것이다.