• Title/Summary/Keyword: cache management

검색결과 212건 처리시간 0.026초

위치 정보와 이동 예측 기법을 이용한 데이터 가용성 향상에 관한 연구 (A Study on Data Availability Improvement using Mobility Prediction Technique with Location Information)

  • 양환석
    • 디지털산업정보학회논문지
    • /
    • 제8권4호
    • /
    • pp.143-149
    • /
    • 2012
  • MANET is a network that is a very useful application to build network environment in difficult situation to build network infrastructure. But, nodes that configures MANET have difficulties in data retrieval owing to resources which aren't enough and mobility. Therefore, caching scheme is required to improve accessibility and availability for frequently accessed data. In this paper, we proposed a technique that utilize mobility prediction of nodes to retrieve quickly desired information and improve data availability. Mobility prediction of modes is performed through distance calculation using location information. We used technique which global cluster table and local member table is managed by cluster head to reduce data consistency and query latency time. We compared COCA and CacheData and experimented to confirm performance of proposed scheme in this paper and efficiency of the proposed technique through experience was confirmed.

An On-chip Multiprocessor Miroprocessor with Shared MMU and Cache

  • Lee, Yong-Hwan;Jeong, Woo-Kyeong;An, Sang-Jun;Lee, Yong-Surk
    • Journal of Electrical Engineering and information Science
    • /
    • 제2권4호
    • /
    • pp.1-7
    • /
    • 1997
  • A multiprocessor microprocessor named SMPC(scaleable multiprocessor chip) that contains tow IU (integer unit) is presented in this paper. It can execute multiple instructions from several tasks exploiting task-level parallelism that is free from instruction dependencies, and provide high performance and throughput on both single program and multiprogramming environments. the IU is a 32-bit scalar processor expecially designed to boost up the performance of string manipulations which are frequently used in RDBMS(relational data base management system) applications. A memory management unit and a data cache shared by two IUs improve the performance and reduce the chip area required. ETH SMPC is implemented in VLSI circuit by custom design and automated design tools.

  • PDF

비휘발성 버퍼 캐시를 이용한 파일 시스템의 주기적인 flush 오버헤드 개선 (Improving Periodic Flush Overhead of File Systems Using Non-volatile Buffer Cache)

  • 이은지;강효정;고건;반효경
    • 정보과학회 논문지
    • /
    • 제41권11호
    • /
    • pp.878-884
    • /
    • 2014
  • 파일 시스템 버퍼 캐시는 느린 스토리지의 접근 횟수를 줄여 입출력 성능 향상에 기여하지만, 캐시에서 수정된 데이터를 스토리지에 오랫동안 반영하지 않을 경우 크래쉬 발생 시 최신 데이터가 유실되거나 데이터의 일관성이 깨어지는 문제가 발생할 수 있다. 이를 방지하기 위해 대부분의 운영체제는 수정 데이터를 주기적으로 스토리지에 반영하는 flush 데몬을 사용한다. 본 논문은 파일시스템의 쓰기 연산 중 30-70%가 주기적인 flush에 의해 발생함을 분석하고, 이를 소량의 NVRAM 버퍼 캐시를 이용하여 해결하는 기법을 제시한다. 특히, 본 논문은 델타 쓰기 및 그룹 기반 교체 기법을 제안하여 소량의 NVRAM 만으로 스토리지 쓰기 트래픽과 처리량을 각각 44.3%와 23.6% 개선할 수 있음을 보인다.

Improvement of Handoff-state and QOS in Wireless Environment

  • Jeong, You-Sun;Choe, U-Gin
    • Journal of information and communication convergence engineering
    • /
    • 제8권1호
    • /
    • pp.1-5
    • /
    • 2010
  • In this paper, we propose for improving QoS in wireless micro cellular network using Cellular-IP/PRC(Paging Route Cache) with Paging Cache and Route Cache in Cellular-IP and propose for performance of realtime and non-real time handoff service using Handoff state machine Paging Route Cache. Although the Cellular-IP/PRC technology is devised for mobile internet communication, it bas its vulnerability in frequent handoff environment. On the other hand, Cellular IP combines the capability of cellular networks to provide high performance handoff and efficient location management of active and idle mobile users with the inherent flexibility, robustness and scalability found in IP networks. Also Cellular-IP/PRC use semi-soft handoff. During semi-soft hand off a mobile host may be in contact with either of the old and new base stations and receive packets from them. Packets intended to the mobile node are sent to both base stations and buffered, so when the mobile host eventually moves to the new location it can continue to receive packets without interruption. It should be suitable for realtime service such as multimedia traffic. But, much waste of resource will occur in this method, especially for non-real time services such as FTP and E-mail. Therefore, a new algorithm that performs different handoff according to characteristic of each traffic by use of reserved field in IP packet is proposed in this thesis. This hand off state machine using differentiated handoff improves quality of services in Cellular-IP/PRC. Suggested algorithm shows better performance than existing technology in wireless mobile internet communication environment. Matlab simulation results are improving QoS, show call drop and call blocking provided to Paging Router Cache during handoff state machine in Cellular-IP/PRC.

MLC-LFU : 플래시 메모리를 위한 멀티레벨 버퍼 캐시 관리 정책 (MLC-LFU : The Multi-Level Buffer Cache Management Policy for Flash Memory)

  • 옥동석;이태훈;정기동
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권1호
    • /
    • pp.14-20
    • /
    • 2009
  • 플래시 메모리는 현재 휴대용 기기 뿐 아니라 개인용 컴퓨터와 서버용 컴퓨터에서 널리 사용되고 있다 하드디스크를 위한 버퍼 캐시 교체 정책인 LRU(Least Recently Used)와 LFU(Least Frequently Used)는 플래시 메모리의 특성을 전혀 고려하지 않아 플래시 메모리에 적합하지 않다. 기존에 연구되었던 CFLRU(Clean-First LRU)와 그 변형인 CFLRU/C, CFLRU/E, DL-CPLRU/E는 플래시 메모리의 특성을 고려하였지만 hit ratio가 LRU와 LFU에 비하여 좋지 않다. 본 논문에서는 기존의 버퍼 캐시 교체 정책들을 보완하는 새로운 버퍼 캐시 교체 정책을 제안한다. 이 버퍼 캐시 교체 정책은 LFU를 기반으로 하고 플래시 메모리의 특성을 고려하였다. 그리고 이 새로운 버퍼 캐시 교체 정책을 기존 플래시 메모리 버퍼 캐시 교체 정책과 hit ratio와 flush 횟수를 비교하여 성능을 평가한다.

Minix3 마이크로커널 기반 디스크 캐쉬 관리자의 설계 및 구현 (Disk Cache Manager based on Minix3 Microkernel : Design and Implementation)

  • 최욱진;강용호;김선종;권혁숭;김주만
    • 디지털융복합연구
    • /
    • 제11권11호
    • /
    • pp.421-427
    • /
    • 2013
  • 마이크로커널 기반의 기능성 서버인 디스크 캐쉬 관리자(DCM)은 공유 디스크의 입출력 성능을 향상하는 목적으로 설계 및 구현되었다. DCM은 Misix3 마이크로커널의 멀티 쓰레드 모드로 동작하는 시스템 엑터간의 포트를 통하여 다른 서버들과 메시지 교환으로 정합한다. 본 논문에서 제안된 DCM은 병렬 입출력이 가능하도록 공유 디스크를 논리적으로 Seven 디스크와 Sodd 디스크로 나누어 사용한다. 본 논문에서 제안하는 DCM은 특정 디스크의 사용 빈도에 따라 캐쉬 사이즈를 증감함으로써 이용율이 높은 디스크의 캐시 사이즈 확대하여 캐시 적중률을 높여주므로서 효과적인 성능을 향상할 수 있게 한다. 경험적 결과를 통해서, 본 논문에서 제안한 DCM은 높은 이용율을 갖는 공유 디스크에서 아주 효과적임을 보였다.

멀티미디어 응용을 위한 저전력 데이터 캐쉬 구조 및 마이크로 아키텍쳐 수준 관리기법 (Low-Power Data Cache Architecture and Microarchitecture-level Management Policy for Multimedia Application)

  • 양훈모;김정길;박기호;김신덕
    • 정보처리학회논문지A
    • /
    • 제13A권3호
    • /
    • pp.191-198
    • /
    • 2006
  • 최근 디지털 멀티미디어 응용기기는 휴대 편의성은 물론 하나의 기기에서 다양한 멀티미디어 데이터 처리를 가능하게 하는 기능적 집적이 이루어지고 있다. 이와 같은 추세는 기기가 처리해야 하는 데이터 양의 증가와 이를 수행하기 위하여 요구되는 온칩 메모리의 크기 및 연산 유닛의 고성능화를 요구하여 전력 소비량의 증가를 유발시킨다. 연산 엔진에서 사용되는 대표적인 온칩 메모리인 캐쉬는 전력 사용에 있어서 중요한 비율을 차지하는 구조로 저전력 설계를 위한 구조적 개선의 주요 대상이다. 본 논문에서는 멀티미디어 응용을 수행하는 연산 엔진의 데이터 캐쉬에서 소비되는 전력을 감소시키기 위하여 멀티미디어 응용의 데이터 사용 특성을 파악하여 이 특성을 전력소비를 감소시키는 목적으로 활용 가능한 분할된 캐쉬구조를 제안한다. 그리고 각각의 분할된 캐쉬에 대하여 특정 주소 영역의 데이터 참조를 고정시킴으로써 얻을 수 있는 전력 소비면의 성능 향상을 평가한다. 시뮬레이션 결과 제안하는 캐쉬 구조는 같은 크기의 직접사상 캐쉬, 2중연관 캐쉬, 4중연관 캐쉬에 대해 유사한 성능을 나타내면서, 각각의 기존 캐쉬 구조와 비교하였을 경우 33.2%, 53.3% 및 70.4%만큼 감소된 전력으로 동작 가능하다.

무선랜에서 낮은 지연 특성을 가지는 인증유지 핸드오프 기법과 트래픽 관리 기법 (Authenticated Handoff with Low Latency and Traffic Management in WLAN)

  • 최재우;양대헌;강전일
    • 정보보호학회논문지
    • /
    • 제15권2호
    • /
    • pp.81-94
    • /
    • 2005
  • 최근 무선랜 환경을 우리 근체에 널리 퍼져있고 많은 사람들이 FDA를 비롯한 multimedia application들과 같은 휴대장치를 많이 사용함으로써 단말 장비들의 이동이 계속 늘어나고 있다 그러나 이러한 단말 장비들이 이동하여 현재 접속되어 있는 AP(Access Point)를 벗어나 다른 AP와 접속을 시도할 때 두 AP들 사이에는 핸드오프 지연이 발생한다. 이러한 핸드오프 지연을 줄이기 위해 이 논문에서는 효과적인 데이터 구조를 사용하는 WFH(Weighted Frequent Handoff)를 제안한다. WFH는 FHR(Frequent Handoff Region)에서 클라이언트의 이동확률 개념을 도입한 새로운 cache replacement algorithm을 사용하여 cache hit ratio를 높이고 토폴로지에서 불필요하게 중복되는 트래픽도 줄여준다. 이 알고리즘은 QoS를 기반으로 하는 클라이언트의 레벨과 이동 패턴에 따라서 인종되는 범위가 달라지는 FHR과 네트워크 이동 토폴로지를 동적을 캡처하는 neighbor graph을 이용하고 있다.

플래시 메모리 데이터베이스를 위한 플래시인지 트랜잭션 관리 기법 (Flash-Aware Transaction Management Scheme for flash Memory Database)

  • 변시우
    • 인터넷정보학회논문지
    • /
    • 제6권1호
    • /
    • pp.65-72
    • /
    • 2005
  • 플래시 메모리는 이동형 컴퓨팅 환경에서 휴대용 정보기기를 지원하는 우수한 미디어이다. 플래시 메모리는 비휘발성, 낮은 전력소모, 빠른 데이터 접근 속도 등의 특징으로 휴대용 정보기기용 데이터베이스의 핵심 저장 모듈이 되었다. 하지만, 일반 RAM 메모리에 비하여 상대적으로 느린 연산 특성을 고려하여 기존의 트랜잭션 처리 기법을 개선할 필요가 있다. 이를 위하여, 본 논문은 플래시인지 트랜잭션 관리(Flash-Aware Transaction Management: FATM) 기법을 제안한다. FATM은 SRAM과 W-cache를 활용하여 트랜잭션 처리 성능을 높인다. 또한, 성능 검증을 위하여 시뮬레이션 모델을 제안하였으며, 실험 결과 분석을 통하여 FATM이 기존의 트랜잭션 처리 기법보다 우수함을 확인하였다.

  • PDF