• 제목/요약/키워드: Global Cache

검색결과 31건 처리시간 0.021초

캐시풀을 이용한 유성생식 유전알고리즘의 새로운 탐색전략 (New Search Strategy in Sexual Reproduction Genetic Algorithms Using Cache Pool)

  • 류근배;김창업;이학성
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1996년도 하계학술대회 논문집 B
    • /
    • pp.1401-1403
    • /
    • 1996
  • A new method is proposed for tracking the optimum points in nonstationary problem via genetic search. Cache Pool to save the past genetic informations is added to population in search using Sexual Reproduction Genetic Algorithm(SRGA). In Cache Pool, elite chromosomes from population are accumulated. A best Individual is made up from these chromosomes in varying environment and inserted into the newly reproduced population every generation. Experimental results indicate changing global optima are accurately identified and followed.

  • PDF

Performance Impact of Large File Transfer on Web Proxy Caching: A Case Study in a High Bandwidth Campus Network Environment

  • Kim, Hyun-Chul;Lee, Dong-Man;Chon, Kil-Nam;Jang, Beak-Cheol;Kwon, Tae-Kyoung;Choi, Yang-Hee
    • Journal of Communications and Networks
    • /
    • 제12권1호
    • /
    • pp.52-66
    • /
    • 2010
  • Since large objects consume substantial resources, web proxy caching incurs a fundamental trade-off between performance (i.e., hit-ratio and latency) and overhead (i.e., resource usage), in terms of caching and relaying large objects to users. This paper investigates how and to what extent the current dedicated-server based web proxy caching scheme is affected by large file transfers in a high bandwidth campus network environment. We use a series of trace-based performance analyses and profiling of various resource components in our experimental squid proxy cache server. Large file transfers often overwhelm our cache server. This causes a bottleneck in a web network, by saturating the network bandwidth of the cache server. Due to the requests for large objects, response times required for delivery of concurrently requested small objects increase, by a factor as high as a few million, in the worst cases. We argue that this cache bandwidth bottleneck problem is due to the fundamental limitations of the current centralized web proxy caching model that scales poorly when there are a limited amount of dedicated resources. This is a serious threat to the viability of the current web proxy caching model, particularly in a high bandwidth access network, since it leads to sporadic disconnections of the downstream access network from the global web network. We propose a peer-to-peer cooperative web caching scheme to address the cache bandwidth bottleneck problem. We show that it performs the task of caching and delivery of large objects in an efficient and cost-effective manner, without generating significant overheads for participating peers.

위치 정보와 이동 예측 기법을 이용한 데이터 가용성 향상에 관한 연구 (A Study on Data Availability Improvement using Mobility Prediction Technique with Location Information)

  • 양환석
    • 디지털산업정보학회논문지
    • /
    • 제8권4호
    • /
    • pp.143-149
    • /
    • 2012
  • MANET is a network that is a very useful application to build network environment in difficult situation to build network infrastructure. But, nodes that configures MANET have difficulties in data retrieval owing to resources which aren't enough and mobility. Therefore, caching scheme is required to improve accessibility and availability for frequently accessed data. In this paper, we proposed a technique that utilize mobility prediction of nodes to retrieve quickly desired information and improve data availability. Mobility prediction of modes is performed through distance calculation using location information. We used technique which global cluster table and local member table is managed by cluster head to reduce data consistency and query latency time. We compared COCA and CacheData and experimented to confirm performance of proposed scheme in this paper and efficiency of the proposed technique through experience was confirmed.

전역적 메모리에서의 캐시 일관성에 관한 연구 (A Study on the Cache Consistency in Global Memory)

  • 진연호;김은경;정병수
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (3)
    • /
    • pp.9-11
    • /
    • 2000
  • 최근의 네트웍 환경에서는 멀티미디어 서비스와 대용량의 파일을 이용하는 어플리케이션의 증가로 인해 이를 충족시킬 수 있는 저장 장치가 요구되고 있는 실정이며 이러한 저장 장치를 이용한 분산 환경의 네트웍 파일 시스템이 필수적이 되었다. 실제로 ATM, Fast switched LAN, Fibre channel 같은 고속의 네트웍 발달로 인해 분산 환경의 네트웍 파일 시스템에서 디스크를 엑세스하는 속도보다 오히려 네트웍으로 연결된 원격지의 메모리를 액세스하는 것이 더 빨라졌다. 따라서 지역 디스크 캐싱 기법이 분산 환경의 네트웍 저장 시스템으로 적용되면서 전역적 메모리를 관리하는 것과 원격지간의 캐시 일관성 문제(cache consistency)를 고려하지 않을 수 없게 되었다. 본 논문에서는 분산 환경의 캐싱 기법을 살펴보고 전역적 메모리의 캐시 일관성 문제를 다루면서 이에 대한 설계방안 및 앞으로의 연구 방향을 제시한다.

  • PDF

SAN 환경에서 공유 디스크 파일 시스템을 위한 전역 버퍼 관리자 (A Global Buffer Manager for a Shared Disk File System in SAN Clusters)

  • 박선영;손덕주;신범주;김학영;김명준
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제10권2호
    • /
    • pp.134-145
    • /
    • 2004
  • 네트워크를 통해 전송되는 데이타의 양이 급속히 증가함에 따라 확장성 있는 저장 시스템에 대한 사용자 요구가 증가하고 있다. 네트워크 연결형 자료 저장 시스템인 SAN(Storage Area Network)은 호스트와 디스크를 광채널 스위치로 연결하는 구조로서 저장 공간과 서버에 대한 확장성을 제공한다. SAN 환경에서는 다수의 호스트가 네트워크에 연결된 저장 장치를 공유하므로 공유 데이타에 대한 일관성 유지가 필요하다. 이를 위해 각 호스트가 수정한 데이타를 즉시 디스크에 반영하는 방법을 사용하고 있지만 이는 느린 디스크 접근 시간(Disk Access Time)으로 인해 시스템의 성능을 저하시키는 요인이 된다. 본 논문에서는 필요한 공유 데이타를 다른 호스트의 메모리를 통해서 직접 전송 받을 수 있도록 하여 공유 데이타의 접근 속도를 향상시킬 수 있는 전역 버퍼 관리자의 설계와 구현에 대해 소개한다. SANtopia 전역 버퍼 관리자는 SAN에 연결된 호스트들이 서로의 버퍼 캐시를 공유하도록 함으로써 블록 데이타로의 빠른 접근을 가능하게 한다. 마이크로 벤치마크를 통한 블록 단위 I/O의 성능 측정 결과, 전역 버퍼 관리자를 사용하는 것이 기존의 디스크 I/O를 사용하는 방법에 비해 약 1.8-12.8배 정도 빠른 성능을 보였으며 파일 시스템 벤치마크를 통한 성능 측정 결과. 전역 버퍼 관리자를 사용한 SANtopia 파일 시스템은 사용하지 않은 것과 비교해서 디렉터리 파일 시스템 콜의 경우 약 1.06배 정도 빠르고 일반 파일시스템 콜은 약 1.14배 정도 빠른 성능을 보였다.

글로벌 캐시를 이용한 네트워크 병렬 프로세서 구조 연구 (Study of Parallel Network Processor using Global Cache)

  • 박재원;정원영;김현필;이정희;이용석
    • 한국통신학회논문지
    • /
    • 제36권1B호
    • /
    • pp.80-85
    • /
    • 2011
  • 현재 광대역 통합망의 사용으로 인해 확장된 망을 사용하는 트래픽의 양이 많아지고, 어플리케이션의 발달로 인해 트래픽의 종류도 증가하고 있다. 특히 IPTV, VOD, 온라인 게임 등의 멀티미디어 속성을 가진 트래픽의 증가가 두드러지고 있다. 이러한 멀티미디어 트래픽은 페이로드의 크기가 클 뿐만 아니라 실시간 처리를 요하기 때문에 라우터에서 트래픽 속성에 따라 차등한 대역폭을 지원하는 연구가 진행 중에 있다. 트래픽의 속성을 정확히 구분하기 위해선 어플리케이션 계층을 분석하여야 하는데, 기존의 네트워크 프로세서 구조에선 L2-4 처리와 L7처리를 순차적으로 처리하고 있다. 본 논문에서는 L2-4와 L7을 병렬로 처리하기 위해 글로벌 캐시를 둔 새로운 병렬 네트워크 프로세서 구조를 제안한다. 제안하는 구조를 검증하기 위해 기존의 네트워크 시스템과 제안한 구조의 네트워크 시스템을 SystemC로 모델링하였으며, L2-4, L7 처리 시간을 측정하기 위해 EEMBC-와 SNORT를 이용하여 동일한 시스템에서 시뮬레이션 하였다. 멀티미디어 속성의 동일한 트래픽이 연속적으로 입력될 경우 제안한 구조에서 약 85%의 성능 향상을 보였다.

트랜잭션의 연산정보를 이용한 클라이언트 캐시 일관성 유지 기법 (A Client Cache Consistency Method using Information of Transaction Operations)

  • 유제혁;조성호;정일영;황종선
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제27권4호
    • /
    • pp.671-681
    • /
    • 2000
  • 클라이언트-서버(Client-Server) 데이터베이스 환경에서 병목현상의 해결책으로 클라이언트캐시(Client cache)를 사용할 수 있다. 여러 클라이언트들이 같은 데이터베이스의 일부를 캐시한 복사본을 사용할 때, 다른 클라이언트들과 서버간에 일관성 유지를 보장해주어야 한다. 캐시의 일관성을 유지하기 위한 여러 가지 알고리즘들이 제안되어왔다. 그 중에서 O2PL(Optimistic Two Phase Locking) 기법은 동시성을 증가시킬 수 있는 주요 장점이 있다. 그러나 O2PL 알고리즘은 트랜잭션이 완료(commit) 연산을 요구하는 시점에서 접근한 캐시데이터의 일관성을 위한 작업이 시작되므로 최종적인 완료까지는 지연이 발생하게된다. 이때 다른 클라이언트에서 잠금 충돌(lock conflict)에 의해 전역 교착상태(global deadlock)가 발생한다면 블락(block)되어 지연되는 시간은 더욱 증가하게된다. 본 논문에서는 향상된 O2PL 기법으로 PN(Preemption by Notification)-O2PL 기법을 제안한다. 이 접근에서는 O2PL의 특성으로 얻을 수 있는 연산정보를 관련된 다른 트랜잭션에게 통지(notification)로 사용하고 제시한 조건에 해당할 경우 상대 자원을 바로 사용할 수 있게 한다. 이 조건은 대부분의 전역 교착 상태에 해당하는 두 트랜잭션간의 교착상태를 조기에 신속히 감지할 수 있게 하여 트랜잭션 완료의 지연을 감소시키게 한다. PN-O2PL 알고리즘이 기존의 O2PL기법보다 빠른 응답시간을 얻을 수 있음을 모의 실험을 통하여 보인다.

  • PDF

전역 조명 알고리즘에서의 조화 평균 거리 계산의 분석 (Analysis of Harmonic Mean Distance Calculation in Global Illumination Algorithms)

  • 차득현;임인성
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권2호
    • /
    • pp.186-200
    • /
    • 2010
  • 전역 조명(global illumination) 효과를 사실적으로 렌더링하기 위해서는 복잡한 경로를 통해 입사하는 빛의 정보 해당하는 직접 조명 및 간접 조명을 정확하게 계산해주어야 한다. 이 과정에서 주어진 물체 표면 지점에 대해 계산되는 간접 조명 정보는 주변 환경의 기하적인 형태에 큰 영향을 받게 된다. 조화 평균 거리(harmonic mean distance)는 3차원 공간상에서 주어진 한 지점에서 보이는 물체들과의 거리를 나타내는 척도로 많이 사용되는 수학적 도구로서, 광휘 캐시(irradiance/radiance cache)나 환경 폐색(ambient occlusion) 등의 렌더링 효과를 생성하는데 주요하게 사용된다. 본 논문에서는 대표적인 고품질 전역 조명 렌더링 알고리즘인 최종 수집(final gathering) 방법 및 포톤 매핑(photon mapping) 기법을 통해 다양한 환경에서 계산되는 조화 평균 거리에 대한 근사값의 정확성에 대해 분석한다. 이러한 분석 결과를 기반으로 효과적인 조화 평균 거리 계산의 근사화 기법 개발에 있어서 고려해야 할 점들과 방향을 제시한다.

Efficient Hybrid Transactional Memory Scheme using Near-optimal Retry Computation and Sophisticated Memory Management in Multi-core Environment

  • Jang, Yeon-Woo;Kang, Moon-Hwan;Chang, Jae-Woo
    • Journal of Information Processing Systems
    • /
    • 제14권2호
    • /
    • pp.499-509
    • /
    • 2018
  • Recently, hybrid transactional memory (HyTM) has gained much interest from researchers because it combines the advantages of hardware transactional memory (HTM) and software transactional memory (STM). To provide the concurrency control of transactions, the existing HyTM-based studies use a bloom filter. However, they fail to overcome the typical false positive errors of a bloom filter. Though the existing studies use a global lock, the efficiency of global lock-based memory allocation is significantly low in multi-core environment. In this paper, we propose an efficient hybrid transactional memory scheme using near-optimal retry computation and sophisticated memory management in order to efficiently process transactions in multi-core environment. First, we propose a near-optimal retry computation algorithm that provides an efficient HTM configuration using machine learning algorithms, according to the characteristic of a given workload. Second, we provide an efficient concurrency control for transactions in different environments by using a sophisticated bloom filter. Third, we propose a memory management scheme being optimized for the CPU cache line, in order to provide a fast transaction processing. Finally, it is shown from our performance evaluation that our HyTM scheme achieves up to 2.5 times better performance by using the Stanford transactional applications for multi-processing (STAMP) benchmarks than the state-of-the-art algorithms.

토큰 코히런스 프로토콜을 위한 경서열 트렌지언트 요청 처리 방법 (New Transient Request with Loose Ordering for Token Coherence Protocol)

  • 박윤경;김대영
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제54권10호
    • /
    • pp.615-619
    • /
    • 2005
  • Token coherence protocol has many good reasons against snooping/directory-based protocol in terms of latency, bandwidth, and complexity. Token counting easily maintains correctness of the protocol without global ordering of request which is basis of other dominant cache coherence protocols. But this lack of global ordering causes starvation which is not happening in snooping/directory-based protocols. Token coherence protocol solves this problem by providing an emergency mechanism called persistent request. It enforces other processors in the competition (or accessing same shared memory block, to give up their tokens to feed a starving processor. However, as the number of processors grows in a system, the frequency of starvation occurrence increases. In other words, the situation where persistent request occurs becomes too frequent to be emergent. As the frequency of persistent requests increases, not only the cost of each persistent matters since it is based on broadcasting to all processors, but also the increased traffic of persistent requests will saturate the bandwidth of multiprocessor interconnection network. This paper proposes a new request mechanism that defines order of requests to reduce occurrence of persistent requests. This ordering mechanism has been designed to be decentralized since centralized mechanism in both snooping-based protocol and directory-based protocol is one of primary reasons why token coherence protocol has advantage in terms of latency and bandwidth against these two dominant Protocols.