• Title/Summary/Keyword: 캐시 성능

Search Result 407, Processing Time 0.023 seconds

A Low-Power Texture Mapping Technique for Mobile 3D Graphics (모바일 3D 그래픽스를 위한 저전력 텍스쳐 맵핑 기법)

  • Kim, Hyun-Hee;Kim, Ji-Hong
    • Journal of the Korea Society of Computer and Information
    • /
    • v.14 no.2
    • /
    • pp.45-57
    • /
    • 2009
  • ETexture mapping is a technique used for adding reality to an image in 3D graphics. However. this technique becomes the bottleneck of the 3D graphics pipeline because it requires large processing power and high memory bandwidth. For reducing memory latency in texture mapping, texture cache is used. As portable devices become smaller and they have power constraint, it is important to reduce the area and the power consumption of the texture cache. In this paper we propose using a small texture cache to reduce the area and the power consumption of the texture cache. Furthermore, we propose techniques to keep a performance comparable to large texture caches by using prefetch techniques and a victim cache. Simulation results show the proposed small texture cache can reduce the area and the power consumption up to 70% and 60%, respectively, by using $1{\sim}2K$ bytes texture cache compared to the conventional 16K bytes cache while keeping the performance.

Efficient Cache Replacement Policy over CCN With SVC Video Streaming (CCN 환경에서의 SVC 비디오 스트리밍을 위한 캐시 교체 정책에 관한 연구)

  • Lim, Kyu-Bo;Lee, Jung-Hwan;Yoo, Chuck
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06d
    • /
    • pp.235-237
    • /
    • 2012
  • 오늘날 인터넷 사용자들의 관심을 컨텐츠가 저장되어 있는 장치가 아닌 컨텐츠 자체로 변경되었다. 이로 인해 기존의 인터넷 구조와 사용자의 새로운 성향 간의 충돌이 발생한다. 이러한 문제를 해결하기 위하여 컨텐츠의 이름을 주소체계 기반으로 사용하는 CCN(Contents-Centric Networking)이 만들어 졌다. 본 연구에는 CCN과 같은 네트워크 캐시가 있는 환경에서 계층적 비디오 스트리밍의 성능을 향상시킬 수 있는 새로운 캐시 교체 알고리즘을 CCN 노드에 적용하였다. 기존의 FIFO 캐시 교체 알고리즘 사용시와 새로운 캐시 교체 알고리즘 적용시의 캐시 효율성 비교를 통하여 CCN 네트워크 상에서 계층적 비디오 스트리밍의 효율이 향상될 수 있음을 보인다.

Efficient Cache Maintenance Scheme for Long Disconnection Mobile Clients (장기간 접속 단절된 이동 클라이언트틀 위한 효과적 캐시 유지 기법)

  • 박광진;김성석;윤태명;황종선
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10c
    • /
    • pp.700-702
    • /
    • 2001
  • 현재 이동 컴퓨팅 환경의 여러 제약조건을 고려한 클라이언트 캐시에 대한 다양한 연구가 진행되고 있다. 최근에는 캐시 데이터의 일관성 검사를 위하여 서버의 주기적인 무효화보고(Invalidation Report, IR) 기법을 이용한 연구가 활발하게 진행되고 있다. 즉 서버로부터 전송되는 이전 일정 주기($\omega$)동안 수정된 데이터 항목에 대한 정보를 이용하여, 클라이언트는 자신의 캐시 데이터의 일관성을 검사한다. 하지만 클라이언트가 오랜 접속 단절이 발생할 경우 모든 캐시 데이터를 버려야 하므로, 이 경우 성능에 큰 장점을 얻을 수 없게 된다. 이에 본 논문에서는 이동 컴퓨팅 환경에서 빈번한 접속 단절로 인하여 오랫동안 무효화 보고를 받지 못하더라도 유효한 캐시 데이터를 최대한 유지시킬 수 있는 기법들을 제안한다. 먼저 클라이언트가 접속 단절 후 첫 재접속이 되었을 경우, 자신의 이전 접속 단절 시간을 전송하도록 하여 서버가 동적으로 IR에 포함될 이전 일정 주기를 결정하도록 하였다. 이에 반하여 두 번째 기법에서는 서버가 특정 기간 동안의 IR을 저장하도록 하여, 오랜 접속단절 후에도 클라이언트가 직접 캐쉬 데이터의 일관성 검사를 요청할 수 있도록 하였다.

  • PDF

Efficient Caching Technique in iSCSI-based Network (iSCSI 기반 네트워크 환경에서의 효율적인 캐싱 기법)

  • Cho, Kuk-Pyo;Lim, Hyo-Taek
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2003.11b
    • /
    • pp.927-930
    • /
    • 2003
  • iSCSI 기반의 원격 스토리지 시스템에 대한 관심이 증가하면서 이에 대한 연구가 활발히 진행되고 있다. IP 네트워크를 사용하여 통신하는 iSCSI 는 기존의 IP 네트워크의 많은 문제점을 가지고 있다. IP 네트워크를 사용하는 웹 역시 많은 문제점을 가지고 있으며 이를 해결하기 위해 프락시라는 메커니즘을 사용하였다. 효율적인 네트워크 대역폭 사용을 위해 설계된 프록시는 응답속도를 줄이는데 가장 효과적으로 많이 채택되었다. 그러나, 캐시에 저장된 데이터를 사용자에게 제공하기 때문에 이미 캐시되어진 자료가 웹 서버의 최신 자료와 다를 가능성이 있으며 또한 캐시되어진 데이터에 대한 유효성을 검사하기 때문에 추가의 지연시간이 발생하게 된다. 본 논문에서는 iSCSI 기반의 네트워크에서 캐시되어진 데이터에 대한 유효성 검사 없이 항상 fresh 한 상태의 캐시 데이터를 사용자에게 제공할 수 있는 캐싱 기법에 대한 내용과 이것을 적용한 캐시 스토리지 시스템 설계 및 기존의 원격 스토리지 시스템과의 성능을 비교 분석한 내용을 기술한다.

  • PDF

A Shared Storage based Wireless Internet Proxy Sewer Cluster (공유 스토리지 기반의 무선 인터넷 프록시 서버 클러스터)

  • Kwak Hu-Keun;Chung Kyu-Sik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06a
    • /
    • pp.421-423
    • /
    • 2006
  • 본 논문에서는 무선 인터넷 프록시 서버 클러스터를 사용하여 무선 인터넷의 문제와 요구들을 캐싱(Caching), 압축(Distillation) 및 클러스터(Clustering)를 통하여 해결하려고 한다. 무선 인터넷 프록시 서버 클러스터에서 고려되어야 하는 것은 시스템적인 확장성, 단순한 구조, 캐시간 협동성(Cooperative Caching), Hot Spot에 대한 처리 등이다. 본 연구자들은 기존 연구에서 시스템적인 확장성과 단순한 구조물 가지는 CD-A라는 구조를 제안하였으나 캐시간 협동성이 없다는 단점을 가진다. 이의 개선된 구조로 해쉬를 이용하여 사용자의 요청을 처리하는(캐시간 협동성을 가지는) 구조를 생각해 볼 수 있으나 이 역시 Hot Spot을 처리할 수 없다는 단정을 가진다. 이에 본 논문에서는 시스템적인 확장성, 단순한 구조, 캐시간 협동성, Hot Spot을 처리할 수 있는 공유 스토리지 기반의 무선 인터넷 프록시 서버 클러스터를 제안한다. 제안된 방법은 하나의 캐시 디렉토리를 공유하는 방법으로 기존구조의 장점과 캐시간 협동성 및 Hot Spot을 처리할 수 있다는 장점을 가진다. 16대의 컴퓨터를 사용하여 실험을 수행하였고 실험 결과 Hot Spot 상황에서 제안된 방법이 높은 성능 향상을 가짐을 확인하였다.

  • PDF

A Lifetime-based Cache Policy for Stable Data Distribution in NDN (NDN에서 안정성 있는 데이터 배포를 위한 Lifetime 기반의 캐시 정책)

  • CHOI, SU-HO;JOE, IN-WHEE
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.05a
    • /
    • pp.92-95
    • /
    • 2019
  • CDN은 여러 서버에 데이터를 분산하여 캐시 한 뒤 빠르게 데이터를 배포하는 네트워크이다. 하지만 CDN은 서버 성능에 영향을 받고 데이터의 Lifetime이 얼마 없는 경우 중앙 서버 혹은 데이터 제작자와의 통신을 통해 데이터를 새로 받아야 한다. 반면에, NDN은 데이터를 라우터별로 캐시하여 트래픽을 분산시키고 딜레이를 줄였다. 하지만, 캐시 된 데이터의 Lifetime에 따라 데이터를 받지 못하는 문제가 있다. 본 논문에선 데이터 요청자가 Lifetime 내에 데이터를 못 받으면 요청자의 네트워크 상황과 Interest 패킷의 주기를 고려하여 캐시 된 데이터의 Lifetime을 증가시켜 안정성 있는 데이터 배포를 목표로 하였다. 캐시 정책이 적용된 시뮬레이션을 진행했으며, 얼마 남지 않은 Lifetime을 증가시켜 데이터 요청자가 데이터를 온전히 받을 수 있음을 확인하였다.

An On-chip Cache and Main Memory Compression System Optimized by Considering the Compression rate Distribution of Compressed Blocks (압축블록의 압축률 분포를 고려해 설계한 내장캐시 및 주 메모리 압축시스템)

  • Yim, Keun-Soo;Lee, Jang-Soo;Hong, In-Pyo;Kim, Ji-Hong;Kim, Shin-Dug;Lee, Yong-Surk;Koh, Kern
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.31 no.1_2
    • /
    • pp.125-134
    • /
    • 2004
  • Recently, an on-chip compressed cache system was presented to alleviate the processor-memory Performance gap by reducing on-chip cache miss rate and expanding memory bandwidth. This research Presents an extended on-chip compressed cache system which also significantly expands main memory capacity. Several techniques are attempted to expand main memory capacity, on-chip cache capacity, and memory bandwidth as well as reduce decompression time and metadata size. To evaluate the performance of our proposed system over existing systems, we use execution-driven simulation method by modifying a superscalar microprocessor simulator. Our experimental methodology has higher accuracy than previous trace-driven simulation method. The simulation results show that our proposed system reduces execution time by 4-23% compared with conventional memory system without considering the benefits obtained from main memory expansion. The expansion rates of data and code areas of main memory are 57-120% and 27-36%, respectively.

Efficient Cache Architecture for Transactional Memory (트랜잭셔널 메모리를 위한 효율적인 캐시 구조)

  • Choi, Dong-Min;Kim, Seung-Hun;Ro, Won-Woo
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.48 no.4
    • /
    • pp.1-8
    • /
    • 2011
  • Traditional transactional memory systems are no longer able to guarantee the performance of diverse applications with overflowed transactions since there is the drawback that tracking the data for logging is difficult. Especially, this mechanism has a disadvantage of increasing communication delay for sustaining the state which is required to detect the conflict on the overflowed transactions from the first level cache in the transactional memory systems. To address this point, we have focused on the cache architecture of the systems to reduce the overhead caused by overflows and cache misses. In this paper, we present Supportive Cache which reduces additional overhead during transactions. Supportive Cache performs a parallel look-up with L1 private cache and uses the same replacement policy as L1 private cache. We evaluate the performance of the proposed design by comparing LogTM-SE with and without Supportive Cache. The simulation results show that our system improves the performance by 37% on average, compared to the original LogTM-SE which uses the same hardware resource.

A Cache Hoarding Method Using Collaborative Filtering in Mobile Computing Environments (모바일 컴퓨팅 환경에서 협업추천 모형을 이용한 캐시 적재 기법)

  • Jun, Sung-Hae;Jung, Sung-Won;Oh, Kyung-Whan
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.14 no.6
    • /
    • pp.687-692
    • /
    • 2004
  • In this paper, we proposed an efficient cache hoarding method in mobile computing environments using collaborative filtering. This method is used for solving the difficult problem of mobile computing, which is the vacuum of information service depending on low bandwidth, long delay, and frequent network disconnection. Many previous researches have been studied a cache hoarding approach for solving these problems of mobile client. But, the research of history information of mobile client did not support all informative requests for mobile clients. In our research, collaborative filtering model using history information and location data of mobile client is proposed. This proposed model supports an efficient service of necessary items for client's requirement. For the performance evaluation of proposed model, we make an experiment of simulation data using SAS enterprise miner. According to objective evaluation using cache hit ratio, we show that our model has a good result.

User Centric Cache Allocation Schemes in Infrastructure Wireless Mesh Networks (인프라스트럭처 무선 메쉬 네트워크에서 사용자 중심 캐싱 할당 기법)

  • Jeon, Seung Hyun
    • Journal of Industrial Convergence
    • /
    • v.17 no.4
    • /
    • pp.131-137
    • /
    • 2019
  • In infrastructure wireless mesh networks (WMNs), in order to improve mobile users' satisfaction for the given cache hit ratio, we investigate an User centric Cache Allocation (UCA) scheme while reducing cache cost in a mesh router (MR) and expected transmission time (ETT) for content search in cache. To minimize ETT values of mobile users, a genetic algorithm based UCA (GA-UCA) scheme is provided. The goal is to maximize mobile users' satisfaction via our well defined utility, which considers content popularity and the number of mobile users. Finally, through solving optimization problem we show the optimal cache can be allocated for UCA and GA-UCA. Besides, a WMN provider can find the optimal number of mobile users for user centric cache allocation in infrastructure WMNs.