• 제목/요약/키워드: Cache splitting

검색결과 5건 처리시간 0.016초

스트리밍 미디어 캐쉬 서버를 위한 RTSP/RTP 스트림 제어 기법 (A RTSP/RTP Stream Control Mechanism for Streaming Cache Server)

  • 오재학;차호정;최영근
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제9권3호
    • /
    • pp.254-265
    • /
    • 2003
  • 본 논문은 효율적인 스트리밍 캐쉬 서버 개발에 필수적인 스트림 제어 기법의 설계와 구현에 대해 기술한다. 논문에서 사용한 스트리밍 프로토콜은 표준 프로토콜인 RTSP/RTP/RTCP이다. 스트림 제인 기법은 기존 스트리밍 환경에서 On-Demand 캐슁과 실시간 Splitting 기능등을 제공하며, 프로토콜 수준의 세션 관리와 캐쉬 관리 기능으로 구성된다. 프로토콜 수준의 세션 관리는 RTSP 세션 제어, RTP 송수신과 RTCP 세션 제어를 양방향으로 제공하고, 캐쉬 관리 기능은 RTP 패킷 수준의 캐슁과 패킷 미디어 일관성 유지를 제공한다. 스트리밍 캐쉬 서버는 Apple의 QTSS 서버와 QuickTime Player로 구성된 스트리밍 환경에서 리눅스 시스템을 기반으로 구현하였다. 구현된 시스템은 On-Demand 캐슁과 스트림 Splitting 서비스를 원활하게 제공하였다.

MPSoC 플랫폼의 버스 에너지 절감을 위한 버스 분할 기법 (Bus Splitting Techniques for MPSoC to Reduce Bus Energy)

  • 정준목;김진효;김지홍
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권9호
    • /
    • pp.699-708
    • /
    • 2006
  • 버스 분할 기법은 통신이 많은 모듈들을 가까이 배치하고 필요한 버스 단편만 사용함으로 버스 에너지 소비를 줄인다. 그러나 MPSoC와 같은 다중 프로세서 플랫폼에서는 캐시 일관성을 유지하기 위하여 모든 프로세서에서 버스 트랜잭션을 알아야 하므로, 기존의 버스 분할 기법을 적용할 수 없다. 본 논문에서는 공유 메모리 기반의 MPSoC 플랫폼에서 버스 에너지를 절감시키기 위한 버스 분할 기법을 제안한다. 제안된 버스 분할 기법은 비 공유 메모리와 공유 메모리의 버스를 분할함으로써, 캐시 일관성을 유지하며 비 공유 메모리를 참조할 때 소비하는 버스 에너지를 최소화시킨다. 또한, 태스크별 버스 트랜잭션 횟수를 기반하여 태스크를 할당함으로써, 공유 메모리를 참조할 때 소비하는 버스 에너지를 절감시키는 캐시 일관성을 고려한 태스크 할당 기법을 제안한다. 시뮬레이션을 통한 실험에서 제안된 버스 분할 기법은 비 공유 메모리 참조시의 버스 에너지를 최대 83%까지 절감시키며, 태스크 할당 알고리즘은 공유 메모리 참조시의 버스 에너지를 최대 36%까지 절감시키는 효과가 있음을 보여준다. 그럼으로 다중 프로세서 시스템에서도 버스 분할 기법을 적용하여 버스 에너지 절감 효과를 볼 수 있으며, 캐시 일관성을 고려한 태스크 할당 기법을 통해 추가적으로 버스 에너지를 절감할 수 있음을 보여준다.

텍스처의 크기에 따라 인덱스를 자동 분할하는 텍스처 캐시 (Texture Cache with Automatical Index Splitting Based on Texture Size)

  • 김진우;박용진;김영식;한탁돈
    • 한국게임학회 논문지
    • /
    • 제8권2호
    • /
    • pp.57-68
    • /
    • 2008
  • 텍스처 매핑(texture mapping)은 실감 있는 영상을 만들기 위해 3차원 그래픽스 칩에서 사용되는 기술이다. 이 방식 중 이중선형 필터링 모드(bilinear filtering mode)에서는 1개의 픽셀(pixel)을 처리하기 위해 4개의 텍셀(texture element: texel)에 접근이 요구된다. 본 논문에서는 텍스처의 접근패턴을 분석하여 동시에 4개의 텍셀을 접근할 수 있는 고성능 텍스처 캐시의 구조를 제시하였다. 3차원 게임인 퀘이크3(Quake 3)와 언리얼 토너먼트 2004(Unreal Tournament 2004)의 텍스처 접근 추출파일을 이용한 시뮬레이션 결과로 성능평가를 하였으며, 제시한 텍스처 캐시의 구조는 물리적인 크기가 8KBytes 이하인 경우 콜은 성능을 갖게 됨을 분석하였다.

  • PDF

5G Network Communication, Caching, and Computing Algorithms Based on the Two-Tier Game Model

  • Kim, Sungwook
    • ETRI Journal
    • /
    • 제40권1호
    • /
    • pp.61-71
    • /
    • 2018
  • In this study, we developed hybrid control algorithms in smart base stations (SBSs) along with devised communication, caching, and computing techniques. In the proposed scheme, SBSs are equipped with computing power and data storage to collectively offload the computation from mobile user equipment and to cache the data from clouds. To combine in a refined manner the communication, caching, and computing algorithms, game theory is adopted to characterize competitive and cooperative interactions. The main contribution of our proposed scheme is to illuminate the ultimate synergy behind a fully integrated approach, while providing excellent adaptability and flexibility to satisfy the different performance requirements. Simulation results demonstrate that the proposed approach can outperform existing schemes by approximately 5% to 15% in terms of bandwidth utilization, access delay, and system throughput.

칩의 크기가 제한된 단일칩 프로세서를 위한 레벨 1 캐시구조 (A Level One Cache Organization for Chip-Size Limited Single Processor)

  • 주영관;김석일
    • 정보처리학회논문지A
    • /
    • 제12A권2호
    • /
    • pp.127-136
    • /
    • 2005
  • 이 논문에서는 단일 칩 프로세서에서 제한된 공간의 레벨 1 캐시를 구성하고 있는 선인출 캐시 $L_P$와 요구인출 캐시 $L_1$의 합이 일정한 때, $L_1$$L_P$의 크기의 적정한 비율을 실험을 통하여 분석하였다. 실험 결과, $L_1$$L_P$의 합이 16KB일 경우에는 $L_1$을 12KB, $L_P$를 4KB로 구성하고 $L_P$의 선인출 기법과 캐시교체정책은 각각 OBL과 FEO을 적용시키는 레벨 1 캐시 구조가 가장 성능이 우수함을 보였다. 또한 이 분석은 $L_1$$L_P$의 합이 32KB 이상인 경우에는 $L_P$의 선인출 기법으로는 동적필터 기법을 사용하는 것이 유리함을 보였고 32KB의 공간이 가용한 경우에는 $L_1$을 28KB, $L_P$를 4KB로, 64KB가 가용한 경우에는 $L_1$을 48KB, $L_P$를 16KB로 레벨 1 캐시를 분할하는 것이 가장 좋은 성능을 발휘함을 보였다.