• 제목/요약/키워드: caching performance

검색결과 279건 처리시간 0.029초

무선이동통신망에서 스트리밍 서비스를 위한 프락시 기반Qos 보장 방안 (A Proxy based QoS Provisioning Mechanism for Streaming Service in Wireless Networks)

  • 김용술;홍정표;김화성;유지상;김동욱
    • 한국통신학회논문지
    • /
    • 제31권7B호
    • /
    • pp.608-618
    • /
    • 2006
  • 멀티미디어 스트리밍 서비스의 증가는 인터넷 콘텐츠의 새로운 국면으로 나타나고 있다. 특히, 무선이동통신망에서 증가하는 멀티미디어 응용에 대한 QoS 제공은 무엇보다 중요하다. 서비스 제공자는 클라이언트 가까이에 있는 프락시에서 자주 억세스되어지는 멀티미디어 스트림의 초기 세그먼트를 캐슁함으로써 성능을 향상 시킬 수 있다. 프락시는 서버로부터 스트림의 나머지 부분을 요구함과 동시에 클라이언트에 전송을 시작할 수 있다. 본 논문에서는 IETF의 RTSP 환경에서 프리픽스 캐슁 서비스를 무선망에 적용시키고, 무선 상황이나 핸드오프 시에 네트 워크 상황에 적응적으로 대응하고 단절현상을 줄일 수 있는 효과적인 RTSP 핸들링 기법을 제안 한다. 또한 캐슁 프락시의 성능을 향상시키기 위해 트래픽 기반 캐슁 기법(TSLRU)을 제안한다, TSLRU는 트래픽을 세 종류로 분류하여 캐슁하며, 교체 대상 결정시 여러 요소(traffic types, recency, frequency, object size)를 반영함으로써 캐슁 프락시의 성능을 향상 시킨다. 모의실험에서 캐슁 알고리즘은 byte hit Rate와 startup latency에서 높은 성능을 보였으며, 제안한 RTSP 핸들링 기법 역시 throughput에서 좋은 성능을 보였다.

응용프로그램의 기동시간 단축을 위한 파일 시스템 수준의 SSD 캐싱 기법 (File-System-Level SSD Caching for Improving Application Launch Time)

  • 한창희;유준희;이동은;강경태;신현식
    • 정보과학회 논문지
    • /
    • 제42권6호
    • /
    • pp.691-698
    • /
    • 2015
  • 응용프로그램의 기동 시간은 기기에 대한 사용자 체험에 영향을 주는 중요한 지표로 보조 기억 장치의 성능에 의해 큰 영향을 받는다. 하드디스크 대신 SSD를 사용하게 되면 기동 시간을 크게 낮출 수 있지만 비용 대비 성능을 고려하면 작은 용량의 SSD를 하드디스크의 캐시로 쓰는 것이 현실적인 대안이 될 수 있다. 본 논문에서는 파일시스템 수준에서 하드디스크 상의 블록을 SSD로 이주시키는 기법을 제안한다. 제안한 기법은 기존의 SSD 캐싱 기법들에서 요구되던 캐시 데이터의 사상에 필요한 주 메모리, CPU, 그리고 사상 정보의 유지를 위한 SSD 공간 사용의 부가적인 오버헤드가 없다. 8개의 응용프로그램을 이용한 실험에서 메타데이터와 데이터 블록을 모두 SSD에 캐싱한 경우에 기동시간이 평균 56% 단축됨을 확인하였다.

Wireless Ad-hoc Network에서 보안 협력 캐싱 기법에 관한 연구 (A Study on Secure Cooperative Caching Technique in Wireless Ad-hoc Network)

  • 양환석
    • 디지털산업정보학회논문지
    • /
    • 제9권3호
    • /
    • pp.91-98
    • /
    • 2013
  • Node which plays the role of cache server does not exist in the wireless ad-hoc network consisting of only mobile nodes. Even if it exists, it is difficult to provide cache services due to the movement of nodes. Therefore, the cooperative cache technique is necessary in order to improve the efficiency of information access by reducing data access time and use of bandwidth in the wireless ad-hoc network. In this paper, the whole network is divided into zones which don't overlap and master node of each zone is elected. General node of each zone has ZICT and manages cache data to cooperative cache and gateway node use NZCT to manage cache information of neighbor zone. We proposed security structure which can accomplish send and receive in the only node issued id key in the elected master node in order to prepare for cache consistent attack which is vulnerability of distributed caching techniques. The performance of the proposed method in this paper could confirm the excellent performance through comparative experiments of GCC and GC techniques.

Reducing the User-perceived Latency of Browsers with NVRAM

  • Kim, Kyusik;Cho, Yongwoon;Kim, Seongmin;Kim, Taeseok
    • JSTS:Journal of Semiconductor Technology and Science
    • /
    • 제17권1호
    • /
    • pp.23-28
    • /
    • 2017
  • Non-volatile RAM (NVRAM) provides many opportunities to improve the performance of computing devices. In this paper, we present an approach that reduces the user-perceived latency of browsers by using NVRAM. To this end, we first analyze the browser launch process, and then employ several techniques that improve the performance of each step by using NVRAM. Specially, we focus on minimizing the launch time of browser by 1) prefetching the block sequence required for browser launch, 2) caching the web resources in the fast NVRAM, and 3) reusing the displayed bitmap data in the frame buffer. Through implementation, we show that our scheme significantly reduces the launch time of browsers.

Development of a Web Accelerator in the Kernel

  • Park, Jong-Gyu;Lim, Han-Na;Kim, Hag-Bae
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.70.3-70
    • /
    • 2001
  • In this paper, we suggest a kernel level multi thread web accelerator (called the SCALA-AX), which significantly improves the performance of the web soerver. In comparison with a conventional proxy web cache that is generally called a caching server and a simple content-copy based system, the primary functions and goals of SCALA-AX are designed to maximize the content services of a front end web server with high performance. Specifically, the SCALA-AX runs on the kernel level of a web sorrel, based on the newest caching techniques. Moreover, the SCALA-AX supports the http 1.1 protocol and allows the dynamic pages as well as static pages to be processed.

  • PDF

DM-Cache를 이용해 구현한 SSD 캐시의 성능 평가 (Performance Evaluation of SSD Cache Based on DM-Cache)

  • 이재면;강경태
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제3권11호
    • /
    • pp.409-418
    • /
    • 2014
  • 최근 클라우드 서비스와 소셜 네트워크 서비스가 활성화되면서 스토리지 서버에 저장해야 할 데이터의 용량이 급격히 증가하고 있으며, 사용자의 고품질 미디어 데이터에 대한 높은 수요는 이러한 경향을 더더욱 가속화하고 있다. 이와 더불어 데이터의 효율적 참조를 통한 처리시간 감소는 이미 과거로부터 꾸준히 요구되어온 시스템 설계 주 고려사항이다. 이런 이유로 하이브리드 디스크의 효율적인 사용에 대한 많은 기술연구가 진행되고 있다. 그 핵심이라고 할 수 있는 리눅스 기반 SSD 캐시 기법은 내장된 DM-cache를 활용하여 구현하는데, 현재 이에 대한 최적화 관련 정책 연구가 많이 부족한 실정이다. 본 연구에서는, 다양한 환경에서 성능 평가를 통하여 현재 제공되고 있는 DM-cache의 문제점을 파악하였다. 그 결과, 일반 운영체제에서 실험한 DM-cache는 읽기 명령 시 나름대로의 효과를 보고 있지만, 특히 가상 머신이 탑재된 운영체제 환경에서는 DM-cache의 사용으로 인한 성능 개선을 찾을 수 없었으며 오히려 캐시 오버헤드로 성능 저하가 발생함을 확인하였다.

고성능 대용량 플래시 메모리 저장장치의 효과적인 매핑정보 캐싱을 위한 적응적 매핑정보 관리기법 (Adaptive Mapping Information Management Scheme for High Performance Large Sale Flash Memory Storages)

  • 이용주;김현우;김희정;허태영;정상혁;송용호
    • 전자공학회논문지
    • /
    • 제50권3호
    • /
    • pp.78-87
    • /
    • 2013
  • 모바일 디바이스, PC, 서버 형 워크스테이션 시스템에서 널리 사용되고 있는 낸드 플래시 메모리는 기존의 하드 디스크에 비해 저 전력 소비, 높은 성능, 랜덤 접근 가능 등의 장점을 갖는 반면, 덮어쓰기가 불가능하여 데이터를 쓰기 전에는 항상 삭제 연산을 필요로 하는 구조적 약점을 지니고 있다. 이를 극복하기 위해 낸드 플래시 메모리의 제어기는 FTL을 사용하여 디바이스 내부 연산을 변형시킨다. 하지만 고성능 대용량 낸드 플래시 메모리 저장장치의 사용이 증가됨에 따라, 제한된 DRAM 크기에 비해 매핑 알고리즘에서 사용되는 매핑 테이블의 크기가 증가하는 문제가 발생한다. 본 논문은 이러한 DRAM의 용량 부족 문제를 해결하기 위해, 페이지 매핑 기법을 바탕으로한 적응적 매핑정보 캐싱 기법을 제안한다. 적응적 매핑정보 캐싱 알고리즘은 다양한 워크로드 분석을 기반으로 낸드 플래시 접근을 최소한으로 하는 매핑정보 캐싱 방식을 사용한다. 트레이스 기반 시뮬레이터를 통해 실험한 결과, 본 논문에서 제시하는 적응적 매핑정보 캐싱 알고리즘은 기존의 고정 매핑정보 캐싱 알고리즘에 비해 최소 7%에서 최대 70%의 성능향상을 보임을 확인할 수 있었다.

LOB 캐쉬를 위한 SQL CLI의 확장 (Extending SQL CLI for Large Object Caching)

  • 이종민;강현철
    • 정보처리학회논문지D
    • /
    • 제8D권1호
    • /
    • pp.1-9
    • /
    • 2001
  • SQL CLI(Call Level Interface)는 클라이언트-서버 환경에서 적합한 데이타베이스 응용 프로그래밍 인터페이스(API)로서 ODBC, JDBC 등의 업계 표준이 여러 응용 분야에 걸쳐 널리 사용되고 있다. 그러나 현재의 표준안에서는 멀티미디어 데이타와 같은 대용량 데이타를 효율적으로 검색하기 위한 기능을 다양하게 제공해주지 못하고 있다. 본 논문에서는 멀티미디어 데이타를 구성하는 LOB(Large OBject)의 효율적 검색을 위하여 SQL CLI상에서 LOB의 캐쉬를 제안하고, 이를 위한 SQL CLI의 확장을 제안한다. 제안한 내용을 한국전자통신연구원에서 개발한 바다-II DBMS를 위한 SQL CLI 라이브러리 상에 구현하며, 실험을 통하여 캐쉬로부터의 LOB 검색 성능을 기존의 SQL CLI 표준 사양에 따른 LOB 검색의 성능과 비교 평가한다.

  • PDF

확장성 있는 캐시 서버 클러스터에서의 부하 분산을 위한 동적 서버 정보 기반의 해싱 기법 (Hashing Method with Dynamic Server Information for Load Balancing on a Scalable Cluster of Cache Servers)

  • 곽후근;정규식
    • 정보처리학회논문지A
    • /
    • 제14A권5호
    • /
    • pp.269-278
    • /
    • 2007
  • 캐시 서버 클러스터에서의 캐싱은 인터넷 트래픽 및 웹 유저의 요청 및 응답 시간을 줄여주는 효과를 가진다. 이때, 캐시의 히트율(Hit ratio)을 증가시키는 한 가지 방법은 해시 함수를 이용하여 캐시가 협동성(Cooperative Caching)을 가지도록 하는 것이다. 캐시가 협동성을 가진다는 것은 캐시 서버 수와 무관하게 캐시 메모리 전체 크기를 일정하게 할 수 있다는 것을 의미한다. 반면에 캐시가 협동성을 가지지 않는다면 각 캐시 서버가 모든 캐시 데이터를 가져야 하므로 캐시 메모리 전체 크기가 캐시 서버 수에 비례하여 증가한다. 해싱을 이용한 방법의 문제점은 해시의 특성으로 인해 클라이언트의 요청이 일부 캐시 서버로 집중되고 전체 캐시 서버 클러스터의 성능이 일부 캐시 서버에 종속된다는 점이다. 이에 본 논문에서는 동적 서버 정보를 이용하여 클라이언트의 요청을 일부 캐시 서버가 아닌 전체 캐시 서버에 균일하게 분포시키는 방법을 제안한다. 16대의 컴퓨터를 이용하여 실험을 수행하였고 실험 결과는 기존 방법에 비해 클라이언트의 요청을 캐시 서버들 사이로 균일하게 분포시키고 이에 따라 전체 캐시 서버 클러스터의 성능이 향상됨을 확인하였다.

BLOCS: 블록 상관관계를 인지하는 시퀀스 패턴 마이닝 기반 하이브리드 스토리지 캐슁 알고리즘 (BLOCS: Block Correlation Aware Sequential Pattern Mining based Caching Algorithm for Hybrid Storages)

  • 이성진;원유집
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권7호
    • /
    • pp.113-130
    • /
    • 2014
  • 본 논문은 SSD를 캐쉬로 사용하는 하이브리드 저장장치에서 캐쉬에 저장할 데이터를 찾기 위한 BLOCS 기법을 제안한다. 시퀀스 패턴 마이닝을 사용하는 BLOCS 기법은 파일시스템에서 호출하는 섹터들의 연관성을 발생한 순서를 고려하여 빈번히 요청되는 섹터들의 집합을 생성한다. 비교 분석을 위해 탐색거리(DIST) 기반 기법과 요청 빈도(FREQ) 기반 기법 그리고 빈도와 크기의 곱(F-S) 기반 기법을 제안하였다. 제안한 캐슁 기법을 평가하기 위해 하이브리드 캐슁 시뮬레이터를 개발하여 적중률과 응답시간 정보를 얻는다. 부팅 시 발생하는 I/O의 흐름자료와 10개의 응용프로그램들의 실행 시나리오에서 발생한 I/O 흐름자료를 수집하여 캐쉬 시뮬레이터의 입력으로 사용하였다. 실험 결과 부팅 흐름자료에서 제안한 BLOCS 기법이 61%의 적중률을 나타내서 적중률이 가장 낮았던 거리 우선 기반 기법에 비해 15% 더 높은 적중률을 보였다.