• 제목/요약/키워드: caching performance

Search Result 279, Processing Time 0.031 seconds

병렬 시스템 환경하에서 비정형 응용 프로그램을 위한 입출력 시스템의 설계 및 구현 (Design and Implementation of An I/O System for Irregular Application under Parallel System Environments)

  • 노재춘;박성순;알록샤우드리;권오영
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제26권11호
    • /
    • pp.1318-1332
    • /
    • 1999
  • 본 논문에서는 입출력 응용을 위해 collective I/O 기법을 기반으로 한 실행시간 시스템의 설계, 구현 그리고 그 성능평가를 기술한다. 여기서는 모든 프로세서가 동시에 I/O 요구에 따라 스케쥴링하며 I/O를 수행하는 collective I/O 방안과 프로세서들이 여러 그룹으로 묶이어, 다음 그룹이 데이터를 재배열하는 통신을 수행하는 동안 오직 한 그룹만이 동시에 I/O를 수행하는 pipelined collective I/O 등의 두 가지 설계방안을 살펴본다. Pipelined collective I/O의 전체 과정은 I/O 노드 충돌을 동적으로 줄이기 위해 파이프라인된다. 이상의 설계 부분에서는 동적으로 충돌 관리를 위한 지원을 제공한다. 본 논문에서는 다른 노드의 메모리 영역에 이미 존재하는 데이터를 재 사용하여 I/O 비용을 줄이기 위해 collective I/O 방안에서의 소프트웨어 캐슁 방안과 두 가지 모형에서의 chunking과 온라인 압축방안을 기술한다. 그리고 이상에서 기술한 방안들이 입출력을 위해 높은 성능을 보임을 기술하는데, 이 성능결과는 Intel Paragon과 ASCI/Red teraflops 기계 상에서 실험한 것이다. 그 결과 응용 레벨에서의 bandwidth는 peak point가 55%까지 측정되었다.Abstract In this paper we present the design, implementation and evaluation of a runtime system based on collective I/O techniques for irregular applications. We present two designs, namely, "Collective I/O" and "Pipelined Collective I/O". In the first scheme, all processors participate in the I/O simultaneously, making scheduling of I/O requests simpler but creating a possibility of contention at the I/O nodes. In the second approach, processors are grouped into several groups, so that only one group performs I/O simultaneously, while the next group performs communication to rearrange data, and this entire process is pipelined to reduce I/O node contention dynamically. In other words, the design provides support for dynamic contention management. Then we present a software caching method using collective I/O to reduce I/O cost by reusing data already present in the memory of other nodes. Finally, chunking and on-line compression mechanisms are included in both models. We demonstrate that we can obtain significantly high-performance for I/O above what has been possible so far. The performance results are presented on an Intel Paragon and on the ASCI/Red teraflops machine. Application level I/O bandwidth up to 55% of the peak is observed.he peak is observed.

이동 컴퓨팅 환경에서 사용자의 FAP 프로파일을 이용한 선인출 메커니즘 (Prefetching Mechanism using the User's File Access Pattern Profile in Mobile Computing Environment)

  • 최창호;김명일;김성조
    • 한국정보과학회논문지:정보통신
    • /
    • 제27권2호
    • /
    • pp.138-148
    • /
    • 2000
  • 이동 컴퓨팅 환경에서 이동 호스트(클라이언트)는 네트워크가 연결되어 있는 동안 단절에 대비하여 중요한 파일들을 자신의 로컬 캐쉬에 저장하여야 한다. 본 논문에서는 클라이언트가 네트워크 단절시 가까운 미래에 사용하게 될 파일을 캐쉬에 저장하는 선인출 메커니즘을 제안한다. 이 메커니즘은 분석기, 선인출 목록 생성기, 그리고 선인출 관리기를 활용한다. 분석기는 클라이언트의 파일 참조 기록을 FAP(File Access Pattern) 프로파일에 저장한다. 선인출 목록 생성기는 이 프로파일을 이용하여 선인출 목록을 만들며, 선인출 관리기는 이 선인출 목록을 파일 서버에게 요청한다. 본 논문은 단지 관련성이 깊은 파일들이 선인출되는 것을 보장하기 위해 TRP(Threshold of Reference Probability) 파라미터를 설정하였다. 선인출 목록 생성기는 참조 확률이 TRP 이상인 파일들을 선인출 목록에 추가한다. 또한, 본 논문은 선인출 목록을 저장하는데 필요한 적재 크기를 줄이기 위해 TACP(Threshold of Access Counter Probability) 파라미터를 사용한다. 마지막으로, 우리는 캐쉬 적중률, 단절 후 클라이언트의 참조 파일 수, 적재 크기를 측정하였다. 시뮬레이션 결과, 선인출 메커니즘의 성능이 LRU 캐슁 메커니즘 보다 우수함을 알 수 있었다. 또한, TACP를 이용한 선인출은 적재 크기를 줄일 수 있으면서도, TACP를 사용하지 않는 선인출과 바슷한 성능을 보임을 확인하였다.

  • PDF

버추얼 인터페이스 아키텍처 및 인터벌 캐쉬에 기반한 분산 VOD 서버 (A Distributed VOD Server Based on Virtual Interface Architecture and Interval Cache)

  • 오수철;정상화
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권10호
    • /
    • pp.734-745
    • /
    • 2006
  • 본 논문에서는 VIA(Virtual Interface Architecture) 통신 프로토콜과 인터벌 캐쉬 기법을 적용하여 서버 내부 통신망의 부하를 감소시킨 PC 클러스터 기반 분산 VOD 서버를 제안한다. 분산 VOD 서버의 각 노드는 클러스터상에 분산 저장된 비디오 데이타를 서버 내부 통신망을 사용하여 전송받아 사용자에게 제공한다. 이 때, 대량의 비디오 데이타가 서버 내부 통신망을 통하여 전송됨으로 서버 내부 통신망에 부하가 증가한다. 본 논문에서는 TCP/IP의 통신 오버헤드를 제거한 사용자 수준 통신 프로토콜인 VIA에 기반한 분산 VOD 파일 시스템을 개발함으로써, 원격 디스크를 접근하는데 소요되는 내부 통신망 비용을 최소화하려고 하였다. 또한, VIA의 최대 전송 크기를 VOD 시스템에 맞게 확장함으로써 내부 통신망의 성능을 향상시키려고 하였다. 추가로 본 논문은 인터벌 캐쉬 기법을 적용하여 원격 서버 노드에서 전송 받은 비디오 데이타를 지역 노드의 메인 메모리에 캐쉬함으로써, 서버 내부 통신망에 발생하는 통신량을 감소시켰다. 실험을 통하여 분산 VOD 서버의 성능을 측정하였으며, TCP/IP에 기반하고 인터벌 캐쉬를 지원하지 않는 기존의 분산 VOD 서버와 성능을 비교하였다. 실험결과, VIA 적용으로 약 11.3%의 성능 향상, 그리고 인터벌 캐쉬 기법을 적용하여 추가로 약 10%의 성능 향상이 생겨 총 21.3%의 성능 향상을 얻을 수 있었다.

유.무선 혼합망에서 Cross-Layer기반의 에너지 효율적인 전송 기법 (An Energy Efficient Transmission Scheme based on Cross-Layer for Wired and Wireless Networks)

  • 김재훈;정광수
    • 한국정보과학회논문지:정보통신
    • /
    • 제34권6호
    • /
    • pp.435-445
    • /
    • 2007
  • Snoop 프로토콜은 유 무선 혼합망에서 무선 링크에서 발생하는 TCP 패킷 손실을 효과적으로 보상하여 TCP 전송률을 향상시킬 수 있는 효율적인 프로토콜이다. 하지만, 무선 링크에서 연집한 패킷 손실이 발생하는 경우에는 지역 재전송을 효과적으로 수행하지 못하여 전송 효율이 떨어진다는 문제점이 있다. 이러한 Snoop 프로토콜의 문제점을 개선하기위해 무선 구간에서 TCP-SACK의 장점을 활용한 SACK-Aware-Snoop, SNACK 메커니즘 등이 제안되었다. SACK-Aware-Snoop, SNACK 메커니즘은 연집한 패킷손실 환경에서도 Snoop 프로토콜보다 높은 전송률을 보장하지만 전송 계층의 ACK 패킷을 기반으로 재전송을 수행한다는 점은 ACK 패킷의 손실에 심각한 전송 성능 저하를 가져오며, 무선 구간에서 SACK 옵션의 사용은 무선망의 대역폭과 이동 단말의 한정된 에너지 자원을 불필요하게 낭비하는 문제를 초래하게 된다. 본 논문에서는 이러한 문제점을 개선하기 위해 Cross-layer 기법을 적용한 지역 재전송 기법인 C-Snoop(Cross-layer Snoop) 프로토콜을 제안한다. C-Snoop 프로토콜은 현재 유 무선 혼합망에서 가장 널리 사용되는 IEEE 802.11 MAC 프로토콜 기반의 지역 재전송 메커니즘으로서, MAC 계층의 ACK 패킷과 새로이 제안된 지역 재전송 타이머에 의해 효율적인 지역 재전송을 수행한다. ns-2 시뮬레이터를 이용한 실험을 통해 C-Snoop의 지역 재전송 기법은 무선 구간의 연집적인 패킷 손실에 대해 효율적인 보상을 수행하며, 이동 단말의 에너지 효율성을 향상시키는 것을 확인할 수 있었다.

이동 데이타베이스 시스템에서 데이타의 위치와 영역 특성을 고려한 캐쉬 교체 기법 (Cache Replacement Strategies considering Location and Region Properties of Data in Mobile Database Systems)

  • 김호숙;용환승
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제27권1호
    • /
    • pp.53-63
    • /
    • 2000
  • 최근 저가의 무선 통신 기술의 발달과 고성능 이동 컴퓨팅 장비의 보급에 따라 이동 컴퓨팅 시장은 점차로 확대되는 추세에 있다. 이동 컴퓨팅 환경에서의 제한된 대역폭, 잦은 단절과 배터리 제한 등의 제약성에 효율적으로 대처하기 위하여 여러 방법이 제안되었고, 특히 지구국에서 전송된 데이타 중 향후 사용 가능성이 높은 데이타를 캐쉬에 저장하고 이용하는 캐쉬 기법에 대한 많은 연구가 이루어지고 있다. 그러나 기존의 캐쉬 교체 기법들은 사용자의 이동성과 데이타의 공간 속성에 의한 특성을 고려하지 못하고 있기 때문에 그 효율성에서 한계를 가지고 있다. 본 논문은 이동 호스트의 위치 변화에 따라 이동 호스트의 캐쉬 내에 저장된 데이타의 가치와 의미가 변경되는 것을 보인다. 또한 지리(geographic) 데이타의 공간적 위치(location)와 지리 데이타가 영향을 미치는 공간적 범위 즉 영역 (region)을 데이타의 공간 속성 (spatial attributes)으로 정의하고, 시간에 따른 사용자의 이동성과 데이타의 공간 속성을 효과적으로 지원하는 새로운 캐쉬 교체 방법들을 제안하였다. 기존의 방법과 본 논문에서 제안한 캐쉬 교체 방법의 비교를 통하여 이동 호스트의 위치와 연관된 질의에 대한 성능 평가를 수행한 결과, 본 논문에서 제안한 캐쉬 교체 방법에 의한 캐쉬 적중률의 향상을 입증하였다. 또한 데이타 밀집도에 따라 캐쉬 교체 방법들의 성능이 변화함을 밝히고 이를 이용하여 이동 호스트가 지나가는 대상 지역의 데이타 밀집도에 따라 서로 다른 캐쉬 교체 방법의 선택이 필요함을 제시 하였다.

  • PDF

위치 기반 서비스에서 서술 기반의 시멘틱 프리페칭 기법을 이용한 동적 질의 처리 (Dynamic Query Processing Using Description-Based Semantic Prefetching Scheme in Location-Based Services)

  • 강상원;송의성
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제34권5호
    • /
    • pp.448-464
    • /
    • 2007
  • 위치 기반 서비스는 질의하는 클라이언트의 위치에 따라 질의에 대한 결과를 제공한다. 위치 기반 서비스에서, 전통적인 캐싱과 프리페칭 같은 기법은 서버로부터의 데이타 전송과 질의 응답 시간을 감소시키기에 효과적인 접근 방법이다. 그러나 클라이언트의 다양한 이동성과 질의 패턴으로 이들 기법은 캐시의 비효율성과 네트워크 부하를 초래할 수 있다. 이러한 단점들을 해결하기 위해, 사용자가 요구한 질의와 질의 결과를 표현하는 세그먼트들의 집합으로 정의된, 서술을 이용하여 프리페칭 세그먼트 개념과 개선된 캐시 교체 전략을 함께 사용하는 시멘틱 프리페칭 기법을 제안한다. 이동 클라이언트는 시멘틱 프리페칭 영역이라고 불리는 서비스 영역에 진입할 때 서버로부터 미리 필요한 시멘틱 정보를 가져온다. 이동 컴퓨팅 환경에서 클라이언트는 위치 종속 데이타의 질의 처리를 위해 캐시에 미리 그 정보를 유지한다. 제안 기법의 성능은 사용자 이동성과 질의 패턴, 위치 종속 데이타의 분포, 적용 캐시 교체 전략과 같은 다양한 환경 변수와 관련 지어 조사된다. 시뮬레이션 결과는 제안 기법이 영역 질의와 최 근접 질의에 대해 기존 기법보다 효율적임을 보여준다. 추가로, 질의 처리에 두 질의를 동적으로 반영하여 적용하면 성능이 향상됨을 알 수 있다.

무선 인터넷 프록시 서버 클러스터 시스템에서 라운드 로빈을 이용한 해싱 기법 (A Hashing Scheme using Round Robin in a Wireless Internet Proxy Server Cluster System)

  • 곽후근;정규식
    • 정보처리학회논문지A
    • /
    • 제13A권7호
    • /
    • pp.615-622
    • /
    • 2006
  • 무선 인터넷 프록시 서버 클러스터 환경에서의 캐싱은 인터넷 트래픽, 웹 유저의 요청 및 응답 시간을 줄여주는 효과를 가진다. 이때, 캐시의 히트율(Hit ratio)을 증가시키는 한 가지 방법은 해쉬 함수를 이용하여 동일 요청 URL을 동일 캐시에 할당하는 방법이다. 해싱을 이용한 방법의 문제점은 해쉬의 특성으로 인해 클라이언트의 요청이 일부 캐시 서버로 집중되고 전체 시스템의 성능이 일부 캐시 서버에 종속된다는 점이다. 이에 본 논문에서는 해싱과 라운드 로빈 방식의 장점을 결합하여 클라이언트의 요청을 일부 캐시 서버가 아닌 전체 캐시 서버에 균일하게 분포시키는 개선된 부하 분산 방법을 제안한다. 기존 해싱 방법에서는 요청 URL에 대한 해쉬값이 계산되면 캐시 서버가 컴파일 시간에 정적으로 할당되는 반면, 제안된 방법에서는 라운드 로빈 방법을 사용하여 실행 시간에 동적으로 할당된다. 제안된 방법은 무선 인터넷 프록시 서버 클러스터 환경에서 구현되었고, 16대의 컴퓨터를 이용하여 실험을 수행하였다. 실험 결과는 기존 해싱 방법에 비해 클라이언트의 요청을 캐시 서버들 사이로 균일하게 분포시키고, 이에 따라 전체 무선 인터넷 프록시 서버의 성능이 52%에서 112%까지 향상됨을 확인하였다.

관계 DBMS 기반 XML 저장시스템 상에서의 XML 뷰 인덱싱 (XML View Indexing Using an RDBMS based XML Storage System)

  • 박대성;김영성;강현철
    • 인터넷정보학회논문지
    • /
    • 제6권4호
    • /
    • pp.59-73
    • /
    • 2005
  • 질의 결과를 캐쉬한 후 후속 질의 처리에 사용하는 것은 중요한 질의 최적화 기법으로서 이에는 실체뷰 기법과 뷰 인덱싱이 있다. 관계 데이터베이스에 대하여 많이 연구된 이들 기법은 XML이 웹 상에서 데이터 교환의 표준으로 부각된 이래 최근 XML 데이터에 대해서도 연구되고 있다. XML 뷰 인덱싱은 XML 질의의 결과인 XML 뷰 xv를 XML 뷰 인덱스(XVI)라는 구조로 표현한다. XVI는 xv의 소스 문서 엘리먼트들의 식별자 및 xv에 대한 정보를 저장한다. xv에 대한 XVI는 XML 엘리먼트의 식별자만을 저장하지 엘리먼트 자체를 저장하는 것이 아니다. 따라서 xv가 요청되면 그것의 XVI를 통해 xv의 하부 소스 XML 문서에 대해 실체화(materialization) 과정이 수행되어야 한다. 본 논문은 XVI 관리 시스템과 관계 DBMS 기반의 XML 저장 시스템의 통합 문제를 다룬다. 제안된 시스템은 두개의 서로 다른 상용 관계 DBMS에 대하여 Windows 2000 Server 환경에서 각각 Java로 구현되어 XML 뷰 인덱싱을 통한 XML 질의 처리의 성능 향상 및 XML 뷰 인덱싱의 오버헤드 평가에 이용되었다. 성능 실험 결과 관계 DBMS 기반의 XML 저장 시스템 상에서 XML 뷰 인덱싱은 매우 효율적이며 그 오버헤드는 미미하다는 것을 확인하였다.

  • PDF

효율적인 분산 VOD 서버를 위한 Channel Bonding 기반 M-VIA 및 인터벌 캐쉬의 활용 (Utilizing Channel Bonding-based M-n and Interval Cache on a Distributed VOD Server)

  • 정상화;오수철;윤원주;김현필;최영인
    • 정보처리학회논문지A
    • /
    • 제12A권7호
    • /
    • pp.627-636
    • /
    • 2005
  • 본 논문에서는 분산 VOD 서버의 내부 통신망에 발생하는 부하를 줄이기 위해 channel bonding 기반 M-VIA 및 인터벌 캐쉬를 적용하는 방법을 제안한다. 분산 VOD 서버의 각 노드는 클러스터상에 분산 저장된 비디오 데이터를 서버 내부 통신망을 사용하여 전송받아 사용자에게 제공한다. 이 때, 대량의 비디오 데이터가 서버 내부 통신망을 통하여 전송됨으로 서버 내부 통신망에 부하가 증가한다. 본 논문에서는 서버 내부 통신망의 부하를 감소시키기 위해서 두 가지 기법을 적용하였다. 첫째, channel bonding을 지원하는 M-VIA를 개발하여 Gigabit Ethernet기반 서버 내부 통신망에 적용하였다. M-VIA는 TCP/IP의 통신 오버헤드를 제거한 사용자 수준 통신 프로토콜로 통신에 소요되는 시간을 감소시켜준다. 이러한 M-VIA에 복수개의 네트워크 카드를 사용하여 통신이 가능하게 하는 channel bonding 기법을 적용함으로써 서버 내부 통신망 자체의 대역폭을 증가시켰다. 두번째, 인터벌 캐쉬 기법을 적용하여 원격 서버 노드에서 전송 받은 비디오 데이터를 지역 노드의 메인 메모리에 캐쉬함으로써, 서버 내부 통신망에 발생하는 통신량을 감소시켰다. 실험을 통하여 분산 VOD 서버의 성능을 측정하였으며, TCP/IP에 기반하고 인터벌 캐쉬를 지원하지 않는 기존의 분산 VOD 서버와 성능을 비교하였다. 실험결과, channel bonding 기반 M-VIA의 적용으로 약$20\%$의 성능 향상, 그리고 인터벌 캐쉬 기법을 적용하여 추가로 약 $10\%$의 성능 향상이 생겨 총 $30\%$의 성능 향상을 얻을 수 있었다.