• 제목/요약/키워드: cache performance model

검색결과 57건 처리시간 0.033초

공유 메모리를 갖는 다중 프로세서 컴퓨터 시스팀의 설계 및 성능분석

  • 최창열;박병관;박승규;오길록
    • ETRI Journal
    • /
    • 제10권3호
    • /
    • pp.83-91
    • /
    • 1988
  • 본 논문에서는 pended 프로토콜에 기반을 둔 단일 시스팀 버스와 공유 메모리를 중심으로 구성된 다중프로세서 컴퓨터시스팀의 성능을 해석하였다. 캐쉬 메모리 적중률, 시스팀 내의 프로세서 수, 메모리 모듈의 수와 입력 큐의 유무를 변수로 하여 시스팀 버스와 프로세서의 이용률, 메모리 충돌 현상의 정도, 즉 제안된 시스팀 구조에 대한 하드웨어 측면에서의 성능을 시뮬레이션을 통해 예측 분석하였다. 공유 메모리를 갖는 다중프로세서의 주요한 시스팀 성능 요소는 캐쉬 메모리의 적중률과 효과적인 공유 메모리 갱신 알고리즘, 시스팀 버스의 효율적인 다중프로세서 지원 기능 등이며 캐쉬 메모리 적중률이 프로세서 수의 증가에 따른 시스팀 성능의 선형적인 증가와 밀접한 관계를 나타내었다.

  • PDF

High Performance Computing 환경을 위한 고성능, 무정지 파일시스템 구현 (The development of the high effective and stoppageless file system for high performance computing)

  • 박영배;최승환;이상호;김경수;공용준
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 추계 종합학술대회 논문집
    • /
    • pp.395-401
    • /
    • 2004
  • In the current high network-centralized computing and enterprising environment, it is getting essential to transmit data reliably at very high rates. Until now previous client/server model based NFS(Network File System) or AFS(Andrew's Files System) have met the various demands but from now couldn't satisfy those of the today's scalable high-performance computing environment. Not only performance but data sharing service redundancy have risen as a serious problem. In case of NFS, the locking issue and cache cause file system to reboot and make problem when it is used simply as ip-take over for H/A service. In case of AFS, it provides file sharing redundancy but it is not possible until the storage supporting redundancy and equipments are prepared. Lustre is an open source based cluster file system developed to meet both demands. Lustre consists of three types of subsystems : MDS(Meta-Data Server) which offers the meta-data services, OST(Objec Storage Targets) which provide file I/O, and Lustre Clients which interact with OST and MDS. These subsystems with message exchanging and pursuing scalable high-performance file system service. In this paper, we compare the transmission speed of gigabytes file between Lustre and NFS on the basis of concurrent users and also present the high availability of the file system by removing more than one OST in operation.

  • PDF

쿠버네티스에서 ML 워크로드를 위한 분산 인-메모리 캐싱 방법 (Distributed In-Memory Caching Method for ML Workload in Kubernetes)

  • 윤동현;송석일
    • Journal of Platform Technology
    • /
    • 제11권4호
    • /
    • pp.71-79
    • /
    • 2023
  • 이 논문에서는 기계학습 워크로드의 특징을 분석하고 이를 기반으로 기계학습 워크로드의 성능 향상을 위한 분산 인-메모리 캐싱 기법을 제안한다. 기계학습 워크로드의 핵심은 모델 학습이며 모델 학습은 컴퓨팅 집약적 (Computation Intensive)인 작업이다. 쿠버네티스 기반 클라우드 환경에서 컴퓨팅 프레임워크와 스토리지를 분리한 구조에서 기계학습 워크로드를 수행하는 것은 자원을 효과적으로 할당할 수 있지만, 네트워크 통신을 통해 IO가 수행되야 하므로 지연이 발생할 수 있다. 이 논문에서는 이런 환경에서 수행되는 머신러닝 워크로드의 성능을 향상하기 위한 분산 인-메모리 캐싱 기법을 제안한다. 특히, 제안하는 방법은 쿠버네티스 기반의 머신러닝 파이프라인 관리 도구인 쿠브플로우를 고려하여 머신러닝 워크로드에 필요한 데이터를 분산 인-메모리 캐시에 미리 로드하는 새로운 방법을 제안한다.

  • PDF

Node Incentive Mechanism in Selfish Opportunistic Network

  • WANG, Hao-tian;Chen, Zhi-gang;WU, Jia;WANG, Lei-lei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권3호
    • /
    • pp.1481-1501
    • /
    • 2019
  • In opportunistic network, the behavior of a node is autonomous and has social attributes such as selfishness.If a node wants to forward information to another node, it is bound to be limited by the node's own resources such as cache, power, and energy.Therefore, in the process of communication, some nodes do not help to forward information of other nodes because of their selfish behavior. This will lead to the inability to complete cooperation, greatly reduce the success rate of message transmission, increase network delay, and affect the overall network performance. This article proposes a hybrid incentive mechanism (Mim) based on the Reputation mechanism and the Credit mechanism.The selfishness model, energy model (The energy in the article exists in the form of electricity) and transaction model constitute our Mim mechanism. The Mim classifies the selfishness of nodes and constantly pay attention to changes in node energy, and manage the wealth of both sides of the node by introducing the Central Money Management Center. By calculating the selfishness of the node, the currency trading model is used to differentiate pricing of the node's services. Simulation results show that by using the Mim, the information delivery rate in the network and the fairness of node transactions are improved. At the same time, it also greatly increases the average life of the network.

하이브리드 하드디스크에서 AHP를 적용한 블록 교체 기법 (A Block Replacement Scheme using Analytic Hierarchy Process in Hybrid HDD)

  • 김정원
    • 한국산업정보학회논문지
    • /
    • 제20권5호
    • /
    • pp.45-52
    • /
    • 2015
  • 하이브리드 하드디스크는 저전력이면서 마그네틱 하드디스크에 비해 읽기 성능이 우수하다. 이 디스크의 플래시메모리에는 지역성이 높은 블록이 저장되므로 효율적인 블록 교체 기법이 필요하다. 블록 교체에는 크기, 지역성, 빈도 등 다양한 요인에 의해 결정되므로 일종의 다중 기준 결정 모델로 정의될 수 있다. 이 문제를 해결하기 위해 본 연구는 AHP (Analytic Hierarchy Process) 모델을 적용하여 효율적인 블록 교체 기법을 제시한다. 실험의 효율성을 검증하기 위하여 철저한 시뮬레이션을 수행한 결과 일반응용 프로그램의 응답성뿐만 아니라 부트 시간이 단축됨을 확인하였다.

Technique for Estimating the Number of Active Flows in High-Speed Networks

  • Yi, Sung-Won;Deng, Xidong;Kesidis, George;Das, Chita R.
    • ETRI Journal
    • /
    • 제30권2호
    • /
    • pp.194-204
    • /
    • 2008
  • The online collection of coarse-grained traffic information, such as the total number of flows, is gaining in importance due to a wide range of applications, such as congestion control and network security. In this paper, we focus on an active queue management scheme called SRED since it estimates the number of active flows and uses the quantity to indicate the level of congestion. However, SRED has several limitations, such as instability in estimating the number of active flows and underestimation of active flows in the presence of non-responsive traffic. We present a Markov model to examine the capability of SRED in estimating the number of flows. We show how the SRED cache hit rate can be used to quantify the number of active flows. We then propose a modified SRED scheme, called hash-based two-level caching (HaTCh), which uses hashing and a two-level caching mechanism to accurately estimate the number of active flows under various workloads. Simulation results indicate that the proposed scheme provides a more accurate estimation of the number of active flows than SRED, stabilizes the estimation with respect to workload fluctuations, and prevents performance degradation by efficiently isolating non-responsive flows.

  • PDF

고성능 프로세서-메모리 혼합 구조의 설계 및 성능 분석 (Design and Performance Analysis of High Performance Processor-Memory Integrated Architectures)

  • 김영식;김신덕;한탁돈
    • 한국정보처리학회논문지
    • /
    • 제5권10호
    • /
    • pp.2686-2703
    • /
    • 1998
  • 프로세서 메모리 혼합 구조는 해마다 증가하는 프로세서와 메모리간의 성능 격차를 해결하는 대안으로 연구가 활발히 진행되고 있다. 본 논문에서는 프로세서 메모리 혼합 구조의 여러 가지 설계 대안들을 고찰하였다. 이를 위해서 DRAM 접근 시간의 분석적 모델을 제안하고 성능 향상점 및 성능 병목점을 찾았다. 제안한 분석적 모델에 의하여 DRAM 페이지 적중률을 증대하여 성능을 향상시키는 구조로써 새로운 온칩 DRAM 구조인 프리차지 연기 뱅크 아키텍쳐를 제안하였다. 또한 제안한 뱅크 아키텍쳐에 효율적으로 적용할 수 있는 뱅크 인터리빙 방법을 제시하였다. 제안한 구조는 기존의 일반적 DRAM 구조 및 계층적 다중-뱅크 구조보다 우수함을 시뮬레이션을 통하여 증명하였다. 시뮬레이션은 SimpleScalar 툴을 개조하여 사용하였고, SPEC95 벤치마크에 대해서, 캐쉬 메모리의 크기, 뱅크 개수, 프리차지 연기 시간 등의 변화에 대한 성능을 분석하였다.

  • PDF

Social-Aware Collaborative Caching Based on User Preferences for D2D Content Sharing

  • Zhang, Can;Wu, Dan;Ao, Liang;Wang, Meng;Cai, Yueming
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권3호
    • /
    • pp.1065-1085
    • /
    • 2020
  • With rapid growth of content demands, device-to-device (D2D) content sharing is exploited to effectively improve the service quality of users. Considering the limited storage space and various content demands of users, caching schemes are significant. However, most of them ignore the influence of the asynchronous content reuse and the selfishness of users. In this work, the user preferences are defined by exploiting the user-oriented content popularity and the current caching situation, and further, we propose the social-aware rate, which comprehensively reflects the achievable contents download rate affected by the social ties, the caching indicators, and the user preferences. Guided by this, we model the collaborative caching problem by making a trade-off between the redundancy of caching contents and the cache hit ratio, with the goal of maximizing the sum of social-aware rate over the constraint of limited storage space. Due to its intractability, it is computationally reduced to the maximization of a monotone submodular function, subject to a matroid constraint. Subsequently, two social-aware collaborative caching algorithms are designed by leveraging the standard and continuous greedy algorithms respectively, which are proved to achieve different approximation ratios in unequal polynomial-time. We present the simulation results to illustrate the performance of our schemes.

재전송 Agent를 이용한 유무선 융합망에서의 신뢰성 있는 멀티캐스트 전송 방식 (The Reliable Multicast Transport Protocol over Wireless Convergence Networks using a Retransmission Agent)

  • 염성관;유선진
    • 한국융합학회논문지
    • /
    • 제7권4호
    • /
    • pp.25-32
    • /
    • 2016
  • 본 논문에서는 무선 기지국에서 멀티캐스트 패킷 재전송을 담당하는 Agent를 설치하여 신뢰성있는 멀티 캐스트 프로토콜인 MFTP에서의 재전송률을 낮추고자 한다. 유무선 통합 환경에서 신뢰성 있는 멀티캐스트 프로토콜 사용 시, 무선 링크의 비트 에러와 단말의 이동성을 보장하기 위한 핸드오프로 오류가 많이 발생한다. 이런 오류때문에 멀티캐스트 그룹에 제어 및 재전송 패킷이 증가하게 되며, 또한 멀티캐스트 그룹 세션 전체 성능이 저하된다. 본 논문은 기지국에 무선 환경에 있는 단말의 복구 요구 패킷에 대한 복구 패킷 전송을 담당하는 Agent을 도입하는 방식을 제안하고 있다. MATLAB를 이용하여 제안한 방법이 멀티캐스트 세션에 복구 요구 및 복구 패킷의 수을 줄일 수 있고 멀티캐스트 그룹 세션 전체의 성능을 향상시킬 수 있음을 검증하였다.

Symmetric Multi-Processing 시스템에서 다양한 병렬 기법 모델을 적용한 병렬 CUPID 코드의 성능분석 (Performance Analysis of the Parallel CUPID Code for Various Parallel Programming Models in Symmetric Multi-Processing System)

  • 전병진;이재룡;윤한영;최형권
    • 대한기계학회논문집B
    • /
    • 제38권1호
    • /
    • pp.71-79
    • /
    • 2014
  • 본 연구에서는 가압경수로 주요 기기의 고정밀 열수력 해석을 위한 CUPID(Component Unstructured Program for Interfacial Dynamics) 코드의 압력장 해석을 위한 이중공액구배법(Bi-Conjugate Gradient) 알고리즘의 병렬화를 SMP(Symmetric Multi Processing) 시스템에서 고찰한다. 비압축성 후향계단 유동문제의 병렬해석을 다양한 격자 조밀도를 가지는 격자들에 대하여 세 가지 대표적인 병렬 기법(MPI, OpenMP, 하이브리드)을 적용하여 병렬성능 비교를 수행하였다. 병렬처리 성능은 해석 문제의 크기뿐만 아니라 캐쉬 메모리 크기에도 영향을 받으므로, 전체 계산량이 매우 적거나 개별 쓰레드에 사용되는 메모리가 캐쉬 메모리보다 매우 큰 경우에는 병렬화에 의한 성능 향상이 낮음을 확인하였다. 또한, 문제 크기에 상관없이 MPI 기법이 OpenMP보다 성능이 우수했으며, 상대적으로 적은 쓰레드를 사용한 경우엔 하이브리드 기법이 가장 우수한 성능을 보였다.