• Title/Summary/Keyword: 병목 현상

Search Result 525, Processing Time 0.034 seconds

A Study of solving the bottleneck between CPU and GPU (CPU와 GPU 간의 병목현상 해결에 관한 연구)

  • Lee, Jin-Ho;Cho, Han-Jin
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.3-4
    • /
    • 2020
  • 본 논문에서는 컴퓨팅 시스템에서 발생 할 수 있는, CPU와 GPU 간의 병목현상을 개선방안으로 통신 방식에 대해 비교 분석하였다. CPU와 GPU 간에 발생할 수 있는 병목현상의 해결방법으로, 두 구성 요소 간의 성능 구성 외의 통신방식을 개선 방법으로 PCIe와 NVLink를 비교하고, 성능 극대화 방안을 모색한다. NVLink 연결 방식의 통신 방식을 변경하였을 때 성능을 비교해 봄으로써 병목현상 해소 및 성능 향상에 우수한 결과를 낼 수 있다.

  • PDF

A Study on Cluster Configuration Method to Prevent Network Bottleneck in Spark Enviroment (Spark 환경에서 네트워크 병목 현상을 예방하기 위한 클러스터 구성 방법 연구)

  • Seok-Min Hong;Yeon-Jun You;Yong-Tae Shin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.382-385
    • /
    • 2023
  • Spark는 대용량의 데이터를 처리를 위해 분산된 데이터를 네트워크로 모은 다음, 데이터를 분할하는 작업인 Shuffle을 진행한다. 이때 Spark 클러스터의 어느 한 노드의 네트워크 전송 속도가 느릴 경우 병목 현상으로 인한 전체 처리 성능이 저하된다. 이에 본 논문에서는 네트워크 병목 현상을 예방하기 위한 클러스터 구성 방법을 제안한다. 본 논문에서 제안하는 노드 선택 시스템은 iperf 도구를 이용해 노드들의 대역폭을 측정하고 이에 따라 노드 선택 알고리즘을 통해 클러스터를 구성한다. 기존 Spark 클러스터와 본 논문이 제안하는 시스템으로 구성한 클러스터를 비교했을 때, 250MB 로그 파일을 제외하고 750MB 로그 파일부터는 네트워크 전송 속도가 낮은 노드를 가지고 있는 클러스터의 성능이 병목 현상으로 인해 느려졌다. 본 논문의 제안에 따라 노드들의 네트워크 전송 속도를 고려하여 클러스터를 구성하면 네트워크 전송 속도로 발생하는 병목 현상을 예방할 수 있다.

Solving Bottleneck in MMDB using Parallel Logging method (병렬적 로깅 기법을 통한 주 메모리 DBMS의 병목 현상 해소)

  • 이주창;이상호;차상균
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10a
    • /
    • pp.246-248
    • /
    • 1999
  • 주 메모리 DBMS에서의 회복 시스템은 디스크에의 접근을 요하는 유일한 경우이기 때문에 시스템 전체 성능의 병목(bottleneck)이 된다. 본 논문에서는 회복 시스템에서 발생하는 주 메모리 DBMS의 병목 현상을 해소하기 위하여 복수 개의 로그 디스크를 이용하는 병렬적 로깅 기법을 제안한다. 또한 병렬적 로깅 기법을 사용하는 경우 로그 레코드들이 여로 디스크에 흩어짐으로써 시스템 재시작 시 이들간의 순서를 재규명해야 하는 오버헤드가 생기는데 이를 해결하기 위해서 병렬적 재시작 알고리즘을 제안한다.

  • PDF

Load Distribution of Agent Delegation Model in Mobile Agent Based Workflow Systems (이동에이전트 기반 워크플로우 시스템에서 에이전트 위임모델의 부하분산)

  • Yoo, Jeong-Joon;Lee, Dong-Ik;Jung, Seung-Woog;Kim, Joong-Bae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.289-292
    • /
    • 2001
  • 에이전트 위임모델 기반 워크플로우 시스템은 기존 클라이언트 서버기반 워크플로우 시스템과 이동에이전트 기반 워크플로우 시스템보다 워크플로우 수가 증가하고 워크플로우 구조가 복잡해짐에 따라 보다 좋은 성능 및 확장성을 제공한다. 이는 에이전트 위임모델이 워크플로우 엔진에서 발생하는 병목현상을 제거하여 작업수행자(Task Performer)라 명명된 호스트들로 워크플로우 엔진의 부하를 자연스럽게 분산시키기 때문이다. 에이전트 위임모텔은 워크플로우 엔진의 부하를 제거하지만, 작업수행자의 부하를 고려하지 않고 작업을 할당하기 때문에, 작업수행자에 병목현상을 발생시킬 수 있다. 이는 에이전트 위임모델의 목적인 워크플로우 시스템의 성능 및 확장성 향상을 저해하는 요인이다. 따라서, 워크플로우 시스템의 성능 및 확장성을 향상시키기 위해서는 작업수행자에 발생하는 병목현상을 제거해야 한다. 본 논문에서는 작업수행자의 병목현상을 제거하기 위해 응답리스트(Response List)를 제안하며 응답리스트 관리방법을 제시한다. 이러한 응답리스트가 에이전트 위임모델 기반 워크플로우 시스템의 성능 및 확장성 향상에 어떠한 영향을 미치는지 성능평가를 수행한다.

  • PDF

Resolving Memory Bottlenecks in Hardware Accelerators with Data Prefetch

  • Hyein Lee;Jinoo Joung
    • Journal of the Korea Society of Computer and Information
    • /
    • v.29 no.6
    • /
    • pp.1-12
    • /
    • 2024
  • Deep learning with faster and more accurate results requires large amounts of storage space and large computations. Accordingly, many studies are using hardware accelerators for quick and accurate calculations. However, the performance bottleneck is due to data movement between the hardware accelerators and the CPU. In this paper, we propose a data prefetch strategy that can efficiently reduce such operational bottlenecks. The core idea of the data prefetch strategy is to predict the data needed for the next task and upload it to local memory while the hardware accelerator (Matrix Multiplication Unit, MMU) performs a task. This strategy can be enhanced by using a dual buffer to perform read and write operations simultaneously. This reduces latency and execution time of data transfer. Through simulations, we demonstrate a 24% improvement in the performance of hardware accelerators by maximizing parallel processing with dual buffers and bottlenecks between memories with data prefetch.

Bottleneck link bandwidth Measurement Algorithm for improving end-to-end transit delay in Grid network (그리드 네트워크에서 종단간 전송 지연 향상을 위한 bottleneck 링크 대역폭 측정 알고리즘)

  • Choi, Won-Seok;Ahn, Seong-Jin;Chung, Jin-Wook
    • The KIPS Transactions:PartC
    • /
    • v.10C no.7
    • /
    • pp.923-928
    • /
    • 2003
  • This paper proposes a bottleneck link bandwidth measurement algorithm for reducing packet transmission delay within the grid network. There are two methods for measuring bottleneck link bandwidth:Packet Pair algorithm and Paced Probes algorithm. They measure bottleneck link bandwidth using the difference in arrival times of two paced probe packets of the same size traveling from the same source to destination. In addition, they reduce the influences of cross traffic by pacer packet. But there are some problems on these algorithms:it's not possible to know where bottleneck link occurred because they only focus on measuring the smallest link bandwidth along the path without considering bandwidth of every link on the path. So hop-by-hop based bottleneck link bandwidth measurement algorithm can be used for reducing packet transmission delay on grid network. Timestamp option was used on the paced probe packet for the link level measurement of bottleneck bandwidth. And the reducing of packet transmission delay was simulated by the solving a bottleneck link. The algorithm suggested in this paper can contribute to data transmission ensuring FTP and realtime QoS by detecting bandwidth and the location where bottleneck link occurred.

Software Method for Improving the Performance of Real-time Rendering (실시간 렌더링의 속도 향상을 위한 소프트웨어적 기법)

  • Han, Young-Min;Hwang, Seok-Min;Sung, Mee-Young
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11a
    • /
    • pp.757-759
    • /
    • 2005
  • 일반적인 렌더링 방식은 응용$\rightarrow$기하$\rightarrow$래스터화로 진행되는 렌더링 파이프라인 상에서 진행된다. 그래픽 카드의 발전으로 기하 단계의 연산을 GPU가 담당함에 따라 CPU의 연산을 줄여 CPU가 많은 연산을 할 수 있게 되었다. 그러나 이 같은 분배로 인해 CPU와 GPU가 서로 끝나기를 기다리는 병목현상이 발생하게 되었다. 이러한 병목 현상은 효율적인 렌더링을 저해하는 요인이다. 본 연구의 목적은 CPU와 GPU의 병렬처리 과정에서 발생하는 병목현상을 줄여 실시간 렌더링에서 그래픽 출력을 더욱 빠르게 하는데 있다. 이를 위해 본 논문에서는 그래픽 출력 과정 중 CPU 와 GPU 사이에서 하드웨어적으로 처리되고 있는 동기적 처리 과정을 소프트웨어적인 기법을 이용하여 비동기적으로 처리함으로써 성능을 향상시킬 수 있음을 말하고자 한다.

  • PDF

Performance analysis of data network at the PLSI global file system (PLSI 글로벌파일시스템에서 데이터 네트워크 성능 분석)

  • Woo, Joon;Jang, Ji-Hoon;Hong, Tae-young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.71-72
    • /
    • 2017
  • PLSI 통합 슈퍼컴퓨팅 서비스 환경에서는 다수의 사이트에서 클러스터 시스템 간 데이터 공유를 위해 글로벌 파일시스템을 사용하고 있으나, 수백 노드 이상의 클라이언트와 파일 서버 간 통신이 이루어지는 병렬 I/O에서 네트워크 병목 현상 이 발생할 수 있다. 따라서, 본 연구에서는 네트워크 병목 현상이 PLSI 글로벌 파일 시스템의 I/O 성능에 미치는 영향을 분석한다. PLSI 글로벌 파일시스템 테스트 베드에서 실험을 통해 네트워크 스위치의 버퍼 크기가 병목 현상을 유발하며, 네트워크 스위치의 버퍼 용량을 증가하여 I/O 성능을 개선할 수 있음을 보여준다.

A Load-Balancing Method to remove the Bottleneck of AHU Server (AHU 서버의 병목현상을 해소하기 위한 부하분산 방법)

  • An, Kwang-Ho;Kim, Sung-Soo;Cho, We-Duke
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06b
    • /
    • pp.484-488
    • /
    • 2008
  • AHU(Autonomic Healing Utility)는 결함발생요인을 관리하고 결함이 발생할 가능성이 있는 응용프로그램을 검출하기 위하여 결함예방서비스와 더불어 프로액티브한 결함복구서비스를 지원한다. Server-Client 구조를 갖는 AHU는 하나의 AHU 서버에 너무 많은 AHU 클라이언트들이 자가치유 서비스를 요청하는 경우 병목현상이 발생하여 AHU 서버의 처리용량을 넘게 되고 AHU가 제공하는 자가치유시간을 증가시켜 자가치유서비스의 질을 저하시키거나 AHU의 SPOF(Single Point of Failure)로 작용하여 AHU의 전반적인 결함을 발생시키는 원인이 된다. 따라서 본 논문에서는 AHU 시스템의 부하를 분산시켜서 AHU 서버에 생기는 병목현상을 해소하기 위한 방법을 제안하고 이를 구현하여 기존의 AHU와 AHU 서버들 사이의 부하분산 방법을 적용한 AHU를 비교하는 성능평가를 수행하였다.

  • PDF

A Parallel Approach on the B-tree for an Information Retrieval System using FAST-INV (FAST-lNV를 이용한 정보검색 시스템에서의 B-트리의 병렬접근에 대한 연구)

  • Kim, Soo-Young;Goh, Ji-Hyun;Park, Soon-Chol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.263-266
    • /
    • 2001
  • 인터넷 상의 문서양이 기하급수적으로 증가하면서 검색엔진의 성능평가가 대두되고 있다. 이를 위해 검색엔진 인덱스 모듈부분의 좋은 성능이 요구되는데 빠른 대용량 역파일 구성을 위한 알고리즘을 사용하게 되면 인덱스 속도를 향상시킬 수 있다. 그러나, 병렬처리가 되지 않는 문헌벡터화일 제작시 트리검색 모듈에서 병목 현상이 발생하게 된다. 본 논문에서는 병목현상이 발생하는 트리를 병렬로 접근함으로써 시스템의 병목현상을 해소하고 인덱스 시스템의 전체적인 성능을 개선찬 수 있는 방안을 연구한다.

  • PDF