• 제목/요약/키워드: Graphics processing unit(GPU)

검색결과 153건 처리시간 0.02초

Performance Improvement of Web Service Based on GPGPU and Task Queue

  • Kim, Changsu;Kim, Kyunghwan;Jung, Hoekyung
    • Journal of information and communication convergence engineering
    • /
    • 제19권4호
    • /
    • pp.257-262
    • /
    • 2021
  • Providing web services to users has become expensive in recent times. For better web services, a web server is provided with high-performance technology. To achieve great web service experiences, tools such as general-purpose graphics processing units (GPGPUs), artificial intelligence, high-performance computing, and three-dimensional simulation are widely used. However, graphics processing units (GPUs) are used in high-speed operations and have limited general applications. In this study, we developed a task queue in a GPU to improve the performance of a web service using a multiprocessor and studied how to receive and process user requests in bulk. We propose the use of a GPGPU-based task queue to process user requests more than GPGPU based a central processing unit thread, and to process more GPU threads on task queue at about 136% to 233%, and proved that the proposed method is effective for web service.

고차 정확도 수치기법의 GPU 계산을 통한 효율적인 압축성 유동 해석 (EFFICIENT COMPUTATION OF COMPRESSIBLE FLOW BY HIGHER-ORDER METHOD ACCELERATED USING GPU)

  • 장태규;박진석;김종암
    • 한국전산유체공학회지
    • /
    • 제19권3호
    • /
    • pp.52-61
    • /
    • 2014
  • The present paper deals with the efficient computation of higher-order CFD methods for compressible flow using graphics processing units (GPU). The higher-order CFD methods, such as discontinuous Galerkin (DG) methods and correction procedure via reconstruction (CPR) methods, can realize arbitrary higher-order accuracy with compact stencil on unstructured mesh. However, they require much more computational costs compared to the widely used finite volume methods (FVM). Graphics processing unit, consisting of hundreds or thousands small cores, is apt to massive parallel computations of compressible flow based on the higher-order CFD methods and can reduce computational time greatly. Higher-order multi-dimensional limiting process (MLP) is applied for the robust control of numerical oscillations around shock discontinuity and implemented efficiently on GPU. The program is written and optimized in CUDA library offered from NVIDIA. The whole algorithms are implemented to guarantee accurate and efficient computations for parallel programming on shared-memory model of GPU. The extensive numerical experiments validates that the GPU successfully accelerates computing compressible flow using higher-order method.

Pease FFT 처리를 위한 GPU 가속 기법 (GPU Accelerating Methods for Pease FFT Processing)

  • 오세창;주영복;권오영;허경무
    • 제어로봇시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.37-41
    • /
    • 2014
  • FFT (Fast Fourier Transform) has been widely used in various fields such as image processing, voice processing, physics, astronomy, applied mathematics and so forth. Much research has been conducted due to the importance of the FFT and recently new FFT algorithms using a GPU (Graphics Processing Unit) have been developed for the purpose of much faster processing. In this paper, the new optimal FFT algorithm using the Pease FFT algorithm has been proposed reflecting the hardware configuration of a GPGPU (General Purpose computing of GPU). According to the experiments, the proposed algorithm outperformed by between 3% to 43% compared to the CUFFT algorithm.

GPGPU를 이용한 단일 영상에서의 깊이 추정에 관한 연구 (A Study of Depth Estimate using GPGPU in Monocular Image)

  • 유태훈;박영수;이종용;이강성;이상훈
    • 디지털융복합연구
    • /
    • 제11권12호
    • /
    • pp.345-352
    • /
    • 2013
  • 본 논문에서는 GPU(Graphics Processing Unit)에서 데이터를 처리할 수 있게 하여 단일 영상에서 효율적으로 깊이를 추정하는 방법을 제안한다. 단일 영상은 카메라의 투영 과정에 의해 깊이 정보가 소실되게 되며 영상에서 소실된 깊이를 추정하기 위해서 단안 단서를 이용한다. 제안하는 깊이 추정 알고리즘은 좀 더 신뢰성 있는 깊이를 추정하고자 여러 단안 단서를 이용하며 에너지 최소화를 통해 단안 단서들을 결합한다. 그러나 여러 단안 단서들을 고려해야하기 때문에 처리해야 할 데이터가 많은 단점이 존재한다. 따라서 GPGPU(General Purpose Graphics Processing Unit)를 통해 데이터를 병렬적으로 처리하게 하여 효율적으로 깊이를 추정하는 방법을 제안한다. 객관적인 효율성을 검증하기 위해 PSNR(Peak Signal to Noise Ratio)을 통해 실험하였으며 GPGPU을 이용함으로써 알고리즘의 수행시간을 평균 61.22% 감소시켰다.

New GPU computing algorithm for wind load uncertainty analysis on high-rise systems

  • Wei, Cui;Luca, Caracoglia
    • Wind and Structures
    • /
    • 제21권5호
    • /
    • pp.461-487
    • /
    • 2015
  • In recent years, the Graphics Processing Unit (GPU) has become a competitive computing technology in comparison with the standard Central Processing Unit (CPU) technology due to reduced unit cost, energy and computing time. This paper describes the derivation and implementation of GPU-based algorithms for the analysis of wind loading uncertainty on high-rise systems, in line with the research field of probability-based wind engineering. The study begins by presenting an application of the GPU technology to basic linear algebra problems to demonstrate advantages and limitations. Subsequently, Monte-Carlo integration and synthetic generation of wind turbulence are examined. Finally, the GPU architecture is used for the dynamic analysis of three high-rise structural systems under uncertain wind loads. In the first example the fragility analysis of a single degree-of-freedom structure is illustrated. Since fragility analysis employs sampling-based Monte Carlo simulation, it is feasible to distribute the evaluation of different random parameters among different GPU threads and to compute the results in parallel. In the second case the fragility analysis is carried out on a continuum structure, i.e., a tall building, in which double integration is required to evaluate the generalized turbulent wind load and the dynamic response in the frequency domain. The third example examines the computation of the generalized coupled wind load and response on a tall building in both along-wind and cross-wind directions. It is concluded that the GPU can perform computational tasks on average 10 times faster than the CPU.

GPGPU를 이용한 영상 품질 측정 프로그램의 가속화 연구 (Research of accelerating method of video quality measurement program using GPGPU)

  • 이성욱;변기범;김기수;홍지만
    • 스마트미디어저널
    • /
    • 제5권4호
    • /
    • pp.69-74
    • /
    • 2016
  • 최근 그래픽 처리 장치(GPU)의 발전과 개발자 친화적인 GPGPU(General-Purpose computing on Graphics Processing Units)기술의 발전으로 인해 그래픽 처리 장치를 활용한 병렬 컴퓨팅의 사용이 확대되고 있다. 이를 통해 과학, 의학, 공학 등 많은 분야에 걸쳐 기존 CPU 컴퓨팅 환경보다 더 빠른 처리속도로 결과 값을 얻어 낼 수 있게 되었다. 본 논문은 CPU 기반 컴퓨팅과 GPU 기반 컴퓨팅의 연산처리 속도의 차이의 비교를 위해 기존 CPU 기반으로 구현된 영상 품질 측정 프로그램을 NVIDIA사의 GPGPU기술을 사용할 수 있도록 프로그램을 포팅한다. 포팅한 프로그램을 바탕으로 GPGPU기술을 통한 프로그램의 가속화에 대하여 연구한다. 가속화된 프로그램은 CPU 기반의 프로그램보다 약 1.83배 정도의 실행 속도를 가진다. 또한 CPU 기반의 프로그램을 GPU 기반으로 수정할 때 생기는 제약과 문제점에 대해서도 기술한다.

GPU를 이용한 SDR 시스템 용 LTE MIMO 기지국 기능 구현 (Implementation of $2{\times}2$ MIMO LTE Base Station using GPU for SDR System)

  • 이승학;김경훈;안치영;최승원
    • 디지털산업정보학회논문지
    • /
    • 제8권4호
    • /
    • pp.91-98
    • /
    • 2012
  • This paper implements 2X2 MIMO Long Term Evolution (LTE) base station using Software defined radio (SDR) technology. The implemented base station system processes baseband signals on a Graphics Processor Unit(GPU). GPU is a high-speed parallel processor which provides very important advantage of using a very powerful C-based programming environment that is Compute Unified Device Architecture (CUDA). The implemented software-based base station system processes baseband signals through GPU. It utilizes USRP2 as its RF transceiver. In order to guarantee a real-time processing of LTE baseband signals, we have adopted well-known signal processing algorithms such as frame synchronization algorithms, ML detection, etc. using GPU operating in parallel processing.

광역 고해상도 홍수모의를 위한 2차원 모형의 GPU 가속기법 개발 및 실행시간 평가 (Development and run time assessment of the GPU accelerated technique of a 2-Dimensional model for high resolution flood simulation in wide area)

  • 최윤석;노희성;최천규
    • 한국수자원학회논문집
    • /
    • 제55권12호
    • /
    • pp.991-998
    • /
    • 2022
  • 본 연구의 목적은 넓은 지역의 고해상도 홍수모의를 위해서 2차원 모형의 GPU (Graphics Processing Unit) 가속 모의기법을 개발하고 이에 대한 효과를 평가하는 것이다. 음해법을 적용하고 있는 정형 사각형 격자 기반의 2차원 모형인 G2D (Grid based 2-Dimensional land surface flood model) 모형에서 CUDA를 이용하여 GPU 가속 모의 기법을 개발하였다. 개발된 기법을 진주시 홍수모의에 적용하였다. 모의 도메인의 공간해상도는 10 m × 10 m이고, 계산되는 격자의 개수는 총 5,090,611개이다. 홍수모의는 2019년 10월 태풍 미탁에 의한 홍수 기간에 대해서 수행하였다. 강우레이더 자료를 생성항으로 적용하였으며, 남강댐 일류문 계측 방류량과 진주시(옥산교) 계측 유량을 경계조건으로 적용하였다. 연구결과 진주시 남강에서의 관측수위를 재현할 수 있는 광역 2차원 홍수 모형을 구축할 수 있었다. 또한 GPU 가속 기법의 적용 결과, CPU (Central Processing Unit)를 이용한 순차계산 및 병렬계산에 비해서 빠른 홍수모의가 가능하였다. 본 연구의 결과는 음해법을 적용하고 있는 2차원 범람모형의 GPU 가속 기법의 개발과 광역 지표면 홍수해석에 대한 연구에 기여할 수 있을 것이다.

GPU를 사용한 병렬 정렬 알고리즘의 설계 조건 (Design Conditions for Parallel Sorting Algorithms using GPU)

  • 이호석
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(B)
    • /
    • pp.1-4
    • /
    • 2011
  • 본 논문에서는 병렬 정렬(sorting) 알고리즘들에 대하여 논의한다. 정렬 알고리즘은 컴퓨터 과학에서 매우 중요한 위치를 차지하며 지난 50~60년 동안 많은 연구자들에 의하여 연구되었다. 10년 전에는 GPU(Graphics Processing Unit) 병렬 프로세서가 개발되어 병렬 정렬 알고리즘에 대한 연구도 활발히 진행되고 있다. 병렬 정렬 알고리즘은 대체적으로 bitonic 정렬, radix 정렬, merge 정렬, 혹은 이들 정렬 알고리즘들을 혼합하여 사용한 방법으로 분류된다. 논문에서는 GPU를 사용한 새로운 효율적인 병렬 정렬 알고리즘의 설계 조건을 논의한다.

CPU와 GPU를 이용한 암호화 효율성 연구 (A Study on Efficiency of Cryptography Used by CPU and GPU)

  • 변진영;이기영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2012년도 춘계학술대회
    • /
    • pp.678-680
    • /
    • 2012
  • 1970년대 라디오 주파수를 사용하여 컴퓨터 통신 네트워크가 구축된 이후 눈부신 발전을 거듭하여 Personal Computer 뿐만 아니라 Mobile이나 Tablet PC등에서도 인터넷이 가능하다. 이렇게 다양한 매체를 통해 인터넷을 사용함에 따라 보안에 대한 중요성이 높아지고 있다. 하지만 최근 현대 캐피탈이나 농협, 네이트와 같은 해킹 사례를 보면 평문 데이터 사용에 의해 피해가 더욱 확대 되었다. 평문 데이터 사용함에 따라 보안 위협이 커지는데 평문 데이터를 사용하는 이유를 암호화를 사용했을 때보다 QoS 하락 때문이라고 볼 수있다. 이를 해결하기 위해 고정된 인프라에서 잉여 자원인 GPU를 사용하여 암호화를 할 때 QoS 하락을 줄일 수 있을 것이다. 또한 CPU보다는 멀티코어를 사용한 병렬 처리를 활용하여 CPU보다 상대적으로 효율적인 암호화가 가능하다고 생각한다. 본 논문에서는 CPU를 이용한 암호화 처리 속도와 GPU를 이용한 암호화 처리 속도를 비교하여 GPU를 이용한 암호화 처리 가능성을 검토하였다.

  • PDF