• Title/Summary/Keyword: GPU optimization

검색결과 70건 처리시간 0.023초

GCN 아키텍쳐 상에서의 OpenCL을 이용한 GPGPU 성능향상 기법 연구 (A Study on GPGPU Performance Improvement Technique on GCN Architecture Using OpenCL API)

  • 우동희;김윤호
    • 한국전자거래학회지
    • /
    • 제23권1호
    • /
    • pp.37-45
    • /
    • 2018
  • 현재 프로그램이 운용되는 시스템은 기존의 싱글코어 및 멀티코어 환경을 넘어서 매니코어, 부가 프로세스 및 이기종 환경까지 그 영역이 확장되고 있는 중이다. 하지만, 기존 연구의 경우 NVIDIA 벤더에서 나온 아키텍쳐 및 CUDA로의 병렬화가 주로 이루어졌고 AMD에서 나온 범용 GPU 아키텍쳐인 GCN 아키텍쳐에 대한 성능향상에 관한 연구는 제한적으로 이루어졌다. 이런 점을 고려해 본 논문에서는 GCN 아키텍쳐의 GPGPU 환경인 OpenCL 내에서의 성능향상 기법에 대해 연구하고 실질적인 성능향상을 보였다. 구체적으로, 행렬 곱셈과 컨볼루션을 적용한 GPGPU 프로그램을 본 논문에서 제시한 성능향상 기법을 통해 최대 30% 이상의 실행시간을 감소시켰으며, 커널 이용률 또한 40% 이상 높였다.

프로그래밍이 가능한 GPU 상에서의 버텍스 프로그래밍의 최적화 기법 (Optimization Technique for Vertex Programming on Programmable GPU)

  • 오진상;임인성
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제8권3호
    • /
    • pp.25-34
    • /
    • 2002
  • 최근 프로그래밍이 가능한 그래픽스 프로세서(GPU)의 등장은 렌더링 속도의 향상은 물론 기존의 GPU가 할 수 없었던 다양한 그래픽스 계산을 효과적으로 수행할 수 있도록 해주고 있다. 이로 인하여 기존에 CPU 상에서 수행해야만 했던 그래픽스 계산들의 일부를 GPU 상에서 수행하도록 해주는 기법들에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 선형식에 기반을 둔 여러 응용 문제들을 GPU 상에서 효율적으로 구현할 수 있도록 도와주는 쉐이더 코드 최적화 기법을 제안한다. 이 기법은 SIMD 형태의 병렬 처리 능력을 가진 버텍스 쉐이더의 명령어에 맞게 고안되었다. 본 기법의 활용 가능성을 보이기 위하여 미분 방정식을 풀기 위한 4차 런지-쿠타 방법, 선형방정식을 풀기 위한 가우스-자이델 방법, 자연스러운 유체 모델링을 위한 파동 방정식 등의 문제에 적용하여 보았다. 본 논문에서 제안한 최적화 기법은 버텍스 쉐이더 용 컴파일러 구현에 쓰일 수 있으며, 향후 프로그래밍이 가능한 GPU 상에서의 실시간 그래픽스 소프트웨어 개발에 유용하게 사용될 수 있을 것이다.

  • PDF

GPU 기반의 최적화된 BVH와 R-Triangle을 이용한 옷감 시뮬레이션에서의 빠른 자기충돌 처리 (Fast Self-Collision Handling in Cloth Simulations Using GPU-based Optimized BVH and R-Triangle)

  • 문성혁;김종현
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제65차 동계학술대회논문집 30권1호
    • /
    • pp.373-376
    • /
    • 2022
  • 본 논문에서는 삼각형 메쉬 기반에서 옷감 시뮬레이션(Cloth simulation)에서 계산양이 큰 자기충돌(Self-collision) 처리를 GPU기반으로 가속화시킬 수 있는 방법에 대해 소개한다. CUDA기반으로 병렬 최적화하기 위해 본 논문에서는 1)재귀적으로 계산하여 충돌판정을 하는 BVH(Bounding volume hierarchy) 트리를 GPU기반에서 효율적으로 빌드, 업데이트, 트리 순회하는 방법을 제안하고, 2)삼각형 메쉬 기반에서는 중복되는 프리미티브(Primitive) 충돌검사를 최소화하기 위해 R-Triangle기법을 GPU에서 최적화 시키는 방법을 소개한다. 결과적으로 본 논문에서 제안하는 기법은 GPU 환경에서 옷감 시뮬레이션의 자기충돌과 객체충돌 처리를 빠르고 효율적으로 처리할 수 있도록 하였고, 다양한 장면에서 실험한 결과 모든 결과에서 빠른 시뮬레이션 결과를 얻을 수 있었다.

  • PDF

고성능 스토리지를 갖는 GPU 기반 그래프 분석 엔진을 위한 I/O 최적화 전략 (I/O Optimization Strategies for a GPU-based Graph Engine with High-Performance Storage)

  • 박정민;장명환;김상욱
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.386-388
    • /
    • 2023
  • 본 논문은 고성능 스토리지를 사용하는 환경에서 대규모 그래프를 분석을 위한 GPU 기반 그래프 분석 엔진의 I/O 최적화 전략을 제안한다. 사전 실험을 통해 최신 GPU 기반 그래프 엔진인 RealGraphGPU 가 고성능 스토리지의 대역폭을 충분히 활용하지 못하고 있음을 발견하였다. 이를 개선하기 위해 (1) User-space I/O, (2) Asynchronous I/O 두 가지 최적화 전략을 적용하였으며, 실험을 통해 두 전략이 RealGraphGPU 의 그래프 분석 성능 향상시키는 데 효과적임을 확인하였다.

Parallel Implementation of Scrypt: A Study on GPU Acceleration for Password-Based Key Derivation Function

  • SeongJun Choi;DongCheon Kim;Seog Chung Seo
    • Journal of information and communication convergence engineering
    • /
    • 제22권2호
    • /
    • pp.98-108
    • /
    • 2024
  • Scrypt is a password-based key derivation function proposed by Colin Percival in 2009 that has a memory-hard structure. Scrypt has been intentionally designed with a memory-intensive structure to make password cracking using ASICs, GPUs, and similar hardware more difficult. However, in this study, we thoroughly analyzed the operation of Scrypt and proposed strategies to maximize computational parallelism in GPU environments. Through these optimizations, we achieved an outstanding performance improvement of 8284.4% compared with traditional CPU-based Scrypt computations. Moreover, the GPU-optimized implementation presented in this paper outperforms the simple GPU-based Scrypt processing by a significant margin, providing a performance improvement of 204.84% in the RTX3090. These results demonstrate the effectiveness of our proposed approach in harnessing the computational power of GPUs and achieving remarkable performance gains in Scrypt calculations. Our proposed implementation is the first GPU implementation of Scrypt, demonstrating the ability to efficiently crack Scrypt.

GPU의 스레드와 공유메모리를 이용한 LEA 최적화 방안 (Optimization of Lightweight Encryption Algorithm (LEA) using Threads and Shared Memory of GPU)

  • 박무규;윤지원
    • 정보보호학회논문지
    • /
    • 제25권4호
    • /
    • pp.719-726
    • /
    • 2015
  • 최근 빅데이터와 클라우드 보안에 대한 관심이 증가함에 따라 이를 효율적으로 암호화하기 위해 경량화된 고속 암호에 대한 연구가 진행되어 왔다. 그 결과, 국가보안기술연구소에서는 경량 고속 블록 암호인 LEA를 개발하였다. 경량화 암호인 LEA를 효율적으로 암 복호화를 위해 CPU가 아닌 GPU를 이용한 고속화 연구들이 최근에 소개되었다. 그럼에도 불구하고, GPU사용에 있어서의 가이드라인에 대한 연구는 여전히 미흡하다. 본 논문에서는 LEA알고리즘이 대용량 처리를 위해 사용될 때, 효율적인 GPU를 활용한 LEA 최적화방안에 대해 제안한다.

다중 GPU기반 홀로그램 생성을 위한 병렬처리 성능 최적화 기법 (An Optimization Method for Hologram Generation on Multiple GPU-based Parallel Processing)

  • 국중진
    • 스마트미디어저널
    • /
    • 제8권2호
    • /
    • pp.9-15
    • /
    • 2019
  • 홀로그램의 생성을 위한 연산은 포인트 클라우드의 규모에 따라 연산량이 기하급수적으로 증가하기 때문에 최근에는 다중의 GPU를 기반으로 CUDA 또는 OpenCL 라이브러리를 활용한 병렬처리가 이루어지고 있다. GPU기반의 병렬처리를 위한 CUDA 커널은 GPU의 코어 개수와 메모리 크기를 고려하여 쓰레드(thread), 블록(block), 그리드(grid)를 구성해야 하며, 다중 GPU 환경인 경우 GPU의 개수에 따른 그리드, 블록, 또는 쓰레드 단위의 분산처리가 필요하다. 본 논문에서는 CGH 생성에 대한 성능평가를 위해 포인트 클라우드의 포인트 개수를 10~1,000,000개 범위에서 점진적으로 증가시키면서 CPU, 단일 GPU, 다중 GPU 환경에서 연산 속도를 비교해 보았으며, 다중 GPU 환경에서 CGH(Computer Generated Hologram) 생성 연산을 가속화하기 위한 CUDA 기반의 병렬처리 과정에서 요구되는 메모리 구조 설계와 연산 방법을 제안한다.

Boyer-Moore 알고리즘을 위한 GPU상에서의 병렬 최적화 (Parallelization and Performance Optimization of the Boyer-Moore Algorithm on GPU)

  • 정요상;쟌느앗-프엉;이명호;남덕윤;김직수;황순욱
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권2호
    • /
    • pp.138-143
    • /
    • 2015
  • Boyer-Moore 알고리즘은 컴퓨터 및 인터넷 보안, 바이오 인포매틱스 등의 응용프로그램에서 널리 활용되는 패턴매칭 알고리즘이다. 이 알고리즘은 방대한 양의 입력 데이터에 존재하는 특정한 하나의 패턴을 실시간에 검색해야하는 높은 계산 요구량으로 인하여 병렬 처리 및 성능 최적화가 필수적이다. 본 논문에서는 GPU를 활용하여 BM 알고리즘을 병렬 최적화하는 방법론을 제안한다. 방법론에 따라 알고리즘 cascading 기법을 적용하여 실행시간에 소요되는 매핑 오버헤드를 최소화하고, 멀티스레딩 효과를 극대화하여 스레드들간의 부하 부산을 향상시킴으로써 순차실행 대비 최대 45배의 성능향상을 얻었다.

Multi-GPU 환경에서의 Convolution Layer 최적화 실험 (Empirical Experiments for Convolution Layer Optimization on Multi-GPUs)

  • 하지원;테오도라 아두푸;김윤희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.11-12
    • /
    • 2023
  • GPGPU 환경에서의 ML 모델이 다양한 분야에 지속적으로 활용되면서, 이미지 분할(image segmentation) 연구가 활발하다. multi-GPU 환경에서 성능 최적화를 위하여 병렬화 기법들이 활용되고 있다. 본 연구에서는 multi-GPU 환경에서 U-Net 모델의 전체 수행 시간을 단축하기 위해 convolution 연산을 최적화하는 기법을 적용하는 실험을 진행하였고 shared memory, data parallelism 를 적용하여 82% 성능 향상을 보여주었다.

GPU-Based Optimization of Self-Organizing Map Feature Matching for Real-Time Stereo Vision

  • Sharma, Kajal;Saifullah, Saifullah;Moon, Inkyu
    • Journal of information and communication convergence engineering
    • /
    • 제12권2호
    • /
    • pp.128-134
    • /
    • 2014
  • In this paper, we present a graphics processing unit (GPU)-based matching technique for the purpose of fast feature matching between different images. The scale invariant feature transform algorithm developed by Lowe for various feature matching applications, such as stereo vision and object recognition, is computationally intensive. To address this problem, we propose a matching technique optimized for GPUs to perform computations in less time. We optimize GPUs for fast computation of keypoints to make our system quick and efficient. The proposed method uses a self-organizing map feature matching technique to perform efficient matching between the different images. The experiments are performed on various image sets to examine the performance of the system under varying conditions, such as image rotation, scaling, and blurring. The experimental results show that the proposed algorithm outperforms the existing feature matching methods, resulting in fast feature matching due to the optimization of the GPU.