• 제목/요약/키워드: gpu

검색결과 967건 처리시간 0.03초

GPU 작업 배치의 효율화를 위한 자원 이용률 상세 분석 (Analyzing Fine-Grained Resource Utilization for Efficient GPU Workload Allocation)

  • 박윤주;신동희;조경운;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.111-116
    • /
    • 2019
  • 최근 GPU가 그래픽 처리뿐 아니라 다양한 분야의 병렬 처리로 그 영역을 넓혀가고 있다. 그러나, 현재 GPU는 워크로드의 다양성을 반영하기보다 간결한 제어 구조를 통한 개별 워크로드의 병렬성 극대화에 초점을 맞추고 있다. 본 논문은 워크로드 특성을 반영한 GPU 작업 배치를 위해 GPU에서 수행되는 워크로드의 자원 사용 특성을 컴퓨팅 바운드형, 메모리 바운드형, 실행종속 지연형으로 분류한 후, 각 분류에서 병목점이 되는 세부 자원을 규명한다. 예를 들어 컴퓨팅 바운드형의 경우 단정밀도 연산장치, 배정밀도 연산장치, 특수함수 연산장치 등 병목 자원이 무엇인지 분석한다. 본 논문의 분석 결과는 동일한 컴퓨팅 바운드형 워크로드라도 병목이 되는 세부 자원이 다를 경우 함께 배치하는 것이 성능 충돌을 일으키지 않는다는 점을 규명하여 GPU 작업배치의 효율화에 기여할 것으로 기대된다.

GPU 기반 임베디드 시스템에서 대용량 데이터의 안정적 수신을 위한 ECC 연산의 가속화 (Acceleration of ECC Computation for Robust Massive Data Reception under GPU-based Embedded Systems)

  • 권지수;박대진
    • 한국정보통신학회논문지
    • /
    • 제24권7호
    • /
    • pp.956-962
    • /
    • 2020
  • 최근 임베디드 시스템에서 사용되는 데이터의 크기가 증가함에 따라, 대용량의 데이터를 안전하게 수신하기 위한 ECC (Error Correction Code) 복호화 연산의 필요성이 강조되고 있다. 본 논문에서는 GPU가 내장된 임베디드 시스템에서 해밍 코드를 사용하여 ECC 복호화를 할 때, 신드롬 벡터를 계산하는 연산의 수행을 가속할 방법을 제안한다. 제안하는 가속화 방법은, 복호화 연산의 행렬-벡터 곱셈이 희소 행렬을 나타내는 자료 구조 중 하나인 CSR (Compressed Sparse Row) 형식을 사용하고, GPU의 CUDA 커널에서 병렬적으로 수행되도록 한다. 본 논문에서는 GPU가 내장된 실제 임베디드 보드를 사용하여 제안하는 방법을 검증하였고, 결과는 GPU 기반으로 가속된 ECC 복호화 연산이 CPU만을 사용한 경우에 비하여 수행 시간이 감소하는 것을 보여준다.

GPUDirect RDMA 기반의 고성능 암호 분석 시스템 설계 및 구현 (Design and Implementation of High-Performance Cryptanalysis System Based on GPUDirect RDMA)

  • 이석민;신영주
    • 정보보호학회논문지
    • /
    • 제32권6호
    • /
    • pp.1127-1137
    • /
    • 2022
  • GPU의 병렬 연산을 활용한 암호 분석 및 해독 기술은 암호 분석 시스템의 연산 시간을 단축하는 방향으로 연구되었다. 해당 연구들은 하나의 GPU에서 암호 분석 연산의 속도를 향상시키기 위해 코드를 최적화하거나 또는 단순히 GPU의 수를 늘려 병렬 연산을 강화하는 것에 집중되어 있다. 하지만 다량의 GPU를 데이터 전송에 대한 최적화 없이 사용하는 것은 하나의 GPU를 사용하는 것보다 더 긴 데이터 전송 지연 문제를 발생시키고, 암호 분석 시스템의 전체적인 연산 시간 증가를 야기한다. 이에, 본 논문은 딥러닝 또는 HPC 연구 분야의 GPU Clustering 환경에서 고성능 데이터 처리를 위해 활용되는 GPUDirect RDMA 및 관련 제반 기술들을 조사 및 분석한다. 그리고 해당 기술들을 활용한 고성능 암호 분석 시스템 설계 방법들을 제안한다. 더 나아가, 해당 설계를 기반으로 Password Cracking, GPU Reduction을 활용한 암호 분석 시스템 구현 방법에 대해 제시한다. 최종적으로, GPUDirect RDMA 기술 적용으로 구현된 암호 분석 시스템에 대해서 암호 분석 작업 성능 향상의 실증을 통해 제안한 시스템에 대한 기대효과를 제시한다.

GPU 연산을 활용한 유사이송 예측모형 개발 (Development of the sediment transport model using GPU arithmetic)

  • 노준수;손상영
    • 한국수자원학회논문집
    • /
    • 제56권7호
    • /
    • pp.431-438
    • /
    • 2023
  • 전 세계적으로 연안침식 문제가 대두됨에 따라 많은 해안선이 지형변화를 겪고 있다. 기후변화 및 해안인구증가로 미루어 볼 때 그 현상은 가속화될 수 있으며, 이에 대응하기 위해 신속하게 지형변화를 모의할 수 있는 유사이송 예측모형 개발의 중요성이 강조된다. 본 연구에서는 GPU (Graphics Processing Unit)를 기반으로 한 유사이송 예측모형을 제안하였으며, GPU 병렬연산을 활용함으로써 기존의 CPU 기반모형 대비 더욱 개선된 속도로 지형변화를 모의할 수 있도록 모형이 개발되었다. 개발된 모형에 대해 수치모형 성능과 GPU 연산효율에 초점을 맞추어 분석을 수행하였다. 모형의 성능검증을 위해 Dam-break 수리실험에 대해 수치모의를 수행하였으며, 모의결과가 관측된 실험데이터와 잘 일치하는 것을 확인하였다. GPU 연산효율은 CPU 기반모형과 수치모의 연산시간을 비교하여 분석하였으며, 개발된 GPU 기반모형이 연산시간의 효율이 상당히 우수한 것으로 확인되었다.

GPU의 병렬 처리 기능을 이용한 메쉬 평탄화 가속 방법 (Acceleration of Mesh Denoising Using GPU Parallel Processing)

  • 이상길;신병석
    • 한국게임학회 논문지
    • /
    • 제9권2호
    • /
    • pp.135-142
    • /
    • 2009
  • 메쉬 평탄화는 메쉬 표면의 잡음을 제거하는 것으로써 일반적으로 평탄화 필터를 적용하여 수행한다. 하지만 전체 과정이 CPU에서 수행되기 때문에 많은 실행 시간이 걸리는 문제점을 가진다. GPU는 부동소수점 연산에 특화되어 CPU에 비해 빠른 연산이 가능하기 때문에 복잡한 연산을 실시간으로 처리하는 것이 가능하다. 특히 메쉬 평탄화 과정은 메쉬의 각 정점이나 삼각형을 기반으로 같은 연산을 반복하기 때문에 GPU의 병렬 처리에 적합하다. 본 논문에서는 양방향 필터링에 GPU의 병렬 처리를 이용함으로써 메쉬 평탄화의 수행 시간을 줄이는 방법을 제안한다. 먼저 양방향 필터링을 위해 메쉬의 각 정점에 인접하는 삼각형들을 찾고 이들의 법선 벡터의 평균을 계산하여 정점들의 법선 벡터를 구한다. 양방향 필터링으로 각 정점의 새 위치를 계산하고 앞의 과정을 다시 수행하여 정점들의 새 법선 벡터를 계산한다.

  • PDF

GPU의 스레드와 공유메모리를 이용한 LEA 최적화 방안 (Optimization of Lightweight Encryption Algorithm (LEA) using Threads and Shared Memory of GPU)

  • 박무규;윤지원
    • 정보보호학회논문지
    • /
    • 제25권4호
    • /
    • pp.719-726
    • /
    • 2015
  • 최근 빅데이터와 클라우드 보안에 대한 관심이 증가함에 따라 이를 효율적으로 암호화하기 위해 경량화된 고속 암호에 대한 연구가 진행되어 왔다. 그 결과, 국가보안기술연구소에서는 경량 고속 블록 암호인 LEA를 개발하였다. 경량화 암호인 LEA를 효율적으로 암 복호화를 위해 CPU가 아닌 GPU를 이용한 고속화 연구들이 최근에 소개되었다. 그럼에도 불구하고, GPU사용에 있어서의 가이드라인에 대한 연구는 여전히 미흡하다. 본 논문에서는 LEA알고리즘이 대용량 처리를 위해 사용될 때, 효율적인 GPU를 활용한 LEA 최적화방안에 대해 제안한다.

GPU를 이용한 함정용 다기능레이다 신호처리기 성능 개선 연구 (A Performance Enhancement of a Naval Multi-Function Radar Signal Processor)

  • 권세웅;홍성민;유성현;정채현;손성환;이기원;강연덕
    • 한국인터넷방송통신학회논문지
    • /
    • 제20권2호
    • /
    • pp.141-147
    • /
    • 2020
  • 본 논문에서는 공간 및 전원에 제약사항이 존재하는 함정용 다기능레이다의 생존성 향상을 위해 고속 연산용 DSP를 GPU로 대체 가능성을 검토하기 위한 연구를 수행하였다. 성능비교를 위해 동일한 알고리즘으로 DSP와 GPU상에 신호처리기를 구현하였으며, 다기능 추적 레이다 비디오 신호에 대해 응답속도 측면에서 비교를 수행하였다. 성능비교 결과 전체 신호처리 응답속도는 최소 95 us에서 328 us로 GPU가 DSP대비 1.2배~4.1배 우세하였다. 이 연구를 통해 DSP대비 GPU의 성능은 향후 함정용 다기능레이다 뿐 아니라 고속연산이 필요한 레이다신호처리장치를 대체할 수 있을 것으로 예상된다.

국방정보시스템 성능향상을 위한 효율적인 GPU적용방안 연구 (The study on the Efficient methodology to apply the GPU for military information system improvement)

  • 고장혁;이동호
    • 디지털산업정보학회논문지
    • /
    • 제11권1호
    • /
    • pp.27-35
    • /
    • 2015
  • Increasing the number of GPU (Graphic Processor Unit) cores, the studies on High Performance Computing Platform using GPU have actively been made in recent. This trend has led to the development of GPGPU (General Purpose GPU) and CUDA (Compute Unified Device Architecture) Framework. In this paper, we explain the many benefits of the GPU based system, and propose the ICIDF(Identify Compute-Intensive Data set and Function) methodology to apply GPU technology to legacy military information system for performance improvement. To demonstrate the efficiency of this methodology, we applied this method to AES CPU based program obtained from the Internet web site. Simply changing the data structure made improved the performance of AES program. As a result, the performance of AES based GPU program is improved gradually up to 10 times. Depending on the developer's ability, additional performance improvement can be expected. The problem to be solved is heat issue, but this problem has been much improved by the development of the cooling technology.

GP-GPU를 이용한 보행자 추론 CNN (Pedestrian Inference Convolution Neural Network Using GP-GPU)

  • 정준모
    • 전기전자학회논문지
    • /
    • 제21권3호
    • /
    • pp.244-247
    • /
    • 2017
  • 본 논문에서는 GP-GPU를 활용한 보행자 추론 컨볼루션 뉴럴 네트워크를 구현했다. CNN은 구조를 정한 후, 학습에서 얻은 가중치를 이용해 기존 연구인 256개의 스레드를 가지는 GP-GPU를 활용해 추론을 수행했다. 학습에는 Inter i7-4470 CPU와 Matlab을 사용했다. Dataset은 Daimler Pedestrian Dataset을 사용했다. GP-GPU는 PCIe를 이용해 PC로부터 제어를 받으며, FPGA로 동작한다. 각 레이어의 depth와 size에 따라 스레드를 할당했다. 풀링 레이어의 경우는 over warpping pooling을 사용했기 때문에 횡영역과 종영역에 추가적인 연산을 수행했다. 한 번의 추론에는 약 12ms가 걸린다.

CUDA GPGPU 상에서 경량 블록 암호 PIPO의 최적 구현 (Optimal Implementation of Lightweight Block Cipher PIPO on CUDA GPGPU)

  • 김현준;엄시우;서화정
    • 정보보호학회논문지
    • /
    • 제32권6호
    • /
    • pp.1035-1043
    • /
    • 2022
  • 사물인터넷(IoT), 클라우드 컴퓨팅, 빅데이터 등의 확산으로 애플리케이션에 대한 고속 암호화의 필요성이 대두되고 있다. GPU 최적화는 GPU가 이론적으로 얻은 암호 분석 결과 또는 축소된 버전을 합리적인 시간에 검증하는데 사용될 수 있다. 본 논문에서는 다양한 환경에서 구현되고 있는 PIPO 경량암호를 대상으로 GPU 상에서 구현하였다. PIPO에 대한 무차별 대입 공격을 고려하여 최적 구현하였다. 특히 비트 슬라이싱 기법을 적용한 최적화 구현과 GPU 요소를 최대한 사용하였다. 결과적으로 제안 기법의 구현은 RTX 3060 환경에서 초당 약 195억의 처리량을 보여 이전 연구 보다 약 122배 높은 처리량을 달성하였다.