• Title/Summary/Keyword: Parallel GPU

검색결과 281건 처리시간 0.026초

실시간 3차원 레이저 레이더 영상 생성을 위한 CUDA 기반 병렬처리 소프트웨어 설계 (The Design of Parallel Processing S/W Using CUDA for Realtime 3D Laser Ladar Imaging System)

  • 조용일;하중림;양지현;김재협
    • 한국컴퓨터정보학회논문지
    • /
    • 제18권1호
    • /
    • pp.1-10
    • /
    • 2013
  • 본 논문은3차원레이저레이더(LADAR, Laser Ladar) 영상 생성 시스템 개발을 수행함에 있어, 요구되는 실시간 처리를 구현하기 위해 CPU(Central Processing Unit) 및 GPU(Graphic Processing Unit)의 병렬처리 구조를 설계하는 CUDA(Common Unified Device Architecture) 기반 소프트웨어(SW, Software) 구현 기법에 대하여 설명한다. LADAR 시스템은 레이저 거리정보를 기반으로 3차원 영상을 생성하는 복잡도 높은 시스템으로써, 각 단계별로 많은 량의 처리 자원이 필요하다. 따라서, 한정된 시스템 자원 내에서 이를 실시간으로 처리하기 위해서는 반드시 병렬처리 구조를 설계 및 적용해야 한다. 본 논문에서는, 처리 알고리즘의 단계적 분석을 통해 분할 가능한 작업에 대하여 CUDA GPU로 할당 및 처리를 수행함으로써, 시스템에서 요구하는 실시간 처리를 달성하였으며, 처리 속도 분석을 통해 최대 46%의 처리 속도 향상을 확인할 수 있었다.

GPU를 이용한 영상기반 고속 해무제거 기술 (Digital Image based Real-time Sea Fog Removal Technique using GPU)

  • 최운식;이윤혁;서영호;최현준
    • 한국정보통신학회논문지
    • /
    • 제20권12호
    • /
    • pp.2355-2362
    • /
    • 2016
  • 해무 제거는 컴퓨터 비전과 영상처리 분야에서 상당히 중요하게 다루고 있는 분야이다. 해무 혹은 안개제거 기술은 자동 제어 시스템, CCTV, 영상인식 등과 같은 여러 분야에서 사용되고 있다. 이와 같이 컬러 영상의 해무 제거 기술이 다양하게 연구되고 있고 특히 Dark Channel Prior (DCP) 기술을 이용한 방법이 가장 활발하게 이용되고 있다. 본 논문에서는 DCP 알고리즘을 적용하여 해무를 빠르고 효율적으로 제거하는 기술을 소개한다. 이 기술은 GPU를 기반으로 구현한다. 병렬 프로그래밍과 최적화 과정을 거쳐 약 250배 정도의 연산속도를 빠르게 개선하였다. 이를 위해 기존의 프로그램 일부분을 몇 가지 과정을 거쳐 병렬화와 최적화 과정을 수행하였다. 제안한 GPU 프로그래밍 알고리즘과 구현결과는 선박의 안전항해, 지형조사, 지능형 자동차 등과 같은 분야에 적용될 수 있을 것으로 기대된다.

GPU를 이용한 범용 계산의 소개 (Introduction to general purpose GPU computing)

  • 유동현;임요한
    • Journal of the Korean Data and Information Science Society
    • /
    • 제24권5호
    • /
    • pp.1043-1061
    • /
    • 2013
  • 최근 과학 기술의 빠른 발전에 따라 대용량 자료가 출현하였고 이에 대한 분석의 중요도도 높아졌다. 대용량 자료의 분석에 가장 중요한 부분중 하나가 고성능 컴퓨팅 기법이고 본 논문에서는 최근 통계학계의 많은 관심을 받고 있는 GPU (graphics processing unit)기반 병렬 계산에 대한 기초적인 소개를 한다.

Analysis of Implementing Mobile Heterogeneous Computing for Image Sequence Processing

  • BAEK, Aram;LEE, Kangwoon;KIM, Jae-Gon;CHOI, Haechul
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권10호
    • /
    • pp.4948-4967
    • /
    • 2017
  • On mobile devices, image sequences are widely used for multimedia applications such as computer vision, video enhancement, and augmented reality. However, the real-time processing of mobile devices is still a challenge because of constraints and demands for higher resolution images. Recently, heterogeneous computing methods that utilize both a central processing unit (CPU) and a graphics processing unit (GPU) have been researched to accelerate the image sequence processing. This paper deals with various optimizing techniques such as parallel processing by the CPU and GPU, distributed processing on the CPU, frame buffer object, and double buffering for parallel and/or distributed tasks. Using the optimizing techniques both individually and combined, several heterogeneous computing structures were implemented and their effectiveness were analyzed. The experimental results show that the heterogeneous computing facilitates executions up to 3.5 times faster than CPU-only processing.

A Dynamic Accuracy Estimation for GPU-based Monte Carlo Simulation in Tissue Optics

  • Cai, Fuhong;Lu, Wen
    • Current Optics and Photonics
    • /
    • 제1권5호
    • /
    • pp.551-555
    • /
    • 2017
  • Tissue optics is a well-established and extensively studied area. In the last decades, Monte Carlo simulation (MCS) has been one of the standard tools for simulation of light propagation in turbid media. The utilization of parallel processing exhibits dramatic increase in the speed of MCS's of photon migration. Some calculations based on MCS can be completed within a few seconds. Since the MCS's have the potential to become a real time calculation method, a dynamic accuracy estimation, which is also known as history by history statistical estimators, is required in the simulation code to automatically terminate the MCS as the results' accuracy achieves a high enough level. In this work, spatial and time-domain GPU-based MCS, adopting the dynamic accuracy estimation, are performed to calculate the light dose/reflectance in homogeneous and heterogeneous tissue media. This dynamic accuracy estimation can effectively derive the statistical error of optical dose/reflectance during the parallel Monte Carlo process.

CUDA를 이용한 Particle Swarm Optimization 구현 (Implementation of Particle Swarm Optimization Method Using CUDA)

  • 김조환;김은수;김종욱
    • 전기학회논문지
    • /
    • 제58권5호
    • /
    • pp.1019-1024
    • /
    • 2009
  • In this paper, particle swarm optimization(PSO) is newly implemented by CUDA(Compute Unified Device Architecture) and is applied to function optimization with several benchmark functions. CUDA is not CPU but GPU(Graphic Processing Unit) that resolves complex computing problems using parallel processing capacities. In addition, CUDA helps one to develop GPU softwares conveniently. Compared with the optimization result of PSO executed on a general CPU, CUDA saves about 38% of PSO running time as average, which implies that CUDA is a promising frame for real-time optimization and control.

멀티코어와 매니코어 환경에서의 2 차원 DCT 가속 (Accelerating 2D DCT in Multi-core and Many-core Environments)

  • 홍진건;정성욱;김정길
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2011년도 춘계학술발표대회
    • /
    • pp.250-253
    • /
    • 2011
  • Chip manufacture nowadays turned their attention from accelerating uniprocessors to integrating multiple cores on a chip. Moreover desktop graphic hardware is now starting to support general purpose computation. Desktop users are able to use multi-core CPU and GPU as a high performance computing resources these days. However exploiting parallel computing resources are still challenging because of lack of higher programming abstraction for parallel programming. The 2-dimensional discrete cosine transform (2D-DCT) algorithms are most computational intensive part of JPEG encoding. There are many fast 2D-DCT algorithms already studied. We implemented several algorithms and estimated its runtime on multi-core CPU and GPU environments. Experiments show that data parallelism can be fully exploited on CPU and GPU architecture. We expect parallelized DCT bring performance benefit towards its applications such as JPEG and MPEG.

GPU의 스레드와 공유메모리를 이용한 LEA 최적화 방안 (Optimization of Lightweight Encryption Algorithm (LEA) using Threads and Shared Memory of GPU)

  • 박무규;윤지원
    • 정보보호학회논문지
    • /
    • 제25권4호
    • /
    • pp.719-726
    • /
    • 2015
  • 최근 빅데이터와 클라우드 보안에 대한 관심이 증가함에 따라 이를 효율적으로 암호화하기 위해 경량화된 고속 암호에 대한 연구가 진행되어 왔다. 그 결과, 국가보안기술연구소에서는 경량 고속 블록 암호인 LEA를 개발하였다. 경량화 암호인 LEA를 효율적으로 암 복호화를 위해 CPU가 아닌 GPU를 이용한 고속화 연구들이 최근에 소개되었다. 그럼에도 불구하고, GPU사용에 있어서의 가이드라인에 대한 연구는 여전히 미흡하다. 본 논문에서는 LEA알고리즘이 대용량 처리를 위해 사용될 때, 효율적인 GPU를 활용한 LEA 최적화방안에 대해 제안한다.

국방정보시스템 성능향상을 위한 효율적인 GPU적용방안 연구 (The study on the Efficient methodology to apply the GPU for military information system improvement)

  • 고장혁;이동호
    • 디지털산업정보학회논문지
    • /
    • 제11권1호
    • /
    • pp.27-35
    • /
    • 2015
  • Increasing the number of GPU (Graphic Processor Unit) cores, the studies on High Performance Computing Platform using GPU have actively been made in recent. This trend has led to the development of GPGPU (General Purpose GPU) and CUDA (Compute Unified Device Architecture) Framework. In this paper, we explain the many benefits of the GPU based system, and propose the ICIDF(Identify Compute-Intensive Data set and Function) methodology to apply GPU technology to legacy military information system for performance improvement. To demonstrate the efficiency of this methodology, we applied this method to AES CPU based program obtained from the Internet web site. Simply changing the data structure made improved the performance of AES program. As a result, the performance of AES based GPU program is improved gradually up to 10 times. Depending on the developer's ability, additional performance improvement can be expected. The problem to be solved is heat issue, but this problem has been much improved by the development of the cooling technology.

클라우드 환경에서 GPU 연산으로 인한 가상머신의 성능 저하를 완화하는 GPGPU 작업 관리 기법 (GPGPU Task Management Technique to Mitigate Performance Degradation of Virtual Machines due to GPU Operation in Cloud Environments)

  • 강지훈;길준민
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제9권9호
    • /
    • pp.189-196
    • /
    • 2020
  • 최근 클라우드 환경에서는 고성능 연산이 가능한 GPU(Graphics Processing Unit) 장치를 가상머신에게 적용한 GPU 클라우드 컴퓨팅 기술이 많이 사용되고 있다. 클라우드 환경에서 가상머신에게 할당된 GPU 장치는 대규모 병렬 처리를 통해 CPU보다 더 빠르게 연산을 수행할 수 있으며, 이로 인해 다양한 분야의 고성능 컴퓨팅 서비스들을 클라우드 환경에서 운용할 때 많은 이점을 얻을 수 있다. 클라우드 환경에서 GPU 장치는 가상머신의 성능 향상에 많은 도움을 주지만 가상머신의 CPU 사용 시간을 기반으로 작동하는 가상머신 스케줄러에서는 GPU 장치의 사용 시간이 고려되지 않아 다른 가상머신들의 성능에 영향을 미친다. 본 논문에서는 클라우드 환경에서 가상머신에게 GPU를 할당할 때 많이 사용되는 직접 통로기반 GPU 가상화 환경에서 GPGPU(General-Purpose computing on Graphics Processing Units) 작업을 수행하는 가상머신으로 인한 다른 가상머신들의 성능 저하 현상을 검증하고 분석하며, 이를 해결하기 위한 가상머신의 GPGPU 작업 관리 기법을 제안한다.