• 제목/요약/키워드: CUDA(CUDA)

검색결과 295건 처리시간 0.044초

GPU를 이용한 암호화 효율성 연구 (A Study on Efficiency of Cryptography Using GPU)

  • 변진영;이기영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.683-686
    • /
    • 2011
  • 1970년대 라디오 주파수를 사용하여 컴퓨터 통신 네트워크가 구축된 이후 눈부신 발전을 거듭하여 Personal Computer 뿐만 아니라 Mobile이나 Tablet PC등에서도 인터넷이 가능하다. 이렇게 다양한 매체를 통해 인터넷을 사용함에 따라 보안에 대한 중요성이 높아지고 있다. 하지만 최근 현대 캐피탈이나 농협, 네이트와 같은 해킹 사례를 보면 평문 데이터 사용에 의해 피해가 더욱 확대 되었다. 평문 데이터 사용함에 따라 보안 위협이 커지는데 평문 데이터를 사용하는 이유를 암호화를 사용했을 때보다 QoS 하락 때문이라고 볼 수있다. 이를 해결하기 위해 고정된 인프라에서 잉여 자원인 GPU를 사용하여 암호화를 할 때 QoS 하락을 줄일 수 있을 것이다. 또한 CPU보다는 멀티코어를 사용한 병렬 처리를 활용하여 CPU보다 상대적으로 효율적인 암호화가 가능하다고 생각한다. 본 논문에서는 CPU를 이용한 암호화 처리 속도와 GPU를 이용한 암호화 처리 속도를 비교하여 GPU를 이용한 암호화 처리 가능성을 검토하였다.

  • PDF

OpenCL을 이용한 지문개선 가속화 (Fingerprint enhancement acceleration using OpenCL)

  • 고성학;이철;박능수
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 추계학술발표대회
    • /
    • pp.115-117
    • /
    • 2014
  • 최근 OpenCL, CUDA와 같은 이종 병렬 컴퓨팅 프레임워크가 등장함에 따라, 많은 연산량을 요구하는 알고리즘에 대한 이종 병렬 처리 연구가 늘고 있다. 본 논문에서는 연산량이 많은 지문개선(fingerprint enhancement) 알고리즘을 OpenCL을 이용해 병렬화하고 최적화하여 연산 시간을 단축하고자 한다. 이를 위하여 2차원 FFT 및 필터링 알고리즘을 병렬화하고, Loop Unrolling 및 메모리 접근 최적화 등의 기법을 적용하였다. 실험을 통하여 CPU의 순차적 처리기법과 비교하여 개선된 가속화 기법을 이용한 지문개선 알고리즘이 최대 25배의 성능이 향상하였음을 확인하였다.

위치인식 기반의 군사 시뮬레이션 및 가상훈련 관리 시스템 (Location-Based Military Simulation and Virtual Training Management System)

  • 전현민;김재완
    • 한국멀티미디어학회논문지
    • /
    • 제20권1호
    • /
    • pp.51-57
    • /
    • 2017
  • The purpose of this study is to design a system that can be used for military simulation and virtual training using the location information of individual soldier's weapons. After acquiring the location information using Arduino's GPS shield, it is designed to transmit data to the Smartphone using Bluetooth Shield, and transmit the data to the server using 3G/4G of Smartphone in real time. The server builds the system to measure, analyze and manage the current position and the tracking information of soldier. Using this proposed system makes it easier to analyze the training situation for individual soldiers and expect better training results.

GPU를 이용한 의료영상의 라플라시안 피라미드 방법에 관한 연구 (Study on the Laplacian pyramid method of medical image using GPU)

  • 김재혁;이준동;양길모;김동호;김순석;이강우;이용희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.1491-1493
    • /
    • 2015
  • 본 논문에서는 GPU를 이용하여 x-ray영상의 질을 개선시키기 위해 라플라시안 피라미드 방법을 제시한다. 의료영상에서 중요시하는 특징의 추출을 위해 원영상을 다중레벨의 부영상으로 신호를 분해하며, 각 레벨에서 가우시안 스무딩 함수를 사용하여 영상의 대비를 확장시킨다. 분해된 영상을 기반으로 전체영상을 재구성하여 영상의 질을 향상시키게 된다. 이러한 과정은 많은 계산을 필요로하며, 효과적이고 바른 처리를 위해 GPU를 사용한다., 결과에서 GPU를 이용한 cuda 프로그램이 효과적으로 동작하며, 영상의 질을 향상시킴을 보인다.

심도카메라 기반의 실시간 얼굴 나이 인식 시스템 설계 (A Design of Real-time Facial Age Recognition System based on Depth-Camera)

  • 고기남;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 추계학술발표대회
    • /
    • pp.655-657
    • /
    • 2012
  • 본 논문에서는 심도(Depth) 카메라로부터 실시간 획득한 RGBD 데이터에서 심도 정보 기반의 AAM(Active Appearance Models)과 나이 인식 알고리즘[1]을 통해 4 개의 AG(Age Group)으로 분류하는 실시간 얼굴 나이 인식 시스템(Real-time Facial Age Recognition System)을 설계한다. 기존의 AAM 을 이용한 실시간 얼굴 특징 추출은 평균 약 4.17%의 프레임 손실율을 보였으나, 심도 정보를 활용한 AAM 은 평균 약 0.43%의 프레임 손실율만을 보였다[5]. 본 논문에서는 심도 정보를 활용한 AAM과 병렬 처리 방법인 CUDA 를 결합하여 나이 특징을 추출하고, 실시간 시스템에 적용 가능하도록 나이 인식 알고리즘을 개선하여 실시간 나이 인식 시스템을 설계한다. 설계된 시스템은 1)머리 위치 추적, 2)얼굴 인식 및 특징점 추출, 3)나이 특징 추출, 4) 나이 특징 분석, 5) 나이 분류의 5 가지 단계를 통해 최종적으로 4 개의 AG 로 분류한다.

Performance Improvement of Web Service Based on GPGPU and Task Queue

  • Kim, Changsu;Kim, Kyunghwan;Jung, Hoekyung
    • Journal of information and communication convergence engineering
    • /
    • 제19권4호
    • /
    • pp.257-262
    • /
    • 2021
  • Providing web services to users has become expensive in recent times. For better web services, a web server is provided with high-performance technology. To achieve great web service experiences, tools such as general-purpose graphics processing units (GPGPUs), artificial intelligence, high-performance computing, and three-dimensional simulation are widely used. However, graphics processing units (GPUs) are used in high-speed operations and have limited general applications. In this study, we developed a task queue in a GPU to improve the performance of a web service using a multiprocessor and studied how to receive and process user requests in bulk. We propose the use of a GPGPU-based task queue to process user requests more than GPGPU based a central processing unit thread, and to process more GPU threads on task queue at about 136% to 233%, and proved that the proposed method is effective for web service.

Performance Comparison of Parallel Programming Frameworks in Digital Image Transformation

  • Shin, Woochang
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제11권3호
    • /
    • pp.1-7
    • /
    • 2019
  • Previously, parallel computing was mainly used in areas requiring high computing performance, but nowadays, multicore CPUs and GPUs have become widespread, and parallel programming advantages can be obtained even in a PC environment. Various parallel programming frameworks using multicore CPUs such as OpenMP and PPL have been announced. Nvidia and AMD have developed parallel programming platforms and APIs for program developers to take advantage of multicore GPUs on their graphics cards. In this paper, we develop digital image transformation programs that runs on each of the major parallel programming frameworks, and measure the execution time. We analyze the characteristics of each framework through the execution time comparison. Also a constant K indicating the ratio of program execution time between different parallel computing environments is presented. Using this, it is possible to predict rough execution time without implementing a parallel program.

Emulearner: Deep Learning Library for Utilizing Emulab

  • Song, Gi-Beom;Lee, Man-Hee
    • Journal of information and communication convergence engineering
    • /
    • 제16권4호
    • /
    • pp.235-241
    • /
    • 2018
  • Recently, deep learning has been actively studied and applied in various fields even to novel writing and painting in ways we could not imagine before. A key feature is that high-performance computing device, especially CUDA-enabled GPU, supports this trend. Researchers who have difficulty accessing such systems fall behind in this fast-changing trend. In this study, we propose and implement a library called Emulearner that helps users to utilize Emulab with ease. Emulab is a research framework equipped with up to thousands of nodes developed by the University of Utah. To use Emulab nodes for deep learning requires a lot of human interactions, however. To solve this problem, Emulearner completely automates operations from authentication of Emulab log-in, node creation, configuration of deep learning to training. By installing Emulearner with a legitimate Emulab account, users can focus on their research on deep learning without hassle.

다중 가상 카메라의 실시간 파노라마 비디오 스트리밍 기법 (Real-Time Panoramic Video Streaming Technique with Multiple Virtual Cameras)

  • 옥수열;이석환
    • 한국멀티미디어학회논문지
    • /
    • 제24권4호
    • /
    • pp.538-549
    • /
    • 2021
  • In this paper, we introduce a technique for 360-degree panoramic video streaming with multiple virtual cameras in real-time. The proposed technique consists of generating 360-degree panoramic video data by ORB feature point detection, texture transformation, panoramic video data compression, and RTSP-based video streaming transmission. Especially, the generating process of 360-degree panoramic video data and texture transformation are accelerated by CUDA for complex processing such as camera calibration, stitching, blending, encoding. Our experiment evaluated the frames per second (fps) of the transmitted 360-degree panoramic video. Experimental results verified that our technique takes at least 30fps at 4K output resolution, which indicates that it can both generates and transmits 360-degree panoramic video data in real time.

GPGPU 프로그래밍 모델의 기술 동향 (Survey on GPGPU Programing Models)

  • 이현진;정유나;이성길
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 춘계학술발표대회
    • /
    • pp.389-391
    • /
    • 2013
  • 대용량 영상 데이터 처리를 위한 GPU 는 많은 코어들을 이용한 병렬 작업을 통해 결과를 도출한다. 단순 수치 연산에 특화된 이러한 GPU 의 계산 능력을 다른 분야로 확장시켜 적용하고자 하는 시도인 GPGPU 는 이전부터 꾸준히 시도되고 있다. 그러나 GPU 의 난해하고 생소한 프로그래밍으로, 작성이 쉽지 않고 현격한 성능 향상을 기대하기 어렵다. 이에, 이러한 GPGPU 프로그래밍의 어려움을 해결하고자 여러 프로그래밍 모델들이 등장하였다. 본 논문에서는 GPGPU 프로그래밍을 위한 대표적인 모델인 CUDA, OpenCL, C++ AMP, 그리고 OpenACC 에 대해 살펴본다.