• Title/Summary/Keyword: HPC 활용

Search Result 54, Processing Time 0.025 seconds

An Efficient Key Searching Method on Distributed Computing Networks (분산 컴퓨팅 환경에서 효율적인 암호 키 탐색 기법)

  • Lee, Chang-Ho;Kang, Ju-Sung;Park, Tae-Hoon;Choi, Jang-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.11a
    • /
    • pp.1278-1281
    • /
    • 2007
  • 초고속 인터넷망이 발달됨으로써 분산 컴퓨팅 시스템 구축이 용이해졌다. 분산 컴퓨팅 시스템은 저비용과 유휴 계산 자원의 활용으로 기존의 슈퍼컴퓨터와 유사한 능력을 발휘할 수 있다는 장점을 지닌다. 암호 알고리즘의 실질적인 안전성 요소인 키의 길이는 전수조사 계산량에 의존한다. 키 전수조사를 위한 대용량 계산은 슈퍼컴퓨터, 클러스터, 분산 컴퓨팅 등의 환경에 따라 세부적인 메커니즘에 차이를 보인다. 본 논문에서는 분산 컴퓨팅 시스템을 소개하고, 이러한 환경 하에서 암호 알고리즘의 키 전수조사 작업을 수행하기 위한 세부적인 절차에 대해서 논하고, 구체적으로 키 전수조사 작업을 효율적으로 수행하기 위한 방법을 제안한다.

Performance Optimization of Numerical Ocean Modeling on Cloud Systems (클라우드 시스템에서 해양수치모델 성능 최적화)

  • JUNG, KWANGWOOG;CHO, YANG-KI;TAK, YONG-JIN
    • The Sea:JOURNAL OF THE KOREAN SOCIETY OF OCEANOGRAPHY
    • /
    • v.27 no.3
    • /
    • pp.127-143
    • /
    • 2022
  • Recently, many attempts to run numerical ocean models in cloud computing environments have been tried actively. A cloud computing environment can be an effective means to implement numerical ocean models requiring a large-scale resource or quickly preparing modeling environment for global or large-scale grids. Many commercial and private cloud computing systems provide technologies such as virtualization, high-performance CPUs and instances, ether-net based high-performance-networking, and remote direct memory access for High Performance Computing (HPC). These new features facilitate ocean modeling experimentation on commercial cloud computing systems. Many scientists and engineers expect cloud computing to become mainstream in the near future. Analysis of the performance and features of commercial cloud services for numerical modeling is essential in order to select appropriate systems as this can help to minimize execution time and the amount of resources utilized. The effect of cache memory is large in the processing structure of the ocean numerical model, which processes input/output of data in a multidimensional array structure, and the speed of the network is important due to the communication characteristics through which a large amount of data moves. In this study, the performance of the Regional Ocean Modeling System (ROMS), the High Performance Linpack (HPL) benchmarking software package, and STREAM, the memory benchmark were evaluated and compared on commercial cloud systems to provide information for the transition of other ocean models into cloud computing. Through analysis of actual performance data and configuration settings obtained from virtualization-based commercial clouds, we evaluated the efficiency of the computer resources for the various model grid sizes in the virtualization-based cloud systems. We found that cache hierarchy and capacity are crucial in the performance of ROMS using huge memory. The memory latency time is also important in the performance. Increasing the number of cores to reduce the running time for numerical modeling is more effective with large grid sizes than with small grid sizes. Our analysis results will be helpful as a reference for constructing the best computing system in the cloud to minimize time and cost for numerical ocean modeling.

Spark Framework Based on a Heterogenous Pipeline Computing with OpenCL (OpenCL을 활용한 이기종 파이프라인 컴퓨팅 기반 Spark 프레임워크)

  • Kim, Daehee;Park, Neungsoo
    • The Transactions of The Korean Institute of Electrical Engineers
    • /
    • v.67 no.2
    • /
    • pp.270-276
    • /
    • 2018
  • Apache Spark is one of the high performance in-memory computing frameworks for big-data processing. Recently, to improve the performance, general-purpose computing on graphics processing unit(GPGPU) is adapted to Apache Spark framework. Previous Spark-GPGPU frameworks focus on overcoming the difficulty of an implementation resulting from the difference between the computation environment of GPGPU and Spark framework. In this paper, we propose a Spark framework based on a heterogenous pipeline computing with OpenCL to further improve the performance. The proposed framework overlaps the Java-to-Native memory copies of CPU with CPU-GPU communications(DMA) and GPU kernel computations to hide the CPU idle time. Also, CPU-GPU communication buffers are implemented with switching dual buffers, which reduce the mapped memory region resulting in decreasing memory mapping overhead. Experimental results showed that the proposed Spark framework based on a heterogenous pipeline computing with OpenCL had up to 2.13 times faster than the previous Spark framework using OpenCL.

Implementation of REST Web Sorvics in Korea@Home Desktop Grid System (Korea@Home 데스크톱 그리드 시스템에서 REST 웹 서비스 구현)

  • Han, Chang-Hwan;Han, Youn-Hee;Gil, Joon-Min;Kang, Sang-Won;Choi, Jang-Won
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.10d
    • /
    • pp.456-461
    • /
    • 2007
  • 기존의 P2P기반의 분산컴퓨팅 시스템을 일반 응용수행자가 사용하기 위해서는 수동적으로 시스템에 위탁하여 수행하여 왔다. 이러한 구조에서 응용수행자가 자신이 원하는 응용을 계산도구로서 분산컴퓨팅 시스템을 활용하여 수행하고 최종 결과를 받아오는 것은 복잡하고 어려운 과정이었다. 본 논문에서는 이러한 과정을 간편화하고 분산컴퓨팅 시스템의 참여도를 높이기 위하여 웹 서비스 Open API를 사용한 개방형 분산컴퓨팅 시스템을 구현하였다. 본 논문은 국내의 P2P기반 분산컴퓨팅 시스템인 Korea@Home 데스크톱 그리드 시스템을 소개하고 이 시스템에서 효율적으로 Open API를 제공하기 위하여 REST 웹 서비스를 구현하고 응용수행자의 편의를 위한 인터페이스로 자바 클래스를 제공하였다. 응용수행자는 제공되는 인터페이스를 통하여 간단한 프로그래밍 지식으로 Korea@Home 데스크톱 그리드 시스템을 웹 서비스 방식으로 이용할 수 있다.

  • PDF

A Study of Bigdata Platform for Supporting Engineering Services (엔지니어링 서비스 지원을 위한 클라우드 기반 빅데이터 플랫폼 개발 연구)

  • Seo, Dongwoo;Kim, Myungil;Park, Sangjin;Kim, Jaesung;Jeong, Seok Chan
    • The Journal of Bigdata
    • /
    • v.4 no.1
    • /
    • pp.119-127
    • /
    • 2019
  • This study explains how to solve engineering problems easily and efficiently by using cloud based big data platform. To do this, we propose a cloud based big data analysis platform. The application helps users easily create models for data analysis using cloud based big data analysis platform. Analytical models modeled using components are analyzed through an analysis engine. Our platform include pre-processing, analysis, and visualization algorithms required for data analysis. Finally, we show an application of effluent concentration in a sewage treatment process.

  • PDF

Bridge Deck Overlay Technology Using High Performance Concrete (고성능 콘크리트를 활용한 교량 교면포장 기술)

  • Park, Hae-Geun;Won, Jong-Pil
    • Proceedings of the Korea Concrete Institute Conference
    • /
    • 2008.04a
    • /
    • pp.1113-1116
    • /
    • 2008
  • The application of High Performance Concrete (HPC) for protecting bridge deck concrete with micro-silica, fly-ash and ground granulated blast-furnace slag was introduced to North America in the early 1980's. This report introduces the literature reviews of high performance concrete for protecting concrete bridge deck and explains 2-different types of construction methods using this materials. One is high performance concrete overlay method and the other is full depth bridge deck method. Both methods have been successfully applied and demonstrated in north america. Especially, modified high performance concrete overlay method including silica-fume and PVA fiber has been successfully applied in korea also. Therefore, both methods that high performance concrete overlay and full depth bridge deck are considered as reasonable bridge deck protecting methods compared with the conventional bridge deck system using asphalt modified materials.

  • PDF

Implementation and Performance Analysis of Hadoop MapReduce over Lustre Filesystem (러스터 파일 시스템 기반 하둡 맵리듀스 실행 환경 구현 및 성능 분석)

  • Kwak, Jae-Hyuck;Kim, Sangwan;Huh, Taesang;Hwang, Soonwook
    • KIISE Transactions on Computing Practices
    • /
    • v.21 no.8
    • /
    • pp.561-566
    • /
    • 2015
  • Hadoop is becoming widely adopted in scientific and commercial areas as an open-source distributed data processing framework. Recently, for real-time processing and analysis of data, an attempt to apply high-performance computing technologies to Hadoop is being made. In this paper, we have expanded the Hadoop Filesystem library to support Lustre, which is a popular high-performance parallel distributed filesystem, and implemented the Hadoop MapReduce execution environment over the Lustre filesystem. We analysed Hadoop MapReduce over Lustre by using Hadoop standard benchmark tools. We found that Hadoop MapReduce over Lustre execution has a performance 2-13 times better than a typical Hadoop MapReduce execution.

A Study on the Development of Virtual Reality Framework for Visualizing Rotor Dynamics Data on Immersive VR Environments (몰입형 가상현실 환경에서의 로터 동역학 데이터 가시화를 제어하는 가상현실 프레임워)

  • Hur, Young-Ju;Kim, Min-Ah;Lee, Joong-Youn
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06b
    • /
    • pp.271-274
    • /
    • 2010
  • 컴퓨터에서 생성된 시뮬레이션의 결과는 일련의 가시화(VIsualization)라는 과정을 거치면서 컴퓨터 그래픽스 기술이 적용됨으로써 인간이 해석하기 쉬운 형태로 변형되게 된다. 연구자가 직관적으로 이해하기 어려운 수치의 나열로 구성돼 있던 시뮬레이션 데이터가 보다 쉽게 이해하고 분석할 수 있게 되는 것이다. 그런데, 최근에는 고성능 컴퓨터(HPC)의 발달로 인해 시뮬레이션 데이터의 크기가 점점 더 증가하는 추세에 있으며, 데이터의 크기가 기가바이트를 넘어 테라바이트에 이르는 경우도 흔해지고 있다. 기존의 가시화 시스템에서 복잡해진 가시화 데이터를 면밀하게 해석하기에는 많은 제약이 따르며, 그로 인해 고해상도 디스플레이 장치나 몰입형 가상현실 장치의 도입은 필연적일 수밖에 없다. 특히 현 시점에서 클러스터 시스템을 이용한 고해상도의 디스플레이 장치에서 사용자와 상호작용할 수 있는 인터페이스를 제공하는 방법은 가상현실 환경을 적절히 활용하는 것이 거의 유일하다 할 수 있겠다. 본 논문에서는 시뮬레이션 데이터, 특히 로터 동역학 분야의 시뮬레이션 데이터를 가상현실 환경에서 가시화하고 제어하는데 필요한 프레임워크와 인터페이스를 소개할 것이다. 이 프레임워크는 가상현실 환경에서 로터 동역학 분야의 시뮬레이션 데이터와의 실시간 상호작용을 통한 해석을 수행하는데 필요한 기반환경을 제공할 것이다.

  • PDF

A Study on the Integrated Interface for Visualizing Rotor Dynamics Data on VR Environments (가상현실 환경에서의 로터 동역학 데이터 가시화를 위한 통합 인터페이스)

  • Hur, YoungJu;Kim, MinAh;Lee, JoongYoun;Koo, GeeBum
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.11a
    • /
    • pp.389-390
    • /
    • 2009
  • 컴퓨터에서 생성된 시뮬레이션의 결과는 컴퓨터 그래픽스 기술을 이용한 일련의 가시화 과정을 거쳐서 인간이 해석하기 쉬운 형태로 변형되게 된다. 최근에는 고성능 컴퓨터(HPC: High Performance Computer)의 발달로 인해 데이터의 크기가 점점 더 증가하는 추세에 있으며, 이런 복잡한 데이터를 해석하는 데는 클러스터 시스템을 이용한 고해상도의 디스플레이 장치가 필요하다. 하지만 이런 디스플레이 장치에서 사용자 인터페이스를 제공하는 방법은 VR(Virtual Reality, 가상현실) 환경을 활용하는 것이 거의 유일한 해결책이다. 하지만 현재 VR 환경에서 시뮬레이션 데이터 해석에 필요한 적절한 사용자 인터페이스를 제공하는 툴은 존재하지 않는다. 이에, 본 논문에서는 시뮬레이터 데이터, 특히 로터 동역학 분야의 시뮬레이션 데이터를 VR 환경에서 가시화하는 GLOVE 프레임워크의 통합 인터페이스를 소개한다. 이 인터페이스는 VR 환경에서 시뮬레이션 데이터를 실시간으로 상호작용을 통해 분석하는 데 필요한 기반 환경을 제공한다.

Construction and Service of a Web-based Cyber-learning Platform for the Computational Science and Engineering Community in Korea (국내 계산과학공학 커뮤니티를 위한 웹 기반 사이버-러닝 플랫폼 구축 및 서비스)

  • Suh, Young-Kyoon;Cho, Kum Won
    • Journal of Internet Computing and Services
    • /
    • v.17 no.4
    • /
    • pp.115-125
    • /
    • 2016
  • Recently, many attentions have been paid to conducting convergence research across diverse disciplines. Along with this convergence era, an IT-based multi-disciplinary convergence project, called EDISON (EDucation-research Integrated Simulation On the Net), has been launched to support the studies of researchers engaged in several computational science and engineering (CSE) fields and to boost learning motivations of CSE students. Since 2011, we have been successfully carrying out the EDISON project. EDISON as a cyber-learning platform enables CSE researchers to share their own high-performance computing (HPC) simulation softwares developed to solve their research problems accompanying large-scale computation and I/O and users to run the softwares with little constraints on the web. Also, the EDISON platform has been utilized as lecture material by many universities in Korea. This article introduces the construction and service statistics of this EDISON platform. Specifically, we explicate several distinctions between EDISON and existing other HPC service platforms and discuss a three-layered technical architecture of the EDISON platform. We then present the up-to-date service statistics of EDISON over the past four years. Finally, we conclude this article and describe future plans.