• 제목/요약/키워드: Memory hierarchy

검색결과 61건 처리시간 0.024초

클라우드 시스템에서 해양수치모델 성능 최적화 (Performance Optimization of Numerical Ocean Modeling on Cloud Systems)

  • 정광욱;조양기;탁용진
    • 한국해양학회지:바다
    • /
    • 제27권3호
    • /
    • pp.127-143
    • /
    • 2022
  • 최근 클라우드 컴퓨팅 환경에서 해양수치모델 실험을 수행하는 많은 연구가 활발하게 진행되고 있다. 클라우드 컴퓨팅 환경은 대규모 자원이 필요한 해양수치모델을 구현하는데 매우 효과적인 수단이 될 수 있다. 정보처리 기술의 발달로 클라우드 컴퓨팅 시스템은 가상화와 원격 고속 네트워크, 직접 메모리 액세스와 같은 수치모델의 병렬처리에 필요한 다양한 기술과 환경을 제공한다. 이러한 새로운 기능은 클라우드 컴퓨팅 시스템에서 해양수치모델링 실험을 용이하게 한다. 많은 과학자들과 엔지니어들은 해양수치모델 실험에 있어서 가까운 미래에 클라우드 컴퓨팅이 주류가 될 것으로 기대하고 있다. 해양수치모델링을 위한 클라우드 컴퓨팅의 처리성능 분석은 수치모델의 수행 시간과 리소스 활용량을 최소화하는 데 도움이 될 수 있으므로 최적의 시스템을 적용하는 데 필수적이다. 특히 모델 격자 내 다양한 변수들이 다차원 배열 구조로 되어 있기 때문에 대량의 입출력을 처리하는 해양수치모델의 구조는 캐시메모리의 효과가 크며, 대량의 자료가 이동하는 통신 특성으로 인해서 네트워크의 속도가 중요하다. 최근에 주요한 컴퓨팅환경으로 자리잡고 있는 클라우드 환경이 이러한 해양수치모델을 수행하기에 적합한지 실험을 통해서 검토할 필요가 있다. 본 연구에서는 상용 클라우드 시스템에서 해양수치모델로 대표적인 Regional Ocean Modeling System (ROMS)와 더불어 다른 해양모델의 클라우드 환경으로 전환에도 도움이 될 수 있게 병렬처리 시스템의 성능을 측정할 수 있는 표준 벤치마킹 소프트웨어 패키지인 High Performance Linpack을 활용하여 초당 부동소수점 연산횟수 처리능력과 및 STREAM 벤치마크를 활용하여 다중 노드들로 구성된 수치모델용 클러스터의 메모리처리성능을 평가하고 비교하였다. 이러한 평가내용은 클라우드 환경에서 해양수치모델을 어떻게 수행할 것인가에 대해 중요한 정보를 제공할 수 있다. 가상화 기반 상용 클라우드에서 얻은 실제 성능 자료와 구성 설정 분석을 통해 가상화 기반 클라우드 시스템에서 해양수치모델의 다양한 격자 크기에 대한 컴퓨터 리소스의 효율성을 평가했다. 본 연구를 통해서 캐시 계층과 용량이 큰 메모리를 사용하는 HPC 클러스터가 ROMS의 성능에 매우 중요하다는 것을 발견했다. 수치모델링의 실행 시간을 줄이기 위해 코어 수를 늘리는 것은 작은 격자 보다 큰 격자 모델에서 더 효과적이다. 이러한 처리 성능 분석 결과는 클라우드 컴퓨팅 시스템에서 해양수치모델을 효율적으로 구축하는 데 중요한 자료로 이용될 것이다.

선택적 희생 캐쉬를 이용한 저전력 고성능 시스템 설계 방안 (An Energy-Delay Efficient System with Adaptive Victim Caches)

  • 김철홍;심성훈;전주식;장성태
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권11_12호
    • /
    • pp.663-674
    • /
    • 2005
  • 계층적 메모리 구조를 사용하는 시스템에서 상위 캐쉬의 적중률은 전체 시스템의 성능을 결정하는 중요한 요소 중 하나이다. 시스템 설계 시 전력 효율성이 중요한 고려사항이 되고 있는 최근에는 전력 소모량이 많은 하위 캐쉬로의 접근을 줄이기 위해 상위 캐쉬의 적중률을 높이는 방안이 더욱 부각되고 있다. 본 논문에서는 선택적 희생 캐쉬를 이용하여 상위 캐쉬의 적중률을 높임으로써 저전력 고성능 시스템을 설계하는 방안을 제안하고자 한다. 희생 캐쉬는 직접 사상 1차 캐쉬에서의 충돌 미스로 인한 메모리 시스템의 성능 저하를 줄이기 위해 추가되는 모듈이다 제안하는 구조는 희생 캐쉬로의 데이타 할당 정책을 변형하여 재참조 가능성이 높은 데이타를 보다 오랜 시간동안 상위 캐쉬 내에 유지시킴으로써 상위 캐쉬의 적중률을 높이고, 이를 통해 접근 시간이 길고 전력 소모량이 많은 하위 캐쉬로의 접근 횟수를 줄이고자 한다. 참조 기반 희생 캐쉬는 1차 캐쉬에서 교체되는 데이타 중에서 프로세서에 의해 많이 참조되었던 데이타만을 골라서 할당한다. 교체 기반 희생 캐쉬는 1차 캐쉬에서 교체되는 데이타 중에서 충돌 미스가 자주 발생하는 위치에 할당되었던 데이타만을 골라서 할당한다. Wattch를 사용한 실험 결과 제안하는 구조는 기존의 희생 캐쉬 시스템보다 좋은 성능을 보일뿐 아니라, 전력 효율성도 높음을 알 수 있다.

최적화된 CUDA 소프트웨어 제작을 위한 프로그래밍 기법 분석 (Analysis of Programming Techniques for Creating Optimized CUDA Software)

  • 김성수;김동헌;우상규;임인성
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권7호
    • /
    • pp.775-787
    • /
    • 2010
  • GPU(Graphics Processing Unit)는 범용 CPU와는 달리 다수코어 스트리밍 프로세서(manycore streaming processor) 형태로 특화되어 발전되어 왔으며, 최근 뛰어난 병렬 처리 연산 능력으로 인하여 점차 많은 영역에서 CPU의 역할을 대체하고 있다. 이러한 추세에 따라 최근 NVIDIA 사에서는 GPGPU(General Purpose GPU) 아키텍처인 CUDA(Compute Unified Device Architecture)를 발표하여 보다 유연한 GPU 프로그래밍 환경을 제공하고 있다. 일반적으로 CUDA API를 사용한 프로그래밍 작업시 GPU의 계산구조에 관한 여러 가지 요소들에 대한 특성을 정확히 파악해야 효율적인 병렬 소프트웨어를 개발할 수 있다. 본 논문에서는 다양한 실험과 시행착오를 통하여 획득한 CUDA 프로그래밍에 관한 최적화 기법에 대하여 설명하고, 그러한 방법들이 프로그램 수행의 효율에 어떠한 영향을 미치는지 알아본다. 특히 특정 예제 문제에 대하여 효과적인 계층 구조 메모리의 접근과 코어 활성화 비율(occupancy), 지연 감춤(latency hiding) 등과 같이 성능에 영향을 미치는 몇 가지 규칙을 실험을 통해 분석해봄으로써, 향후 CUDA를 기반으로 하는 효과적인 병렬 프로그래밍에 유용하게 활용할 수 있는 구체적인 방안을 제시한다.

STMP/MST와 기존의 시공간 이동 패턴 탐사 기법들과의 성능 비교 (A Comparison of Performance between STMP/MST and Existing Spatio-Temporal Moving Pattern Mining Methods)

  • 이연식;김은아
    • 인터넷정보학회논문지
    • /
    • 제10권5호
    • /
    • pp.49-63
    • /
    • 2009
  • 시공간 이동 패턴 탐사는 특성상 방대한 시공간 데이터의 분석 및 처리 방법에 따라 패턴 탐사의 성능이 좌우된다. 기존의 시공간 패턴 탐사 기법들[1-10]이 가진 패턴 탐사 수행 시간이나 패턴 탐사 시 사용되는 메모리양이 증가하는 문제를 해결하기 위해 일부 기법에서 몇 가지 방법을 제시하였으나 아직 미비한 실정하다. 이에 선행 연구로 방대한 시공간 이동 데이터 집합으로부터 순차적이고 주기적인 빈발 이동 패턴을 효과적으로 추출하기 위한 STMP/MST 탐사 기법[11]을 제안하였다. 제안된 기법은 해시 트리 기반의 이동 시퀀스 트리를 생성하여 빈발 이동 패턴을 탐사함으로써 탐사 수행 시간을 최소화하고, 상세 수준의 이력 데이터들을 실세계의 의미있는 시간 및 공간영역으로 일반화하여 탐사 시 소요되는 메모리양을 감소시킬 수 있다. 본 논문에서는 이러한 STMP/MST 탐사 기법의 효율성을 검증하기 위해서 탐사 대상 데이터양과 최소지지도를 기준으로 기존의 시공간 패턴 탐사 기법들과 탐사 수행 성능을 비교하고 분석한다.

  • PDF

이동 시퀀스 트리를 이용한 효율적인 시공간 이동 패턴 탐사 기법 (The Efficient Spatio-Temporal Moving Pattern Mining using Moving Sequence Tree)

  • 이연식;고현
    • 정보처리학회논문지D
    • /
    • 제16D권2호
    • /
    • pp.237-248
    • /
    • 2009
  • 최근 이동 객체의 동적인 위치나 이동성에 기반하여 여러 분야에 적용가능한 위치 기반 서비스를 개발하고자 다양한 객체의 이동 패턴들로 부터 유용한 패턴을 추출하기 위한 패턴 탐사 기법에 대한 연구가 활발히 진행되고 있다. 이동 패턴 탐사는 특성상 방대한 시공간 데이터의 분석 및 처리 방법에 따라 패턴 탐사의 성능이 좌우된다. 기존의 시공간 패턴 탐사 기법들[1-6,8-11] 중 일부는 이러한 문제를 해결하기 위한 방법을 제시하였으나, 패턴 탐사 수행 시간이나 패턴 탐사 시 사용되는 메모리양을 최소화하는데 있어 아직 부족한 실정이다. 이에 본 논문에서는 방대한 시공간 이동 데이터 집합으로부터 순차적이고 주기적인 빈발 이동 패턴을 효과적으로 추출하기 위한 새로운 시공간 이동 패턴 탐사기법을 제안한다. 제안된 기법에서는 이동 객체의 이력 데이터로부터 해시 트리 기반의 이동 시퀀스 트리를 생성하여 빈발 이동 패턴을 탐사함으로써 탐사 수행 시간을 $83%{\sim}93%$ 감소시키고, 시간 및 공간 속성을 가진 상세 수준의 이력 데이터들을 공간 및 시간 개념 계층을 이용하여 실세계의 의미있는 시간 및 공간영역으로 일반화함으로써 탐사 시 소요되는 메모리양을 감소시켜 보다 효과적인 패턴 탐사를 유도한다.

유비쿼터스 컴퓨팅을 위한 임베디드 파일시스템 (Embedded File System for Ubiquitous Computing)

  • 이병권;주영관;김석일;전중남
    • 한국지능시스템학회논문지
    • /
    • 제14권4호
    • /
    • pp.424-430
    • /
    • 2004
  • 본 논문에서는 유비쿼터스 컴퓨팅의 시스템 구현 방법으로 임베디드 시스템을 활용 시 다양한 플랫폼에 알맞은 파일시스템을 구축하는 방법에 대하여 기술한다. DOC(Disk-On-Chip) 파일시스템과 MTD(Memo Technology Devices)를 기반으로 플래시 메모리를 사용하는 파일시스템에 대한 정형화된 계층 구조를 구성하였다. DOC 파일시스템의 경우, 루트 파일시스템과 유저 파일시스템은 모두 M-Systems가 제공하는 TrueFFS로 구성한다. MTD 파일시스템의 경우, 루트 파일시스템은 속도가 빠른 램 디스크로 구성하고, 유저 파일시스템은 큰 용량을 지원할 수 있는 JFFS2로 구성한다. 또한, 두 가지 경우 모두 GUl(Graphic User Interface) 파일시스템의 구성을 위하여 Qt/E를 포팅하는 과정도 함께 제시한다.

FMS 구축을 위한 DNC 시스템 통신기법 (Method of DNC System Communication for FMS Construction)

  • 이석희;배용환
    • 대한기계학회논문집
    • /
    • 제18권4호
    • /
    • pp.805-815
    • /
    • 1994
  • The development of automatic production systems has a trend toward Computer Integrated Manufacturing System(CIMS) in recent years. In hardware configuration, CIMS are composed of intelligent CAD/CAM work stations, multifunction CNC machining centers including material handling systems. The DNC systems present the key element of automation hierarchy in a FMS. A DNC system is one which connects a number of numerically-controlled machines to a common memory in a digital computer for part program storage with provision for on-demand distribution of part program data to machines using communication in hierarchical structure of central computer, control computer and cell controller. This paper describes the development of Behind-the-Tape-Reader(BTR) type DNC system using CYBER 180-830 as a central computer and IBM PC-386 cell control computer and NC lathe with FANUC 5T NC controller. In this system, the connection between central computer and cell control computer is done via RS-232C serial interface board, and the connection between cell control computer and FANUC 5T controller is done via parallel interface board. The software consists of two module, central computer communication module for NC program downloading and status uploading, NC machine running module for NC operating.

Workload Characteristics-based L1 Data Cache Switching-off Mechanism for GPUs

  • Do, Thuan Cong;Kim, Gwang Bok;Kim, Cheol Hong
    • 한국컴퓨터정보학회논문지
    • /
    • 제23권10호
    • /
    • pp.1-9
    • /
    • 2018
  • Modern graphics processing units (GPUs) have become one of the most attractive platforms in exploiting high thread level parallelism with the support of new programming tools such as CUDA and OpenCL. Recent GPUs has applied cache hierarchy to support irregular memory access patterns; however, L1 data cache (L1D) exhibits poor efficiency in the GPU. This paper shows that the L1D does not always positively affect the applications in terms of performance and energy efficiency for the GPU. The performance of the GPU is even harmed by using the L1D for lots of applications. Our proposed technique exploits the characteristics of the currently-executed applications to predict the performance impact of the L1D on the GPU and then decides whether to continuously use the cache for the application or not. Our experimental results show that the proposed technique improves the GPU performance by 9.4% and saves up to 52.1% of the power consumption in the L1D.

의사 랜덤치환을 이용한 다중레벨 키분배 (A Multilevel Key Distribution using Pseudo - random Permutations)

  • 김주석;신원;이경현
    • 한국정보처리학회논문지
    • /
    • 제4권10호
    • /
    • pp.2493-2500
    • /
    • 1997
  • 대칭키 관리 시스템에서 계층적 구조를 지닌 다중 사용자 그룹에 대한 새로운 키관리 방안을 제안한다. 제안된 방식은 의사 랜덤치환에 의해 새성되는 트랩도어 일방향 치환을 이용하며, 구현시 시간과 공간적 측면에서 유리하기 때문에, 완전순서 집합과 부분순서가 있는 집합으로 구성되는 다단계 계층적 구조에 사용 가능하다. 또한, 다른 제안 방식과 비교하여 성능을 분석하고, 제안 방식이 키생성 시간과 키저장 크기에서 보다 효율적인 것을 보인다.

  • PDF

SC20를 통해 본 HPC 기술 동향 (HPC Technology Through SC20)

  • 어익수;모희숙;박유미;한우종
    • 전자통신동향분석
    • /
    • 제36권3호
    • /
    • pp.133-144
    • /
    • 2021
  • High-performance computing (HPC) is the underpinning for many of today's most exciting new research areas, to name a few, from big science to new ways of fighting the disease, to artificial intelligence (AI), to big data analytics, to quantum computing. This report captures the summary of a 9-day program of presentations, keynotes, and workshops at the SC20 conference, one of the most prominent events on sharing ideas and results in HPC technology R&D. Because of the exceptional situation caused by COVID-19, the conference was held entirely online from 11/9 to 11/19 2020, and interestingly caught more attention on using HPC to make a breakthrough in the area of vaccine and cure for COVID-19. The program brought together 103 papers from 21 countries, along with 163 presentations in 24 workshop sessions. The event has covered several key areas in HPC technology, including new memory hierarchy and interconnects for different accelerators, evaluation of parallel programming models, as well as simulation and modeling in traditional science applications. Notably, there was increasing interest in AI and Big Data analytics as well. With this summary of the recent HPC trend readers may find useful information to guide the R&D directions for challenging new technologies and applications in the area of HPC.