Distributed Data Process for LHC(Large Hadron Collider) Experiment

대형 강입자 충돌가속기(LHC) 실험의 자료 분산 처리

  • Cho Kihyeon (Center for High Energy Physics, Kyungpook National University) ;
  • Han Daehee (Center for High Energy Physics, Kyungpook National University) ;
  • Kwon Kihwan (Center for High Energy Physics, Kyungpook National University) ;
  • Kim Jincheol B. (Center for High Energy Physics, Kyungpook National University) ;
  • Son Dongchul (Center for High Energy Physics, Kyungpook National University)
  • 조기현 (경북대학교 고에너지물리연구소) ;
  • 한대희 (경북대학교 고에너지물리연구소) ;
  • 권기환 (경북대학교 고에너지물리연구소) ;
  • 김진철 (경북대학교 고에너지물리연구소) ;
  • 손동철 (경북대학교 고에너지물리연구소)
  • Published : 2005.11.01

Abstract

고에너지물리학의 거대강입자충돌실험(LHC)에서 생산되는 데이터양은 연간 $12\~14$PetaByte이므로 이러한 데이터를 분석하기 위해서 기존의 전산개념으로는 자료 처리하기가 불가능하다. 그러므로 새로운 개념의 대용량 자료 처리를 위한 분산 처리 시스템이 필요하며, 이와 관련하여 고에너지 물리 실험분야에서는 계층적 구조의 Tier-0, 1, 2의 지역데이터센터의 개념 및 그리드 개념을 도입하였다. LCG(LHC Computing Grid) 및 OSG(Open Science Grid)등의 그리드 팜을 이용하여 자료를 처리한다.

Keywords