• Title/Summary/Keyword: 대용량자료

Search Result 369, Processing Time 0.033 seconds

원격탐사위성의 탑재체자료전송장치를 위한 시험검증장비의 개발

  • Lee, Sang-Taek;Jin, Yeong-Bae
    • The Bulletin of The Korean Astronomical Society
    • /
    • v.37 no.2
    • /
    • pp.228.2-228.2
    • /
    • 2012
  • 본 논문에서는 탑재체자료전송장치의 시험검증을 위한 장비 개발에 관하여 소개 한다. 원격탐사위성에 탑재되는 고성능원격측정센서는 대용량 데이터를 생성하며 탑재체자료전송장치를 통하여 고주파통신에 의해 지상으로 전송된다. 따라서 탑재체자료전송장치의 검증은 전체 인공위성 개발에 있어서 매우 중요하다. 시험검증장비는 송신되는 수신자료를 수신하여 여러 장비로 분배해주는 고주파신호분배모듈, 계측기 및 복조기 등 다양한 장비로 구성된다. 시험검증장비는 고성능 고주파신호 부품, 다양한 전자장비와 이를 통합, 제어 운영하는 다양한 복잡한 소프트웨어가 필요하여 개발이 어렵다. 본 논문에서는 초기 제작 시험검증장비와 최종 제작 시험검증장비 사이의 차이와 성능, 기능의 향상을 위한 설계변경 등을 통하여 이에 대한 어려움을 극복한 과정과 설계 근거와 장비 선택 등 제반사항에 대하여 기술하여 이후 관련 유사장비의 개발에 있어 도움이 되고자 한다.

  • PDF

Development of Compensation Statistic System Based on Dashboard for Smart Work (스마트 워크를 위한 대시보드 기반의 보상 통계시스템 개발)

  • Seo, Myoung-Bae;Kim, Nam-Gon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.05a
    • /
    • pp.789-791
    • /
    • 2013
  • 보상업무를 수행하는 기관에서 정기 또는 비정기적으로 발생하는 각종 보고나 통계에 활용되는 자료들을 쉽게 작성하고 이러한 자료를 단순 보고자료에서 의사결정 자료로 확장시켜 스마트 워크에 활용하기 위해 시각적인 효과를 극대화시킨 대시보드 기반의 보상통계시스템 구축사례를 제시하였다. 이를 위해 국토해양부, 감사원, 국회 등에 제출하는 다양한 보고자료들을 분석하여 통계항목을 구성하였고 대용량 데이터를 신속하게 조회하기 위해 모델마트를 활용하였으며 플래시 기반의 비쥬얼 박스 등을 활용하여 시각적이며 직관적인 통계화면을 구성하였다. 또한, 기능구성시 관리자와 보상담당자가 활용하는 화면을 별도로 구성하여 맞춤형 서비스를 제공하였고 플래시 기반의 지도를 활용하여 화면상의 데이터가 상호 연동이 가능하도록 구성하였다.

Method for the evaluation of Unit Load of Road­-Section CO2 Emission Based on Individual Speed Data (개별 속도자료기반 도로구간 CO2 배출량 원단위 산정 방안)

  • Park, Chahgwha;Yoon, Byoungjo;Chang, Hyunho
    • Journal of the Society of Disaster Information
    • /
    • v.13 no.1
    • /
    • pp.96-105
    • /
    • 2017
  • Global warming, mainly caused by CO2, is one of the on­going cataclysms of the human race. The nation­wide policy to reduce greenhouse gases (GHG) has been enforced, for which it is crucial to estimate reliable GHG emissions. The unit load of road­section CO2 emission (URSCE) is a prerequisite for the evaluation of GHG emissions from road mobile source, and it is mainly computed using vehicular velocity source. Unfortunately, there is real­world limitations to collect and analyse representative speed data for nation­wide road network. To tackle this problem, a method for the evaluation of URSCE, proposed in this study, is based on a disaggregated way using big GPS vehicle data. The method yields more accurate URSCE than an current aggregated data based approach and can be directly employed for nation­wide road systems.

Mining Commuter Patterns from Large Smart Card Transaction Databases (대용량 교통카드 트랜잭션 데이터베이스에서 통근 패턴 탐사)

  • Park, Jong-Soo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06a
    • /
    • pp.38-39
    • /
    • 2010
  • 수도권 대중교통 이용자는 2004년 서울시의 대중교통 체계 개편에 따라 교통 카드를 사용하여 버스와 지하철을 이용하게 되었다. 교통 카드를 사용하는 각 승객의 승차와 하차에 관한 데이터가 하나의 트랜잭션으로 구성되고, 하루 천만 건 이상의 트랜잭션들로 구성된 대용량 교통카드 트랜잭션 데이터베이스가 만들어지고 있다. 대중교통을 이용하는 승객들의 승차와 하차에 관한 여러 정보를 담고 있는 교통카드 트랜잭션 데이터베이스에서 유용한 패턴이나 정보를 탐사해내는 연구가 계속 진행되고 있다. 이런 연구 결과는 수도권 대중교통 정책을 입안하는데 중요한 기초 자료가 되고 수도권 승객들에게 대중교통을 보다 잘 이용할 수 있는 정보로 제공된다. 교통카드 이용률은 2006년 79.5%, 2007년 80.3%, 2008년 81.6%로 점차적으로 증가하고 있다. 대용량의 교통카드 트랜잭션 데이터베이스에 대한 연구를 살펴보면 하루 동안의 교통카드 트랜잭션 데이터베이스에서 순차 패턴을 탐사하는 알고리즘을 연구하였고[1], 승객들의 통행 패턴에 대한 분석연구를 확장하여 일 년에 하루씩 2004년에서 2006년까지 3일간의 교통카드 트랜잭션 데이터베이스로부터 승객 시퀀스의 평균 정류장 개수와 환승 횟수 등을 연도별로 비교하였다[2]. 수도권 지하철 시스템의 특성에 관한 연구로는 네트워크 구조 분석이 있었고[3], 승객의 기종점 통행 행렬(Origin-Destination trip matrix)에 의한 승객 흐름의 분포가 멱함수 법칙(power law)임을 보여주는 연구가 있었고[4], 지하철 교통망에서 모든 링크상의 승객들의 흐름을 찾아내는 연구가 있었다[5]. 본 논문에서는 교통카드 트랜잭션 데이터베이스에서 지하철 승객들의 통근 패턴을 탐사해내는 방법을 연구하였다. 수도권 지하철 네트워크에 대한 정보를 입력하고 하루치의 교통카드 트랜잭션 데이터베이스에 연구된 방법을 적용하여 8가지 통근 패턴들을 탐사해내고 분석하였다. 탐사된 패턴들 중에서 많은 승객들이 지지하는 출퇴근 패턴에 대해서는 시간대별로 승객수를 그래프로 보여주었다.

  • PDF

Research about the Methods to Improve the U-City Platform through High-Capacity Information Processing Technologies (대용량 정보처리기술을 통한 U-City 통합플랫폼 개선방안에 관한 연구)

  • Hong, Jaejoo;Lee, Byungno;Lee, Junhyeong;Won, Donghyun
    • Spatial Information Research
    • /
    • v.23 no.3
    • /
    • pp.55-65
    • /
    • 2015
  • It was necessary for us to establish a U-City Integrated platform to handle information and to operate the processes in order to solve various social problems in the modern cities and environment. As time has passed, we have confronted to difficulty in handling massive data with limited storage and computing environment and in not satisfying all the new requirements and on time information from the publics. The bigger the cost of the operation of the platform got, the more doubts to keep and invest more to upgrade it arose. Here, we investigated the limitations of the U-city platforms and analyzed the additional requirements and each function of the platform. In order to meet the requirement, we applied new technologies to deal with massive data and suggested the infrastructure of computing environment. We will be expecting the cost decreasing effects and the benefit increasing effects from the enhancement of U-City platform.

MFT-based Forensic Evidence File Search Method Using Direct Access to Physical Sector of Hard Disk Drive (하드디스크의 물리적 섹터 접근 방법을 이용한 MFT기반 증거 파일 탐색 기법)

  • Kim, Yo-Sik;Choi, Myeong-Ryeol;Chang, Tae-Joo;Ryou, Jae-Cheol
    • Convergence Security Journal
    • /
    • v.8 no.4
    • /
    • pp.65-71
    • /
    • 2008
  • According to the capacity of hard disk drive is increasing day by day, the amount of data that forensic investigators should analyze is also increasing. This trend need tremendous time and effort in determining which files are important as evidence on computers. Using the file system APIs provided by Windows system is the easy way to identify those files. This method, however, requires a large amount of time as the number of files increase and changes the access time of files. Moreover, some files cannot be accessed due to the use of operating system. To resolve these problems, forensic analysis should be conducted by using the Master File Table (MFT). In this paper, We implement the file access program which interprets the MFT information in NTFS file system. We also extensibly compare the program with the previous method. Experimental results show that the presented program reduces the file access time then others. As a result, The file access method using MFT information is forensically sound and also alleviates the investigation time.

  • PDF

Safety-Related Bus Voltage Variation during Large Induction Motor Start-up in 1400MW Light Water Reactor Type Nuclear Power Plant (1400MW급 경수로형 원자력발전소의 대용량 유도전동기 시동시 안전관련 모선 전압 변동)

  • Lee, Cheoung Joon;Kim, Chang Kook;Noh, Young Seok;Joo, Young Hwan
    • Plant Journal
    • /
    • v.12 no.4
    • /
    • pp.37-43
    • /
    • 2016
  • Power system which provides electricity to the accident mitigation load for nuclear power plant should be verified to maintain the proper voltage level under the various loading and source conditions. For this purpose, it was needed to collect the voltage data of safety related buses during operation of the Reactor Coolant Pump(RCP) motor and Component Cooling Water Pump(CCWP) motor, respectively, under the certain loading condition of the plant. The data (such as, voltage, current, power factor) collected from actual measurement were used to modify the existing ETAP model and then the reanalysis was conducted to simulate the testing conditions. Through these actual measurement and analysis, it ensures that the existing electrical system analysis including assumptions and methods was conducted properly. Finally, the voltage of safety related buses was not dropped below the acceptable level, and the discrepancy between two results was within the limit.

  • PDF

Processing large-scale data with Apache Spark (Apache Spark를 활용한 대용량 데이터의 처리)

  • Ko, Seyoon;Won, Joong-Ho
    • The Korean Journal of Applied Statistics
    • /
    • v.29 no.6
    • /
    • pp.1077-1094
    • /
    • 2016
  • Apache Spark is a fast and general-purpose cluster computing package. It provides a new abstraction named resilient distributed dataset, which is capable of support for fault tolerance while keeping data in memory. This type of abstraction results in a significant speedup compared to legacy large-scale data framework, MapReduce. In particular, Spark framework is suitable for iterative machine learning applications such as logistic regression and K-means clustering, and interactive data querying. Spark also supports high level libraries for various applications such as machine learning, streaming data processing, database querying and graph data mining thanks to its versatility. In this work, we introduce the concept and programming model of Spark as well as show some implementations of simple statistical computing applications. We also review the machine learning package MLlib, and the R language interface SparkR.

Distributed Data Process for LHC(Large Hadron Collider) Experiment (대형 강입자 충돌가속기(LHC) 실험의 자료 분산 처리)

  • Cho Kihyeon;Han Daehee;Kwon Kihwan;Kim Jincheol B.;Son Dongchul
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11a
    • /
    • pp.1036-1038
    • /
    • 2005
  • 고에너지물리학의 거대강입자충돌실험(LHC)에서 생산되는 데이터양은 연간 $12\~14$PetaByte이므로 이러한 데이터를 분석하기 위해서 기존의 전산개념으로는 자료 처리하기가 불가능하다. 그러므로 새로운 개념의 대용량 자료 처리를 위한 분산 처리 시스템이 필요하며, 이와 관련하여 고에너지 물리 실험분야에서는 계층적 구조의 Tier-0, 1, 2의 지역데이터센터의 개념 및 그리드 개념을 도입하였다. LCG(LHC Computing Grid) 및 OSG(Open Science Grid)등의 그리드 팜을 이용하여 자료를 처리한다.

  • PDF