• Title/Summary/Keyword: 데이터 처리량

Search Result 2,577, Processing Time 0.031 seconds

Program development for playback time estimation (플레이백 시간 예측 프로그램 개발)

  • Chae, Dong-Seok;Yang, Seung-Eun;Lee, Jae-Seung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.04a
    • /
    • pp.492-494
    • /
    • 2012
  • 저궤도 위성은 위성과 지상과의 통신시간이 제한되어 있으므로 제한된 시간에 위성의 대용량메모리(Mass Memory)에 저장된 데이터를 전송받아야 하는데, 이를 위해 저장되는 데이터 량을 정확히 예측할 수 있어야 하고, 저장된 데이터 량에 따라 지상으로 전송하는데 소요되는 시간을 예측할 수 있어야 한다. 본 논문은 위성에 저장되고 있는 Telemetry 종류에 따라 대용량메모리에 저장되는 데이터 량을 예측하고, 저장된 데이터 량에 따라 지상으로 전송하는데 소요되는 시간을 계산하기 위해 개발된 플레이백 시간 예측 프로그램에 대해 서술한 것이다.

A Performance Comparison of Distributed Data Processing Frameworks for Large Scale Graph Data (대규모 분산 처리 프레임워크에 따른 대규모 그래프 처리 성능 비교)

  • Bae, Kyung-sook;Kong, Yong-joon;Shim, Tak-kil;Shin, Eui-seob;Seong, Kee-kin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.04a
    • /
    • pp.469-472
    • /
    • 2012
  • 최근 IT 분야의 화두로 '빅 데이터'가 떠오르고 있으며 많은 기업들이 이를 분석하여 이익을 증대하기 위한 노력을 하고 있다. 이에 구글은 초기에 맴리듀스라고 하는 대용량 분산처리 프레임워크 기술을 확보하여 이를 기반으로 한 서비스를 제공하고 있다. 그러나 스마트 단말 및 소설미디어 등의 출현으로 다양한 디지털 정보들이 그래프로 표현되는 추세가 강화되고 있으며 기존의 맵리듀스로 이를 처리하는 데에 한계를 느낀 구글은 Pregel 이라는 그래프 형 자료구조에 최적화된 또 다른 분산 프레임워크를 개발하였다. 본 논문에서는 일반적인 그래프 형 데이터가 갖는 특성을 분석하고, 대용량 그래프 데이터를 처리하는데 있어 맵리듀스가 갖는 한계와 Pregel은 어떤 방식으로 이를 극복하고 있는지를 소개한다. 또한 실험을 통하여 데이터의 특성에 따른 적절한 프레임워크의 선택이 대용량 데이터를 처리하는 데에 있어서 얼마나 큰 영향을 미치는지 확인한다.

A Join Query with Aggregation functions Using Mapreduce (집계 함수를 포함하는 조인 질의의 맵리듀스를 사용한 효율적인 처리 기법)

  • Oh, So Hyeon;Lee, Ki Yong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.04a
    • /
    • pp.132-135
    • /
    • 2015
  • 맵리듀스(MapReduce)는 분산 환경에서의 빅데이터(Big Data), 즉 대용량 데이터를 처리하는 프로그래밍 모델이다. 대용량의 데이터를 분석하기 위해서 집계 함수(Aggregation function)로 데이터를 처리할 수 있다. 본 논문에서는 맵리듀스 환경을 기반으로 SQL 쿼리에서 집계 함수를 더 적은 비용으로 수행하며 효율적으로 처리할 수 있는 두 가지 전략을 제안한다. 두 가지 전략 중 더 높은 성능을 보이는 전략을 더 효율적인 처리 방법으로 판단한다. 첫 번째 전략은 두 테이블을 Join하여 집계 함수를 처리하는 방법이다. 두 번째 전략은 집계 함수를 처리하여 Join에 참여할 튜플의 수를 최소로 줄인 후 Join을 수행하고 다시 집계 함수를 처리하는 방법이다. 두 제안 방법을 비교하기 위하여 실험을 한 결과 두 번째 전략이 더 적은 비용이 드므로 더 효율적인 처리 방법인 것으로 보인다.

Automatic payload data dump for the LEO satellite (저궤도위성 탑재체 데이터 자동 전송)

  • Chae, Dong-Seok;Yang, Seung-Eun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.04a
    • /
    • pp.641-642
    • /
    • 2011
  • 저궤도 위성은 지상과의 접축시간이 극히 제한되어 있어 위성에서 생성된 원격측정 데이터들을 위성의 대용량 메모리에 저장하였다가 지상과의 접촉시간에 저장된 데이터를 지상으로 전송하는 방식으로 운영된다. 위성에 저장할 수 있는 전체 데이터 크기는 대용량 메모리의 크기와 지상과의 통신 가용시간에 따라 제한을 받게 된다. 대용량 메모리 저장용량과 다운링크 버짓을 만족해야 하므로 일반적으로 각 탑재체로부터 수신하여 위성에 저장되는 원격측정 데이터들은 종류별로 일정한 주기를 가지게 되고 그 크기도 고정되어 있다. 그리고 각 데이터 종류별로 저장여부를 지상명령으로 조절할 수 있도록 되어 있다. 그러나 생성되는 데이터가 일정하지 않고 비주기성을 갖는 경우 데이터량을 예측할 수 없으므로 지상명령으로 데이터 저장여부를 제어하는 것은 거의 불가능하다. 이러한 경우에 생성되는 데이터량을 모니터링하면서 데이터를 전송할 수 있는 자동화된 데이터 통신 방식이 요구된다. 본 논문은 저궤도 위성 탑재체에서 비주기적으로 생성되는 데이터를 자동으로 전송받기 위한 데이터 자동 전송기능과 시험 결과에 대해서 기술하였다.

Query Processing Techniques for Data Warehouses using Path Indices (경로 인덱스를 이용한 데이터 웨어하우스의 질의 처리 기법)

  • 이정남;조완섭;이충세;김홍기
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10a
    • /
    • pp.281-283
    • /
    • 1999
  • 본 논문에서는 객체-관계형 데이터베이스 관리 시스템(Object-Relational DBMS: ORDBMS) 기반의 데이터 웨어하우스(Data Warehouse)에서 성능 향상을 위한 인덱싱 기법과 이를 이용한 질의 처리 기법을 제안한다. 지금까지 관계형 DBMS를 기반으로 한 데이터 웨어하우스의 성능향상에 관한 연구는 활발히 이루어져 왔으나, ORDBMS에 기반한 데이터 웨어하우스의 구축 및 질의 처리 성능에 관한 연구는 거의 이루어지지 않고 있다. 데이터 웨어하우스는 기존의 데이터베이스와는 비교할 수 없을 만큼의 대용량 데이터를 가정하므로 ORDBMS를 이용하여 데이터 웨어하우스를 구축하는 경우에도 적절한 성능의 보장이 필수적으로 요구된다. 제안된 인덱싱 기법을 사용함으로써 데이터 웨어하우스 분석용 질의에 포함된 비용이 큰 조인과 그루핑 연산은 비용이 저렴한 인덱스 액세스 연산으로 대치되며, 데이터의 량과 거의 무관하게 질의 처리 비용이 고정되는 효과를 얻을 수 있다.

  • PDF

Incremental Generation of A Decision Tree Using Global Discretization For Large Data (대용량 데이터를 위한 전역적 범주화를 이용한 결정 트리의 순차적 생성)

  • Han, Kyong-Sik;Lee, Soo-Won
    • The KIPS Transactions:PartB
    • /
    • v.12B no.4 s.100
    • /
    • pp.487-498
    • /
    • 2005
  • Recently, It has focused on decision tree algorithm that can handle large dataset. However, because most of these algorithms for large datasets process data in a batch mode, if new data is added, they have to rebuild the tree from scratch. h more efficient approach to reducing the cost problem of rebuilding is an approach that builds a tree incrementally. Representative algorithms for incremental tree construction methods are BOAT and ITI and most of these algorithms use a local discretization method to handle the numeric data type. However, because a discretization requires sorted numeric data in situation of processing large data sets, a global discretization method that sorts all data only once is more suitable than a local discretization method that sorts in every node. This paper proposes an incremental tree construction method that efficiently rebuilds a tree using a global discretization method to handle the numeric data type. When new data is added, new categories influenced by the data should be recreated, and then the tree structure should be changed in accordance with category changes. This paper proposes a method that extracts sample points and performs discretiration from these sample points to recreate categories efficiently and uses confidence intervals and a tree restructuring method to adjust tree structure to category changes. In this study, an experiment using people database was made to compare the proposed method with the existing one that uses a local discretization.

A Study on the Massive Data Security System of the Hadoop Based (Hadoop 기반의 대용량 데이터 보안 시스템에 관한 연구)

  • Kim, Hyo-Nam
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2016.01a
    • /
    • pp.305-306
    • /
    • 2016
  • 현재 스마트 시대에 살고 있는 우리는 매우 복잡하고 거미줄처럼 연결되어 있는 빅 데이터 환경에서 살고 있다. 이런 환경에서는 대용량 데이터를 효율적으로 관리하고 활용하는 것이 개인이나 기업들이 추구하려는 목표이다. 빅 데이터 시대에 데이터의 효율적인 관리와 활용을 위해 다양한 장비에서 수집되고 저장된 대용량 데이터에 대해서 일반적인 데이터 분석을 통한 보안 기술로는 상당한 시간과 자원 낭비가 수반된다. 이를 개선하기 위해 본 논문에서는 하둡을 이용하여 대용량 데이터에 대한 처리 및 분석을 통해 효과적인 보안 시스템을 제안한다.

  • PDF

Precise Estimation of Vertical Position Displacement by Replacement of CORS Antennas (위성기준점 안테나교체에 따른 수직위치 변동량의 정밀산정)

  • Jung, Kwang-Ho;Lee, Young-Jin
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.30 no.4
    • /
    • pp.343-352
    • /
    • 2012
  • In order to precisely determine the vertical displacements of CORS antenna phase centers caused by their replacement, intensive research has been carried out in this paper throughout processing GPS measurements made before and after the events. After applying the estimated displacement in the data processing, results show that coordinate repeatability of the vertical component is able to be 7.9mm on average. Comparing with results (e.g., 23.5mm) without applying the displacement, it was possible to conclude that these accuracies are significantly improved, which is equivalent to those before the event of the replacement.

A Study on Scheduling of Distributed Log Analysis by the importance of the measure (중요도에 따른 분산 로그분석 스케줄링)

  • Back, BongHyun;Ahn, Byoungchul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.04a
    • /
    • pp.1511-1514
    • /
    • 2009
  • 이기종(異機種) 시스템환경에서 발생하는 수많은 로그 데이터는 중요도에 따라 실시간 로그 분석이 필요하고 대용량의 로그 데이터의 경우 특정 시간내에 로그 분석 처리를 종료해야만 한다. 보안에 관련된 로그 정보의 경우 실시간 분석과 빠른 통계 처리를 요구할 것이며, 대용량의 비실시간성 로그 분석의 경우 로그 분석 및 통계처리를 주어진 특정 시간 내에 하여야 한다. 본 논문에서는 로그 데이터의 중요도에 따른 실시간 로그 분석 처리와 비실시간 대용량 통계 로그의 로그 분석 처리 마감 시간을 충족하는 로그 분석 스케줄링 정책을 제안한다.

A Dynamic Data Replica Deletion Strategy on HDFS using HMM (HMM을 이용한 HDFS 기반 동적 데이터 복제본 삭제 전략)

  • Seo, Young-Ho;Youn, Hee-Yong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2014.07a
    • /
    • pp.241-244
    • /
    • 2014
  • 본 논문에서는 HDFS(Hadoop Distributed File System)에서 문제되고 있는 복제정책의 개선을 위해 HMM(Hidden Markov Model)을 이용한 동적 데이터 복제본 삭제 전략을 제안한다. HDFS는 대용량 데이터를 효과적으로 처리할 수 있는 분산 파일 시스템으로 높은 Fault-Tolerance를 제공하며, 데이터의 접근에 높은 처리량을 제공하여 대용량 데이터 집합을 갖는 응용 프로그램에 최적화 되어있는 장점을 가지고 있다. 하지만 HDFS 에서의 복제 메커니즘은 시스템의 안정성과 성능을 향상시키지만, 추가 블록 복제본이 많은 디스크 공간을 차지하여 유지보수 비용 또한 증가하게 된다. 본 논문에서는 HMM과 최상의 상태 순서를 찾는 알고리즘인 Viterbi Algorithm을 이용하여 불필요한 데이터 복제본을 탐색하고, 탐색된 복제본의 삭제를 통하여 HDFS의 디스크 공간과 유지보수 비용을 절약 할 수 있는 전략을 제안한다.

  • PDF