• Title/Summary/Keyword: 대용량자료

Search Result 369, Processing Time 0.025 seconds

Online SLAM algorithm for mobile robot (이동 로봇을 위한 온라인 동시 지도작성 및 자가 위치 추적 알고리즘)

  • Kim, Byung-Joo
    • Journal of the Korean Data and Information Science Society
    • /
    • v.22 no.6
    • /
    • pp.1029-1040
    • /
    • 2011
  • In this paper we propose an intelligent navigation algorithm for real world problem which can build a map without localization. Proposed algorithm operates online and furthermore does not require many memories for applying real world problem. After applying proposed algorithm to toy and huge data set, it does not require to calculate a whole eigenspace and need less memory compared to existing algorithm. Thus we can obtain that proposed algorithm is suitable for real world mobile navigation algorithm.

A Performance Comparison of Distributed Data Processing Frameworks for Large Scale Graph Data (대규모 분산 처리 프레임워크에 따른 대규모 그래프 처리 성능 비교)

  • Bae, Kyung-sook;Kong, Yong-joon;Shim, Tak-kil;Shin, Eui-seob;Seong, Kee-kin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.04a
    • /
    • pp.469-472
    • /
    • 2012
  • 최근 IT 분야의 화두로 '빅 데이터'가 떠오르고 있으며 많은 기업들이 이를 분석하여 이익을 증대하기 위한 노력을 하고 있다. 이에 구글은 초기에 맴리듀스라고 하는 대용량 분산처리 프레임워크 기술을 확보하여 이를 기반으로 한 서비스를 제공하고 있다. 그러나 스마트 단말 및 소설미디어 등의 출현으로 다양한 디지털 정보들이 그래프로 표현되는 추세가 강화되고 있으며 기존의 맵리듀스로 이를 처리하는 데에 한계를 느낀 구글은 Pregel 이라는 그래프 형 자료구조에 최적화된 또 다른 분산 프레임워크를 개발하였다. 본 논문에서는 일반적인 그래프 형 데이터가 갖는 특성을 분석하고, 대용량 그래프 데이터를 처리하는데 있어 맵리듀스가 갖는 한계와 Pregel은 어떤 방식으로 이를 극복하고 있는지를 소개한다. 또한 실험을 통하여 데이터의 특성에 따른 적절한 프레임워크의 선택이 대용량 데이터를 처리하는 데에 있어서 얼마나 큰 영향을 미치는지 확인한다.

Suffix Tree Constructing Algorithm for Large DNA Sequences Analysis (대용량 DNA서열 처리를 위한 서픽스 트리 생성 알고리즘의 개발)

  • Choi, Hae-Won
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.15 no.1
    • /
    • pp.37-46
    • /
    • 2010
  • A Suffix Tree is an efficient data structure that exposes the internal structure of a string and allows efficient solutions to a wide range of complex string problems, in particular, in the area of computational biology. However, as the biological information explodes, it is impossible to construct the suffix trees in main memory. We should find an efficient technique to construct the trees in a secondary storage. In this paper, we present a method for constructing a suffix tree in a disk for large set of DNA strings using new index scheme. We also show a typical application example with a suffix tree in the disk.

Comparison of Control Methods for Estimation Bias in Unmatched Analysis of Matched Data (짝을 이룬 자료분석시 야기되는 Estimation Bias의 Control Methods)

  • Yoo, Keun-Young
    • Journal of Preventive Medicine and Public Health
    • /
    • v.23 no.3 s.31
    • /
    • pp.247-254
    • /
    • 1990
  • 짝짓기 방법은 교란변수를 통제하기 가장 좋은 방법으로 알려져 있으나, 모수추정시 그 계산방법이 복잡하고, 포함된 모든 정보를 이용할 수 없다는 단점을 갖고 있다. 그럼에도 불구하고, conditional 모델을 이용한 matched 분석법은 짝지은 자료 분석시 가장 좋은 방법으로 인정되고 있다. 그러나 명확한 confounding 현상을 통제할 목적이 아닌 상태에서 짝지워진 자료를 matched 분석법으로 모수추정하는 경우나, 올바로 짝지워진 자료를 분석법의 편이성 때문에 unmatched 분석을 시도하는 경우, 오히려 estimation bias가 야기될 수 있다. 이러한 estimation bias의 통제능력을 몇 가지 분석방법을 이용하여 비교하고자, 1:2로 대응된 한 환자-대조군 자료를 이용하여 Mantel-Haenszel 분석법, 두가지의 unconditional model을 이용한 다변량분석법의 결과를 conditional model을 이용한 matched 분석법의 결과와 비교하였다. 1. Matched 분석법의 대용방법으로 사용된 세 가지 방법들은 모수추정면에서나 가설검정능력면에서 차이를 서로 보이지 않았다. 2. 짝짓기에 사용된 변수가 분석자료내에서 confounder나 effect modifier로 작용되지 않았음이 명백한 경우에는 이들 세 가지 통제 방법과 matched 분석법간에 차이가 없었다. 3. 짝짓기에 사용된 변수가 분석자료내에서 effect modifier로 작용하지는 않았으나, Confounder로 작용한 것으로 추정되는 경우, unmatched 분석법으로 인해 야기된 estimation bias의 통제능력이 이들 세 가지 대용방안 모두에서 인정되었다. 4. 짝짓기에 사용된 변수가 분석자료내에서 effect modifier로 작용하고 있음을 직접 확인할 수 있는 경우에는, overmatching에 의한 estimation bias를 의심할 수 있었으며, 이들 세 가지 통제방법은 오히려 unmatched 분석 방법에 가까운 모수를 추정하였다.

  • PDF

A Study on the Relationship between Skill and Competition Score Factors of KLPGA Players Using Canonical Correlation Biplot and Cluster Analysis (정준상관 행렬도와 군집분석을 응용한 KLPGA 선수의 기술과 경기성적요인에 대한 연관성 분석)

  • Choi, Tae-Hoon;Choi, Yong-Seok
    • The Korean Journal of Applied Statistics
    • /
    • v.21 no.3
    • /
    • pp.429-439
    • /
    • 2008
  • Canonical correlation biplot is 2-dimensional plot for investigating the relationship between two sets of variables and the relationship between observations and variables in canonical correlation analysis graphically. In general, biplot is useful for giving a graphical description of the data. However, this general biplot and also canonical correlation biplot do not give some concise interpretations between variables and observations when the number of observations are large. Recently, for overcoming this problem, Choi and Kim (2008) suggested a method to interpret the biplot analysis by applying the K-means clustering analysis. Therefore, in this study, we will apply their method for investigating the relationship between skill and competition score factors of KLPGA players using canonical correlation biplot and cluster analysis.

The Loss and Profit System For View Performance (조회 속도 향상을 고려한 손익 평가 시스템 구현)

  • Kim, Sol-Moi;Kwag, Hee-Kue;Kim, Soo-Hyung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.10a
    • /
    • pp.75-78
    • /
    • 2000
  • 정보의 양이 많아지면서 대용량의 자료에서 필요한 자료를 찾는 일의 중요성이 날로 증대되고 있다. 본 논문에서는 100만건 이상의 손익 자료에서 시계열성 매출액, 사원별 매출액 등과 같은 정보의 조회시 조회 속도를 향상시키기 위한 여러 방법들을 고려하여 손익 평가 시스템을 구축하고 앞으로의 발전방향을 알아본다.

  • PDF

Introduction to Concept in Association Rule Mining (연관규칙 마이닝에서의 Concept 개요)

  • ;;R. S. Famakrishna
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04b
    • /
    • pp.100-102
    • /
    • 2002
  • 데이터 마이닝의 대표적인 기법인 연관규칙 마이닝을 위한 다양만 알고리즘들이 제안되었고, 각 알고리즘에 따른 대용량 데이터에 대한 신속한 탐색을 위한 독특한 자료구조가 제안되었다 각 자료구조의 특성에 따른 알고리즘 성능은 데이터의 패턴에 크게 의존한다. 본 논문에서는 Concept을 형성하는 세가지 대표적인 자료구조인 Hash Tree, Lattice. FP-Tree에 대해 비교 분석해보고, 데이터 패턴에 적합한 효율적인 알고리즘의 설계 위한 framework을 제안한다.

  • PDF

A Fast Algorithm for Constructing Suffix Arrays (써픽스 배열을 구축하는 빠른 알고리즘)

  • 조준하;박희진;김동규
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10a
    • /
    • pp.736-738
    • /
    • 2004
  • 써픽스 배열은 정렬된 모든 써픽스들의 인덱스를 저장한 자료구조이며, 긴 문자열에서 임의의 패턴을 효율적으로 검색을 할 수 있는 자료구조이다. 비슷한 자료구조인 써픽스 트리에 비해 적은 공간을 사용하기 때문에 대용량의 텍스트에 대한 처리에 더 적합하다. 본 논문에서는 써픽스 배열을 빠르게 구축하는 방법을 제안하고, 써픽스 배열 구축 알고리즘들 중에서 빠르다고 알려진 Larsson and Sadakane 알고리즘, 대표적인 선형 시간 알고리즘인 Karkkainen and Sanders 알고리즘 및 최근에 발표된 고정길이 문자집합에 효율적인 Kim et al. 알고리즘과 성능을 비교한다. 실험 결과 본 논문에서 제안한 알고리즘이 전반적으로 빠르게 써픽스 배열을 구축하였다.

  • PDF

Development of data processing method and system for huge Highway Data (대용량 교통 데이터의 자료처리 과정과 시스템의 개발)

  • Cheong, Sujeong;Song, Sookyung;Lee, Minsoo;Namgung, Sung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.11a
    • /
    • pp.295-297
    • /
    • 2007
  • 교통 관련 검지기 시스템에 의해 수집된 교통량, 점유율, 속도와 같은 교통 정보 데이터는 품질평가, 오류판단, 결측보정의 자료처리를 거치게 되며 이러한 전처리 후 다양한 목적에 의해 연구자들에게 활용된다. 신속하고 정확한 자료처리와 보다 편리하고 효과적인 웹 UI 의 제공은 매우 중요하다. 본 논문에서는 품질평가, 오류판단, 결측보정에 해당하는 세 단계의 자료처리 알고리즘을 개발하고 사용자에게 자료처리의 과정을 제공하는 웹 UI 시스템을 구현한다.

Cloud Computing-Based Processing of Large Volume UAV Images Acquired in Disaster Sites (재해/재난 현장에서 취득한 대용량 무인기 영상의 클라우드 컴퓨팅 기반 처리)

  • Han, Soohee
    • Korean Journal of Remote Sensing
    • /
    • v.36 no.5_3
    • /
    • pp.1027-1036
    • /
    • 2020
  • In this study, a cloud-based processing method using Agisoft Metashape, a commercial software, and Amazon web service, a cloud computing service, is introduced and evaluated to quickly generate high-precision 3D realistic data from large volume UAV images acquired in disaster sites. Compared with on-premises method using a local computer and cloud services provided by Agisoft and Pix4D, the processes of aerial triangulation, 3D point cloud and DSM generation, mesh and texture generation, ortho-mosaic image production recorded similar time duration. The cloud method required uploading and downloading time for large volume data, but it showed a clear advantage that in situ processing was practically possible. In both the on-premises and cloud methods, there is a difference in processing time depending on the performance of the CPU and GPU, but notso much asin a performance benchmark. However, it wasfound that a laptop computer equipped with a low-performance GPU takes too much time to apply to in situ processing.