• 제목/요약/키워드: data duplication

검색결과 205건 처리시간 0.029초

국가기준점 망조정을 위한 GPS 3등기준점 기선해석 (Baseline Analysis for $3^{rd}$ order GPS Network Adjustment)

  • 이영진;정광호;권찬오;송준호;조준래;남기범
    • 한국측량학회:학술대회논문집
    • /
    • 한국측량학회 2007년도 춘계학술발표회 논문집
    • /
    • pp.3-6
    • /
    • 2007
  • The GPS baseline processing and the network adjustment was required a preliminary classification and check for effective work because the observation data of GPS $3^{rd}$ order control points are enormous attain to about 12,000 points. Particularly, in baseline processing and network adjustment a inaccuracy GPS antenna heights and point names yield a gross error or a S/W computation error. For the baseline processing of observation data, the related all materials were collected and were required a final check. The factor occurring a error, in GPS the baseline processing, were inspected variously after a checking observation data. Also, baseline processing method of GPS $3^{rd}$ order control points were commented and the analysis carry out a results with a experiment. The ellipsoidal distance and height of duplication baseline was compared between adjoin campaign areas for a accuracy analysis of baseline processing. According to the result, the mean is about 1cm for horizontal direction and about 2cm for vertical direction.

  • PDF

CCTV 네트워크 영상 녹화 환경에서 장애 조치 기법 (A Failover Method in CCTV Network Video Recording Environment)

  • 양선진;박재표;양승민
    • 한국인터넷방송통신학회논문지
    • /
    • 제19권4호
    • /
    • pp.1-6
    • /
    • 2019
  • CCTV 영상 녹화 시스템은 영상 데이터의 증거가치로 인정받음으로 인해, 시설물의 경비 혹은 보안 관제의 목적으로 실생활에 널리 사용되고 있다. 최근 인터넷의 기술의 혁신으로 유/무선 네트워크를 통해 고화질 고용량의 데이터를 실시간 처리할 수 있도록 발전하고 있다. 영상 녹화 장치에서의 녹화 데이터는 중요하지만, 이를 유지하기 위한 방법, 특히 예기지 않은 장비의 결함이나 외부 공격에 의한 영상 데이터 손실을 막기 위한 이중화 방안은 드물다. 어렵게 이중화를 구현한다고 하더라도 고용량의 영상 데이터가 네트워크를 통해 전달되면서 발생하는 네트워크 과부하를 피할 수 없다. 본 논문에서는 CCTV 네트워크 영상 녹화 환경에서 네트워크 과부하를 유발하지 않고 이중화를 운영할 수 있는 장애 조치 기법을 제시하고 검증한다.

Design and Implementation of Intelligent IP Switch with Packet FEC for Ensuring Reliability of ATSC 3.0 Broadcast Streams

  • 이송연;백종호;단현석
    • 인터넷정보학회논문지
    • /
    • 제20권2호
    • /
    • pp.21-27
    • /
    • 2019
  • The terrestrial ATSC 3.0 broadcasting system, which is capable of converging broadcast and communication services, uses IP based technology for data transmission between broadcasting equipment. In addition, data transmission between broadcasting equipment uses IP-based technology like existing wired communication network, which has advantageous in terms of equipment construction and maintenance In case IP based data transmission technology is used, however, it may inevitably cause an error that a packet is lost during transmission depending on the network environments. In order to cope with a broadcasting accident caused by such a transmission error or a malfunction of a broadcasting apparatus, a broadcasting system is generally configured as a duplication, which can transmit a normal packet when various types of error may occur. By this reason, correction method of error packets and intelligent switching technology are essential. Therefore, in this paper, we propose a design and implementation of intelligent IP switch for Ensuring Reliability of ATSC 3.0 Broadcast Streams. The proposed intelligent IP consists of IP Stream Analysis Module, ALP Stream Analysis Module, STL Stream Analysis Module and SMPTE 2022-1 based FEC Encoding/Decoding Module.

적응적 상관도를 이용한 주성분 변수 선정에 관한 연구 (A Study on Selecting Principle Component Variables Using Adaptive Correlation)

  • 고명숙
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권3호
    • /
    • pp.79-84
    • /
    • 2021
  • 고차원의 데이터를 처리하기 위해서는 데이터의 성질을 유지하면서 특징을 잘 반영할 수 있는 특징 추출 방법이 필요하다. 주성분분석 방법은 고차원 데이터에 포함된 정보를 저차원의 데이터로 변환하여 원래 데이터의 변수 수보다 적은 수의 변수로 고차원 데이터를 표현 할 수 있는 방법으로서 데이터의 특징 추출을 위한 대표적인 방법이다. 본 연구에서는 데이터가 고차원인 경우 데이터 특징 추출을 위한 주성분 분석에 있어서 주성분 변수 선정 시 적응적 상관도를 기반으로 한 주성분 분석 방법을 제안한다. 제안하는 방법은 입력 데이터간의 상관 관계를 기반으로 상관도를 적응적으로 반영하여 데이터의 주성분을 분석함으로써 다른 여러 변수에 중복적으로 상관도가 높은 변수와 주성분을 유도하는데 연관성이 적은 변수를 주성분 변수 후보 대상에서 제외시키고자 한다. 고유벡터 계수 값에 의한 주성분 위계를 분석하고 위계가 낮은 주성분이 변수로 선정이 되는 것을 막고 또한 상관 분석을 통하여 데이터의 중복 발생이 데이터 편향을 유도하는 것을 최소화하 하고자 한다. 이를 통하여 주성분 변수 선정 시 데이터 편향성의 영향을 줄임으로써 실제 데이터의 특징을 잘 나타내는 주성분 변수를 선정하는 방법을 제안하고자 한다.

UNISQL/X를 이용한XML 문서 저장 시스템 설계 및 구현 (Design and Implementation of XML Documents Storage System using UNISQL/X)

  • 안병태;김현아
    • 한국컴퓨터정보학회논문지
    • /
    • 제6권1호
    • /
    • pp.38-44
    • /
    • 2001
  • 최근 인터넷의 발전으로 인하여 정보교환을 위한 표준으로 XML에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 객체관계 데이터베이스인 uniSQL/X를 이용한 XML 문서 저장 시스템 설계하고 구현하였다. 관계 데이터베이스와 객체지향 데이터베이스의 장점을 수용한 객체관계 데이터베이스(Object-Relational Database : ORDB)를 이용하여 XML 문서 저장 모델을 설계하여 XML 문서의 구조적인 정보를 효과적으로 표현할 수 있다. XML 문서의 빈번한 수정이 용이하도록 분할저장 방식을 사용하였고, DTD에 관계없이 XML 문서를 저장할 수 있도록 DTD 독립적인 모델을 제안하였다. 또한 데이터의 중복문제를 해결함으로써 검색 속도가 향상되었다

  • PDF

중복제거 TAR 기법을 적용한 백업 시스템 (Data Backup System Exploiting De-duplication TAR Scheme)

  • 강성운;정호민;이정근;고영웅
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(A)
    • /
    • pp.539-542
    • /
    • 2011
  • TAR와 같은 아카이브 포맷에는 파일 중복을 제거하는 기능이 포함되어 있지 않아서 리눅스 배포 미러와 같이 버전단위로 저장되는 시스템에서 디스크 공간의 낭비가 발생하였다. 본 연구에서는 파일 중복 제거 기능을 추가한 TAR형태의 압축 포맷인 DTAR와 이를 제어하는 DTM 유틸리티를 제안하였다. 주요 아이디어는 클라이언트에서 DTAR 생성 시, 헤더에 SHA1 해시 정보를 추가하여 DTM 유틸리티를 통해 SHA1 해시를 노드로 하는 R-B Tree를 생성하고 이를 서버에 저장된 해시 정보와 비교하여 DTAR내에서 중복이 없는 파일을 선택적으로 파일을 압축하고 서버로 백업하고 관리하는 것이다. 실험 결과 DTM을 통한 백업은 중복 데이터가 누적될수록 DTAR가 tar.gz보다 공간적인 측면이나 백업을 위한 데이터 패킷 전송 시간에서 크게 향상된 성능을 보였다.

건축구조설계 통합시스템의 개발에 관한 연구 (A Study on the Development of an Integrated Structural Design System for Buildings)

  • 김이두;최창근
    • 한국전산구조공학회:학술대회논문집
    • /
    • 한국전산구조공학회 1992년도 봄 학술발표회 논문집
    • /
    • pp.79-84
    • /
    • 1992
  • An integrated design system has as its aim the incoporation of all the design processes, such as, planning, preliminary design, analysis, detailed design (mamber design), evaluation, and drafting into an unified software system. Successful implementation such a system could lead to major improvements in efficiency by eliminating duplication of data and efforts. reducing errors, saving design time, providing management support, and so on. This study presents a methodology for an computer-integrated design system for building structures, synthesizing algorithmic procedures and knowledge based expert systems on the network database. Network database, which was designed to store all information systematically during the design processes, provides centeral communication area between algorithms and expert systems. The conventional procedural codes automate the routine design phases such as structural analysis, whereas knowledge-based expert systems support designer's decisions at the creative design phases such as preliminary design etc. The user interface with interactive and batch modes controls the design phases and manages design information and activates the algorithms and the expert systems. The concept presented in this paper will contribute to the formulation of automated design systems for building structures.

  • PDF

Efficient Markov Chain Monte Carlo for Bayesian Analysis of Neural Network Models

  • Paul E. Green;Changha Hwang;Lee, Sangbock
    • Journal of the Korean Statistical Society
    • /
    • 제31권1호
    • /
    • pp.63-75
    • /
    • 2002
  • Most attempts at Bayesian analysis of neural networks involve hierarchical modeling. We believe that similar results can be obtained with simpler models that require less computational effort, as long as appropriate restrictions are placed on parameters in order to ensure propriety of posterior distributions. In particular, we adopt a model first introduced by Lee (1999) that utilizes an improper prior for all parameters. Straightforward Gibbs sampling is possible, with the exception of the bias parameters, which are embedded in nonlinear sigmoidal functions. In addition to the problems posed by nonlinearity, direct sampling from the posterior distributions of the bias parameters is compounded due to the duplication of hidden nodes, which is a source of multimodality. In this regard, we focus on sampling from the marginal posterior distribution of the bias parameters with Markov chain Monte Carlo methods that combine traditional Metropolis sampling with a slice sampler described by Neal (1997, 2001). The methods are illustrated with data examples that are largely confined to the analysis of nonparametric regression models.

COHIRES를 활용한 사내기술정보 System -쌍용중앙연구소 기술정보실을 중심으로- (Internal Technical Information System if Ssangyong by COHIRES -Case study of the Ssangyong Research Centers Technical Information System-)

  • 노준식
    • 정보관리학회지
    • /
    • 제1권1호
    • /
    • pp.162-175
    • /
    • 1984
  • 사내에서 발생한 각종 기술정보를 입력시킨 쌍용양회의 사내 기술정보 검색System(STIS-II)과 STIS-II의 Software COHIRES의 일반적 특징과 활용현황에 대하여 소개하였다. STIS-II의 주요 입력 data는 연구소 연구보고서, 현장개선보고서, 국내외 출장보고서 등 사내에서 발생되는 기술정보가 주가되고 있으며 그 밖에도 국내에서 발간되는 각종 학 협회지와 특허까지 포함시켰다.

  • PDF

HMM을 이용한 HDFS 기반 동적 데이터 복제본 삭제 전략 (A Dynamic Data Replica Deletion Strategy on HDFS using HMM)

  • 서영호;윤희용
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2014년도 제50차 하계학술대회논문집 22권2호
    • /
    • pp.241-244
    • /
    • 2014
  • 본 논문에서는 HDFS(Hadoop Distributed File System)에서 문제되고 있는 복제정책의 개선을 위해 HMM(Hidden Markov Model)을 이용한 동적 데이터 복제본 삭제 전략을 제안한다. HDFS는 대용량 데이터를 효과적으로 처리할 수 있는 분산 파일 시스템으로 높은 Fault-Tolerance를 제공하며, 데이터의 접근에 높은 처리량을 제공하여 대용량 데이터 집합을 갖는 응용 프로그램에 최적화 되어있는 장점을 가지고 있다. 하지만 HDFS 에서의 복제 메커니즘은 시스템의 안정성과 성능을 향상시키지만, 추가 블록 복제본이 많은 디스크 공간을 차지하여 유지보수 비용 또한 증가하게 된다. 본 논문에서는 HMM과 최상의 상태 순서를 찾는 알고리즘인 Viterbi Algorithm을 이용하여 불필요한 데이터 복제본을 탐색하고, 탐색된 복제본의 삭제를 통하여 HDFS의 디스크 공간과 유지보수 비용을 절약 할 수 있는 전략을 제안한다.

  • PDF