• Title/Summary/Keyword: 자료

Search Result 73,292, Processing Time 0.071 seconds

A New Method for Leveling Airborne Gamma-ray Spectrometric Data (항공 방사능 탐사 자료 맞추기의 새로운 방법)

  • Park, Yeong-Sue;Rim, Hyoungrea;Lim, Mutaek;Shin, Young Hong
    • Geophysics and Geophysical Exploration
    • /
    • v.19 no.4
    • /
    • pp.179-186
    • /
    • 2016
  • Data leveling utilizing baseline survey makes existing old data be smoothly compiled, and also keep characteristics of data, such as small high frequency anomaly information. The previously proposed leveling method may easily loose or damage the original characteristics of the data. This paper suggests a new leveling method. New method determines the leveling coefficients using regional field of the original data, which is composed by data on the grids point coincided with baseline survey grid, while existing method uses all grid data without any considerations. Results of new leveling method on test area shows that new method make two data sets compiled more smoothly and trends of data distribution expressed more clearly. And then, it also preserves high frequency information well.

Multiple imputation and synthetic data (다중대체와 재현자료 작성)

  • Kim, Joungyoun;Park, Min-Jeong
    • The Korean Journal of Applied Statistics
    • /
    • v.32 no.1
    • /
    • pp.83-97
    • /
    • 2019
  • As society develops, the dissemination of microdata has increased to respond to diverse analytical needs of users. Analysis of microdata for policy making, academic purposes, etc. is highly desirable in terms of value creation. However, the provision of microdata, whose usefulness is guaranteed, has a risk of exposure of personal information. Several methods have been considered to ensure the protection of personal information while ensuring the usefulness of the data. One of these methods has been studied to generate and utilize synthetic data. This paper aims to understand the synthetic data by exploring methodologies and precautions related to synthetic data. To this end, we first explain muptiple imputation, Bayesian predictive model, and Bayesian bootstrap, which are basic foundations for synthetic data. And then, we link these concepts to the construction of fully/partially synthetic data. To understand the creation of synthetic data, we review a real longitudinal synthetic data example which is based on sequential regression multivariate imputation.

Improving reliability of reservoir hydrological data followed by periodic evaluation (주기별 평가에 의한 저수지 수문자료 신뢰도 개선)

  • Jaekyoung Noh;Jaenam Lee
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.106-106
    • /
    • 2023
  • 저수지 수문자료는 강우량, 유입량, 저수량, 방류량이다. 이 중에서 관측되고 있는 것은 저수량과 일부 수로방류량에 불과하다. 그럼에도 모의에 의해 유입량을 고정시키면, 물수지에 의해 방류량을 계산할 수 있다. 그러나 저수량 오차로 모의 유입량과 계산 방류량의 신뢰도는 반드시 확인돼야 한다. 신뢰도가 낮으면 모의 유출량과 계산 방류량을 조정하며 신뢰도를 높여야 한다. 신뢰도는 평가주기가 짧을수록 보장된다. 여기서는 유역면적 218.80km2, 유효저수량 3,494만m3, 수혜면적 5,117ha인 탑정지에 대해 2020년 1월1일부터 12월31일까지 1시간 단위로 1달, 10일, 3일, 2일 간격의 주기로 저수지 운영자료를 생산하고, 그 신뢰도를 평가하여 평가주기가 짧을수록 오차가 감소되는 것을 관찰코자 했다. 1시간 간격의 유입량은 ONE 모형으로 모의했고, 저수지 물수지 모형을 구축하여 모의 유입량에 저수량 변화를 더해 방류량을 계산했다. 또한 저수지 물수지에 의해 저수위를 모의했으며, 관측 저수위와의 오차제곱근(RMSE)으로 신뢰도를 평가한 결과는 다음과 같다. 1달 간격으로 신뢰도를 평가한 경우 RMSE는 132.466m, 10일 간격은 46.922m, 3일 간격은 0.520m, 2일 간격은 0.349m로 나타났다. 위의 결과로부터 저수지 수문자료의 평가주기를 짧게 할수록 신뢰도는 개선된다고 말할 수 있다. 이상의 결과는 과거 자료에 대해 1년 동안 1시간 간격으로 유입량을 모의하고 방류량을 계산한 결과를 고정시키고, 평가주기를 달리하며 수위오차를 분석한 결과이다. 만약 평가주기별로 유입량과 방류량을 실제 상황에 적합하게 조정하면, 그 신뢰도는 훨씬 더 개선될 것이다. 현재 저수지 수위만을 관리하고 있는 현장의 상황에서 이 연구결과가 시사하는 바는 매우 크다. 첨언하면 AI 시대의 핵심은 자료다. AI의 먹이는 자료다. 다시 말해 자료 없는 AI는 시체와 같다. 자료는 기본이고 진실이다. 자료 없는 결과는 가짜다. 또한 위의 결과는 자료는 상시 관찰돼야 한다는 것을 말한다. 1년에 한 번 수문자료를 평가하는 제도로는 고품질의 자료를 생산할 수 없다. 무엇보다 자료는 상시 관찰하는 제도가 정착돼야 하며, 그 때 비로소 AI와 공존과 협력으로 물관리 기술의 혁신을 이룰 것이라 확신한다.

  • PDF

A Study on the Development of Basic Collection Catalog for the National Library for the Disabled (국립장애인도서관 장애인자료 수집을 위한 기초목록 개발 연구)

  • Hyojung Sim;Sin-Young Kim
    • Journal of the Korean Society for Library and Information Science
    • /
    • v.58 no.1
    • /
    • pp.351-371
    • /
    • 2024
  • This study presented basic data to be collected by the National Library for the Disabled in preparation for the construction of an independent library building and expansion of its scope. Due to legal and practical limitations, the National Library for the Disabled must invest annual budget to collect materials for the disabled and focus on purchasing them. In addition, it is necessary to establish a strategy for comprehensive collection of educational and academic resources, as well as retrospective materials. Accordingly, this study conducted basic research to comprehensively collect resources on the disabled based on the current collection development policy of the National Library for the Disabled. Ten institutions were selected for investigation, and trends in the publication and collection of materials related to disabled people and disability-related data were analyzed based on the data obtained from those institutions. The basic collection catalog presented can serve as foundational data to determine the resources to be collected by the National Library for the Disabled in the future.

The development of a meteorological data conversion program for air dispersion modeling (대기확산모델 운영을 위한 국내기상자료 변환프로그램개발)

  • 임문혁;정의석;홍현수;김진완;김선규;김선태
    • Proceedings of the Korea Air Pollution Research Association Conference
    • /
    • 2003.05b
    • /
    • pp.349-350
    • /
    • 2003
  • ISCST 등의 대기확산모델은 모두 EPA에서 개발된 것으로 모델 운영에 사용되는 모든 데이터가 미국의 실정에 맞게 프로그램 되어 있다. 특히 ISC모델을 운영하기 위하여 필요로 하는 기상자료를 생성하는 MIXHTS와 PCRAMMET등은 미국 기상청이나 기타 기상관련 기관에서 발표하는 자료를 사용하도록 되어있다. 따라서 ISC를 운영하는데 있어 국내 기상자료를 해당하는 형태로 전환해야 하는 번거로움이 있으며 우리나라 기상청에서 발표하는 기상자료의 형태와 MIXHTS PCRAMMET에서 요구하는 기상자료형태를 모두 알고 있어야만 ISC를 운영하기 위한 올바른 기상자료를 만들 수 있었다. (중략)

  • PDF

순환신경망모형을 이용한 단기 시계열예측

  • 윤여창
    • Communications for Statistical Applications and Methods
    • /
    • v.5 no.3
    • /
    • pp.599-605
    • /
    • 1998
  • 본 연구에서는 단순구조 순환신경망을 이용한 신경망예측과 전통적인 시계열예측 방법을 이용하여, 순환변동이 있는 시계열자료의 단기예측 오차를 비교한다. 순환신경망모형의 입력자료를 변화시키는 개선된 학습방법을 적용하여 시계열자료를 학습하고, 신경망예측의 결과는 선형 AR(9)모형, 비선형 SETAR모형 그리고 이들의 결합모형을 이용한 예측결과와 비교한다. 실증분석에 적용된 시계열자료는 1700년부터 1987년 까지의 태양흑점 자료이며 예측에 이용된 검정자료는 1980년부터 8년 간의 자료이다.

  • PDF

K-모드 알고리즘과 ROCK 알고리즘의 비교 및 개선방안

  • 김보화;김규성
    • Proceedings of the Korean Statistical Society Conference
    • /
    • 2001.11a
    • /
    • pp.163-167
    • /
    • 2001
  • 데이터 마이닝에서 분석의 대상으로 하는 대용량 자료에는 연속형 자료와 범주형 자료가 모두 포함된다. 전통적인 군집분석은 연속형 자료를 대상으로 하는 방법들이다. 본 연구에서는 범주형 자료를 대상으로 하는 군집분석방법인 K-모드 알고리즘과 락(ROCK) 알고리즘을 비교${\cdot}$분석하였다. 그리고 두 알고리즘이 갖는 방법론적인 단점을 보안하여 군집의 효과를 높일 수 있는 개선 방안을 제안하였다.

  • PDF

School File-Server System Based on Multi-Protocol (멀티 프로토콜 기반의 학교 파일 서버 시스템)

  • Koo, Duk-Hoi
    • 한국정보교육학회:학술대회논문집
    • /
    • 2009.08a
    • /
    • pp.127-132
    • /
    • 2009
  • 최근 웹상에는 교육적으로 활용 가능한 자료들이 산재해 있다. 이에 따라 학교 현장에서도 웹 기반의 멀티미디어 자료에 대한 활용이 크게 증가하고 있다. 그러나 웹 페이지 안에 포함되어 있는 여러 멀티미디어 자료들을 실시간으로 활용할 수 있도록 관리 및 서비스하는 파일 서버 시스템은 찾아보기 어려운 형편이다. 이에 본 연구에서는 효율적인 자료 관리 및 사용을 위해 개별적으로 서비스 되고 있는 다양한 멀티미디어 교육 자료들을 수집, 관리하고 그 자료를 멀티 프로토콜 기반으로 관리 및 서비스할 수 있는 파일 서버 시스템을 설계하고 구현하고자 한다. 본 연구 결과는 멀티미디어 자료의 공유 및 활용을 높이는데 사용될 수 있다.

  • PDF

자료융합을 이용한 누락치 추정 방법에 관한 연구 - 고객관계관리를 위한 새로운 방법론 -

  • 김성호;조성빈;백승익
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2001.06a
    • /
    • pp.411-420
    • /
    • 2001
  • 자료융합 (Data fusion)은 두 개 이상의 표본집단으로부터의 서로 다른 설문지 조사 자료를 혼합하여 하나의 통합되어진 자료를 만들어 내는 과정이다. 본 연구에서는 고객관계관리를 위해서 효율적으로 고객정보를 수집하고 관리할 수 있는 하나의 방법론으로서 자료융합 (Data Fusion) 방법을 제시하고, 그 방법의 유용성을 평가하고자 한다. 좀 더 구체적으로 말하면, 상관계수를 이용하여 기증자를 찾는 자료융합 방법과 Correspondence Analysis를 이용하여 기증자를 찾는 자료융합 방법의 정확도를 비교하는데 그 주요 목적을 두고 있다.

  • PDF

A Study on MBES Error Data Removing using Motion Sensor (Motion Sensor를 이용한 MBES 오측자료 제거 연구)

  • Kang, Moon-Kwon;Choi, Yun-Soo;Chang, Min-Chol;Yoon, Ha-Su
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.28 no.1
    • /
    • pp.39-46
    • /
    • 2010
  • Sounding data is the essential source for the safety of ships navigation system, and fundamental to the reasonable usage and maintenance of the ocean as well. As IT tech, positioning equipment such as GPS and INS, echo sounder are developed, recently, the precise submarine topography database bas been built by Multi-Beam Echo Sounder. However, MBES data includes some inevitable error caused by several factor, and some data have errors where the terrain is wobble. The error, which causes the $moir\acute{e}$ pattern error is the main factor hindering the accuracy of MBES data results, and therefore it is necessary to figure out the main cause of the error for the improvement of the accuracy by removing error data. On this research, the main cause of the error data is studied by analyzing motion sensor value of data including the $moir\acute{e}$ pattern error. Thus, as the result of examination, it turns out that the $moir\acute{e}$ pattern error is related to the standard deviation of Roll, and error data values are results of the non-correspondence between Swath data and Roll values caused by the drastic change of Roll values. Accordingly, the error data is removed by comparing between the gradient of Swath data and Roll values. Finally, as the result of removing error data, it is expected to be able to estimate the quality of MBES using the standard deviation of Motion sensor's Roll value, and calculate the additive error factor, which minimize non-corresponding data, and also this research must be contributed to improve the accuracy of sounding for small vessels with lots of motion in the bad circumstance for navigation.