• Title/Summary/Keyword: 자료 입력 오류

Search Result 104, Processing Time 0.023 seconds

A Study of Error Analysis for Post Evaluation System on the Construction Projects (건설공사 사후평가시스템 입력오류 분석에 관한 연구)

  • Kim, Kyong-Hoon;Lee, Du-Heon;Kim, Tae-Yeong
    • Korean Journal of Construction Engineering and Management
    • /
    • v.16 no.2
    • /
    • pp.77-85
    • /
    • 2015
  • The data are often missed and many errors of the data are generated in the input process for the post evaluation system on the construction projects, and the reliability of the data falls down much. Accordingly, the detailed analysis about missing and error of data was conducted to ensure reliability of the analysis results about post evaluation on the construction projects. As results in this study, a lot of input data were missed at the initial construction phase, and the data errors were found in the inaccuracy of reference reports, the lack of understanding about input data, and the failure of KRW unit.

Classification of Statistical Error Types Through Analysis of Wind and Flood Damage History Data (풍수해 피해이력 자료 분석을 통한 통계적 오류유형 분류)

  • Kim, Ku-Yoon;Lee, Mi-Ran;Lee, Jun-Woo
    • Proceedings of the Korean Society of Disaster Information Conference
    • /
    • 2022.10a
    • /
    • pp.135-136
    • /
    • 2022
  • 최근 기후변화의 영향으로 태풍 및 국지성 집중호우 등 자연재해 발생빈도가 증가함에 따라 풍수해로 인한 인명피해와 재산피해가 증가하고 있다. 국내에서는 재해연보를 통해 자연재난 피해이력 통계정보를 제공하고 있으며, 당해연도 자연재해상황을 기간별, 시도별, 수계별, 월별, 원인별 총괄통계와 인명피해, 시설피해와 관련된 피해면적, 피해액, 복구액 등 세부내용으로 구성하여 정보를 제공하고 있다. 행정안전부는 국가재난정보시스템을 통해 취합된 지자체 피해이력 통계자료를 입력하고 있는데 입력하는 과정에서 누락, 오기 등의 오류가 발생할 가능성이 있다. 경제적 손실이 증가하고 있는 풍수해 재난이 발생하게 될 경우 피해비용 집계, 피해액 산정 등 정확한 자료로서 구축되지 않으면 연구 및 분석을 수행하기 위한 통계자료로서 활용될 수 없다. 이러한 문제점을 개선하기 위해서 본 연구에서는 1985년부터 2018년까지 재해연보에 대해서 기간별-시군구별 자료분석을 통해 피해이력 데이터 오류 유형에 대해 분류하였다.

  • PDF

A Development of University Applications Entering System (대학 지원자 입력 시스템 개발)

  • 서대환;채희중;이호석
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10b
    • /
    • pp.321-323
    • /
    • 1998
  • 현재 호서대하교 대학지원자는 지원원서를 OMR카드를 통하여 입력하고 있다. 이러한 방법이 보편적이기는 하지만 작성과정에서 실수로 인하여 잘못된 자료를 입력할 수 있다. 이러한 자료는 그대로 데이터 베이스에 저장되고, 결과적으로 대학지원자 관리에 치명적인 문제가 될 수 있다. 대학지원자 입력 시스템은 단말기를 통해서 지원원서를 작성할 수 있으며 잘못된 자료에 대해서는 입력이 거부됨으로써 데이터에 대한 무결성을 유지할 수 있다. 추가적인 기능으로 기존의 OMR카드를 통해 입력된 자료들에 대해서 오류를 검출하고 그에 대해서 손쉽게 수정을 할 수 있기 때문에 기존 OMR카드 사용으로 인하여 발생되었던 문제점을 보안 할 수 있다.

Optimal Database Audit Timing for Data Quality Enhancement (자료의 질 향상을 위한 데이타베이스의 최적감사시점)

  • 김기수
    • The Journal of Information Technology and Database
    • /
    • v.3 no.1
    • /
    • pp.25-43
    • /
    • 1996
  • 정보시스템이 효과적이기 위해서는 정보가 도출되는 자료의 무결성이 우선 전제되어야 한다. 특히 오늘날과 같이 사회가 다양한 활동들을 지원하기 위해 컴퓨터를 이용한 정보시스템에 점점 더 의존해감에 따라 정보시스템에서 사용되는 자료의 질을 적절한 수준으로 유지 및 관리해야 할 필요성이 더욱 절실히 대두되게 되었다. 그럼에도 불구하고 여전히 관리자들은 효과적인 의사결정 및 활동을 위해 필요한 최신의 정확한 자료들을 제공 받지 못하고 있으며 [Nesbit 1985], 정보시스템이 기대 이하의 성능을 나타내는 가장 단순하고 일반적인 원인은 정보시스템에 입력된 자료가 부정확하거나 불완전하기 때문인 것으로 나타나고 있다 [Ballou and Pazer 1989]. 낮은 질의 자료는 즉각적인 경제적 손실뿐만 아니라 보다 많은 간접적이고 경제적으로 측정하기 어려운 손실들을 초래한다. 그리고 아무리 잘 관리되는 시스템에도 시간이 흐름에 따라 여러가지 원인에 의해 저장된 자료에 오류가 발생하게 된다. 자료의 질을 적절한 수준으로 유지하기 위해서는 이와 같은 오류는 주기적으로 발견 및 수정되어야 한다. 이와 같은 작업을 데이타베이스 감사라고 한다. 본 논문에서는 데이타베이스에 저장된 자료의 질을 주기적으로 향상시키기 위한 최적 데이타베이스 감사시점을 일반적인 비용모형을 통해 결정하는 과정을 제시하고, 그와 관련된 사항들에 대해 논의하였다. 데이타베이스는 오류 발생률도 다르고 오류의 결과도 상당히 다른 여러개의 자료군들로 구성되어 있다고 가정하였다. 그리고 각 자료군에서의 오류 누적과정은 확정적이 아닌 확률적인 과정으로 모형화하고, 단순한 오류의 발생뿐만 아니라 오류의 크기도 확률적으로 변하는 상황을 모형에 반영하여 보다 현실성있게 모형화하였다.

  • PDF

A Correcting method of Speller for Hangul (한글 철자 오류 교정 시스템)

  • Chae, Young-Soog;Lee, Young-Sik;Kwon, Hyuk-Chul
    • Annual Conference on Human and Language Technology
    • /
    • 1992.10a
    • /
    • pp.459-468
    • /
    • 1992
  • 문서 속에서 나타나는 철자 오류는 맞춤법을 몰라서 잘못 쓴 경우와 자료 입력 과정에서 잘못 입력된 경우로 볼 수 있다. 이들 각각의 오류들에 대해 맞춤법 및 표준어 규칙을 비롯하여 한국어 자료의 통계적 분석을 통한 교정 기법을 제공하고자 한다. 본 논문은 철자 검사기가 틀리다고 판단한 오류 어절로부터 올바른 어절을 찾아서 교정해 주고 철자가 틀린 원인을 알려줄 수 있는 도움말 기능을 제공하는 철자 교정 시스템을 구현하고자 한다.

  • PDF

Design and Implementation of Optimal Bibliographic DB by SISAC Barcode (SISAC 바코드를 이용한 최적의 서지DB제작시스템 설계 및 구현)

  • Noh, Kyung-Ran;Kwon, Oh-Jin;Yae, Yong-Hee;Shin, Young-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11c
    • /
    • pp.2293-2296
    • /
    • 2002
  • 과거 서지DB 제작시스템은 자료의 수집부터 DB제작에 이르기까지 자료입수지연 및 서지데이터입력오류, 중복레코드생성, 권호정보의 부정확한 기입, 철자오류와 관련된 많은 문제들을 내포하고 있었다. 본 연구는 이와같은 문제들을 최소화하기 위해 SISAC기반 서지DB 제작시스템을 설계 구현하였다. 이 시스템은 기존 가용자원을 최대한 활용하기 위해 SISAC 바코드를 스캐닝하여 자료의 입수처리를 신속하게 하고, 서지데이터를 입력할 때 기존에 구축된 데이터를 공유함으로써 데이터 중복입력으로 인한 시간소모적인 작업을 줄인다. 그리고 개방형 환경에서 양질의 능력을 지닌 DB제작 전문가를 선정하는데 투명성을 제공하고, 이들 DB제작전문가를 활용함으로써 데이터의 품질향상에 기여한다.

  • PDF

A distance metric of nominal attribute based on conditional probability (조건부 확률에 기반한 범주형 자료의 거리 측정)

  • 이재호;우종하;오경환
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2003.09b
    • /
    • pp.53-56
    • /
    • 2003
  • 유사도 혹은 자료간의 거리 개념은 많은 기계학습 알고리즘에서 사용되고 있는 중요한 측정개념이다 하지만 입력되는 자료의 속성들중 순서가 정의되지 않은 범주형 속성이 포함되어 있는 경우, 자료간의 유사도나 거리 측정에 어려움이 따른다. 비거리 기반의 알고리즘들의 경우-C4.5, CART-거리의 측정없이 작동할 수 있지만, 거리기반의 알고리즘들의 경우 범주형 속성의 거리 정보 결여로 효과적으로 적용될 수 없는 문제점을 갖고 있다. 본 논문에서는 이러한 범주형 자료들간 거리 측정을 자료 집합의 특성을 충분히 고려한 방법을 제안한다. 이를 위해 자료 집합의 선험적인 정보를 필요로 한다. 이런 선험적 정보인 조건부 확률을 기반으로한 거리 측정방법을 제시하고 오류 피드백을 통해서 속성 간 거리 측정을 최적화 하려고 노력한다. 주어진 자료 집합에 대해 서로 다른 두 범주형 값이 목적 속성에 대해서 유사한 분포를 보인다면 이들 값들은 비교적 가까운 거리로 결정한다 이렇게 결정된 거리를 기반으로 학습 단계를 진행하며 이때 발생한 오류들에 대해 피드백 작업을 진행한다. UCI Machine Learning Repository의 자료들을 이용한 실험 결과를 통해 제안한 거리 측정 방법의 우수한 성능을 확인하였다.

  • PDF

Merging of multiple resolution-based precipitation data using super resolution convolution neural network (Super Resolution Convolutional Neural Network(SRCNN)를 이용한 다중 해상도 기반의 강수 데이타 병합)

  • Gyu-Ho Noh;Kuk-Hyun Ahn
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.121-121
    • /
    • 2023
  • 다수의 서로 다른 해상도의 자료를 병합(Merge)하는 것은 강수 자료 사용에 중요한 절차 중 하나이다. 강수 자료는 다수의 소스(관측소, 레이더, 위성 등)에서 관측 자료를 제공한다. 연구자들은 각 원본 자료의 장점을 취하고 단점을 보완하기 위해 다중소스 기반의 재분석 강수 자료를 제작하여 사용하고 있다. 기존의 방법은 자료를 병합하기 위해 서로 다른 공간적 특성을 갖는 자료들을 공간적으로 동일한 위치로 보간(Interpolation) 하는 과정이 필요하다. 하지만 보간 절차는 원본자료에 인위적인 변형을 주기 때문에 많은 오차(Error)를 발생시키는 것으로 알려져 있다. 따라서 본 연구는 병합 과정에서 보간 절차를 제외하고 원본 해상도 자료를 그대로 입력하기 위해 머신 러닝 방법의 하나인 Super resolution convolutional neural network(SRCNN)에 기반한 병합 방법을 제안하고자 한다. 이 방법은 원본 자료의 영향을 모델이 직접 취사선택하여 최종 자료에 도달하기 때문에 병합 과정의 오류를 줄일 수 있을 것으로 기대된다.

  • PDF

A Cosideration on Physical Aspects in Teleradiotherapy Chart QA (원격방사선치료 기록부의 QA 에서 물리적 측면의 고찰)

  • 강위생;허순녕
    • Progress in Medical Physics
    • /
    • v.10 no.2
    • /
    • pp.95-101
    • /
    • 1999
  • The aims of this report are to classify the incorrect data of patients and the errors of dose and dose distribution observed in QA activities on teleradiotherapy chart, and to analyze their frequency. In our department, radiation physicists check several sheets of patient chart to reduce numeric errors before starting radiation therapy and at least once a week, which include history, port diagram, MU calculation or treatment planning summary and daily treatment sheet. The observed errors are classified as followings. 1) Identity of patient, 2) Omitted or unrecorded history sheet even though not including the item related to dose, 3) Omission of port diagram, or omitted or erroneous data, 4) Erroneous calculation of MU and point dose, and important causes, 5) Loss of summary sheet of treatment planning, and erroneous data of patient in the sheet, 6) Erroneous record of radiation therapy, and errors of daily dose, port setup, MU and accumulated dose in the daily treatment sheet, 7) Errors leading inexact dose or dose distribution, errors not administerd even though its possibility, and simply recorded errors, 8) Omission of sign. Number of errors was counted rather than the number of patients. In radiotherapy chart QA from Jun 17, 1996 to Jul 31, 1999, no error of patient identity had been observed. 431 Errors in 399 patient charts had been observed and there were 405 physical errors, 9 cases of omitted or unrecorded history sheet, and 17 unsigned. There were 23 cases (5.7%) of omitted port diagram, 21 cases (5.2%) of omitted data and 73 cases (18.0 %) of erroneous data in port diagram, 13 cases (3.2 %) treated without MU calculation, 68 cases (16.3 %) of erroneous MU, 8 cases (2.0%) of erroneous point dose, 1 case (0.2 %) of omitted treatment planning summary, 11 cases (2.7%) of erroneous input of patient data, 13 cases (3.2%) of uncorrected record of treatment, 20 cases (4.9%) of discordant daily doses in MU calculation sheet and daily treatment sheet, 33 cases (8.1%) of erroneous setup, 52 cases (12.8%) of MU setting error, 61 cases (15.1%) of erroneous accumulated dose. Cases of error leading inexact dose or dose distribution were 239 (59.0 %), cases of error not administered even though its possibility were 142 (35.1 %), and cases of simply recorded error were 24 (5.9 %). The numeric errors observed in radiotherapy chart ranged over various items. Because errors observed can actually contribute to erroneous dose or dose distribution, or have the possibility to lead such errors, thorough QA activity in physical aspects of radiotherapy charts is required.

  • PDF

The Parallax Correction to Improve Cloud Location Error of Geostationary Meteorological Satellite Data (정지궤도 기상위성자료의 구름위치오류 개선을 위한 시차보정)

  • Lee, Won-Seok;Kim, Young-Seup;Kim, Do-Hyeong;Chung, Chu-Yong
    • Korean Journal of Remote Sensing
    • /
    • v.27 no.2
    • /
    • pp.99-105
    • /
    • 2011
  • This research presents the correction method to correct the location error of cloud caused by parallax error, and how the method can reduce the position error. The procedure has two steps: first step is to retrieve the corrected satellite zenith angle from the original satellite zenith angle. Second step is to adjust the location of the cloud with azimuth angle and the corrected satellite zenith angle retrieved from the first step. The position error due to parallax error can be as large as 60km in case of 70 degree of satellite zenith angle and 15 km of cloud height. The validation results by MODIS(Moderate-Resolution Imaging Spectrometer) show that the correction method in this study properly adjusts the original cloud position error and can increase the utilization of geostationary satellite data.