• Title/Summary/Keyword: 오류 자료

Search Result 866, Processing Time 0.026 seconds

Analysis and Alternative of Classification Errors in Public Libraries (공공도서관 분류오류의 실증적 분석과 대안)

  • 윤희윤
    • Journal of Korean Library and Information Science Society
    • /
    • v.34 no.1
    • /
    • pp.43-65
    • /
    • 2003
  • Libraries have long experience of applying classification schemes to resources - chiefly books. The ultimate goals of classification are systematic shelving of books and ease of user's access. In order to achieve these goals, books about a particular field of knowledge should be shelved together and near each other. If not so, it is classification error. The focus of this study is, therefore, on analysing the classification error in Korea public libraries and suggesting some alternatives.

  • PDF

Merging of multiple resolution-based precipitation data using super resolution convolution neural network (Super Resolution Convolutional Neural Network(SRCNN)를 이용한 다중 해상도 기반의 강수 데이타 병합)

  • Gyu-Ho Noh;Kuk-Hyun Ahn
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.121-121
    • /
    • 2023
  • 다수의 서로 다른 해상도의 자료를 병합(Merge)하는 것은 강수 자료 사용에 중요한 절차 중 하나이다. 강수 자료는 다수의 소스(관측소, 레이더, 위성 등)에서 관측 자료를 제공한다. 연구자들은 각 원본 자료의 장점을 취하고 단점을 보완하기 위해 다중소스 기반의 재분석 강수 자료를 제작하여 사용하고 있다. 기존의 방법은 자료를 병합하기 위해 서로 다른 공간적 특성을 갖는 자료들을 공간적으로 동일한 위치로 보간(Interpolation) 하는 과정이 필요하다. 하지만 보간 절차는 원본자료에 인위적인 변형을 주기 때문에 많은 오차(Error)를 발생시키는 것으로 알려져 있다. 따라서 본 연구는 병합 과정에서 보간 절차를 제외하고 원본 해상도 자료를 그대로 입력하기 위해 머신 러닝 방법의 하나인 Super resolution convolutional neural network(SRCNN)에 기반한 병합 방법을 제안하고자 한다. 이 방법은 원본 자료의 영향을 모델이 직접 취사선택하여 최종 자료에 도달하기 때문에 병합 과정의 오류를 줄일 수 있을 것으로 기대된다.

  • PDF

Application of a method for estimating rainfall erosivity using scaling Model (강우자료의 시간해상도를 고려한 강우침식능 추정과 스케일링 적용)

  • Jung, Younghun;Lee, Joon-Hak;Kim, Sunghun;Heo, Jun-Haeng
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.412-412
    • /
    • 2021
  • 일반적으로 강우자료의 시간 해상도가 높을수록(측정 주기가 짧아질수록) 강우침식능 값이 크게 산정되는 경향이 있다(Yin et al. 2015). 또한, 강우자료의 시간해상도가 서로 다를 경우에 각각 산정된 강우침식능 값을 동일한 값으로 비교하기 위해서는 어떤 변환 과정을 거쳐야 하는지에 대한 해석기법이 정립되어야 한다. 강우자료의 시간 해상도가 다를 경우 결과 값이 달라진다는 것은 알고 있지만, 이 값을 동일하게 산정된 값으로 간주하고 비교하는 것은 실무적으로 큰 오류를 범할 수 있다. 본 연구는 이러한 문제에 대하여 통계적인 방법과 강우의 스케일링 성질을 이용하여 서로 다른 지속기간을 갖는 해상도를 강우자료로 산정된 강우침식능 값을 상호 비교하여 변환할 수 있는 인자를 가진 실험식을 제시하고자 한다. 지난 50여 년 동안 전 세계 많은 연구자들이 서로 다른 방법으로 다양한 강우침식능 값을 산정하고 제시하였으나, 국가별로 상이한 자료와 각기 다른 계산방법으로 산정한 값을 동일한 값으로 비교하는 것은 큰 오류가 있으며, 이러한 오류를 감소시키기 위해서는 강우침식인자 계산방법에 대한 적절한 기준을 통한 산정방법이 마련되어야 한다. 본 연구를 통해 강우자료의 다양한 시간해상도에 따른 강우침식능 추정기법이 정립되면, 국내외 학계 및 실무자들이 각기 다양한 시간해상도로 산출된 강우침식능을 비교 분석할 수 있는 밑바탕을 마련할 수 있을 것으로 판단된다.

  • PDF

Analysis of the Relations between Design Errors Detected during BIM-based Design Validation and their Impacts Using Logistic Regression (로지스틱 회귀분석을 이용한 BIM 설계 검토에 의하여 발견된 설계 오류와 그 영향도간의 관계 분석)

  • Won, Jong-Sung;Kim, Jae-Yeo
    • Journal of the Korea Institute of Building Construction
    • /
    • v.17 no.6
    • /
    • pp.535-544
    • /
    • 2017
  • This paper analyzes the relations between design errors, prevented by building information modeling (BIM)-based design validation, and their impacts in order to identify critical consideration factors for implementing BIM-based design validation in architecture, engineering, and construction (AEC) projects. More than 800 design errors detected by BIM-based design validation in two BIM-based projects in South Korea are categorized according to their causes (illogical error, discrepancy, and missing item) and work types (structure, architecture, and mechanical, electrical, and plumbing (MEP)). The probabilistic relations among the independent variables, including the causes and work types of design errors, and the dependent variables, including the project delays, cost overruns, low quality, and rework generation that can be caused by these errors, are analyzed using logistic regression. The characteristics of each design error are analyzed by means of face-to-face interviews with practitioners. According to the results, the impacts of design error causes in predicting the probability values of project delays, cost overruns, low quality, and rework generation were statistically meaningful.

Statistical Mistakes Commonly Made When Writing Medical Articles (의학 논문 작성 시 발생하는 흔한 통계적 오류)

  • Soyoung Jeon;Juyeon Yang;Hye Sun Lee
    • Journal of the Korean Society of Radiology
    • /
    • v.84 no.4
    • /
    • pp.866-878
    • /
    • 2023
  • Statistical analysis is an essential component of the medical writing process for research-related articles. Although the importance of statistical testing is emphasized, statistical mistakes continue to appear in journal articles. Major statistical mistakes can occur in any of the three different stages of medical writing, including in the design stage, analysis stage, and interpretation stage. In the design stage, mistakes occur if there is a lack of specificity regarding the research hypothesis or data collection and analysis plans. Discrepancies in the analysis stage occur if the purpose of the study and characteristics of the data are not sufficiently considered, or when an inappropriate analytic procedure is followed. After performing the analysis, the results are interpreted, and an article is written. Statistical analysis mistakes can occur if the underlying methods are incorrectly written or if the results are misinterpreted. In this paper, we describe the statistical mistakes that commonly occur in medical research-related articles and provide advice with the aim to help readers reduce, resolve, and avoid these mistakes in the future.

A Case Study of the Error of Paleontology Exhibition Datas in the Natural History Museums of Korea (한국 자연사박물관 내 고생물학 전시자료들의 오류발생에 관한 사례연구)

  • Ko, Ju Yeong
    • Journal of the Korean earth science society
    • /
    • v.36 no.3
    • /
    • pp.236-245
    • /
    • 2015
  • This study investigated the errors in presenting paleontology exhibition data in 9 natural history museums for 2 years and two months from 15, Aug. 2013 to 25, March 2015. It was found that seven natural history museums presented 28 difference cases of data in error. The purpose of this study was to investigate why the errors occurred and how to prevent the errors from occurring and finally how to correct the errors earlier. For this purpose, this study review related literatures using conference proceedings, books, conducted a survey via natural history museums. Results suggested five ways to correct errors in the future. First, it is suggested that the authorities of the museum increase the number of curators and have specialists participate in excavation and maintenance, research, preparation of the exhibition data through a collaboration with universities and research institutes. Second, it is also suggested that the authorities establish the classification system to use in the exhibition process and secure a job for their maintenance specialists. Third, the authorities of museum should put an examination process in place as a system by inviting the external experts into the exhibition process and also establish a process of collecting errors identified by any museum visitors. Fourth, the authorities of museum should make an efforts to increase the participating rate of correcting errors through SNS, Docent, and educational programs among the community members and students. Fifth, they also should use mass media to show and present the research-proven figures of paleontological fossils, which hopefully helps resolve issues of the prior unchanging cultural inertia.

Acquisition of River Velocity Data Using Acoustic Doppler Current Profiler (ADCP를 이용한 하천 유속 자료의 추출)

  • Lee, Chan Joo;Lee, Du Han;Kim, Myoung Hwan
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2004.05b
    • /
    • pp.365-370
    • /
    • 2004
  • 본 연구에서는 ADCP를 이용하여 수집된 3차원적 하천 유속 자료를 기기 특성상 오류, 운용상 오류 등을 고려하여 검토하였으며, 원시 자료의 편차를 보정하는 공간평균기법을 적용하여 필터링함으로써 유속 자료를 추출하였다 공간평균기법으로 추출된 자료는 원시 자료에 비해 유속 편차가 감소되어 매끄러운 유속 분포를 보여주었을 뿐만 아니라 원시 자료에 의한 유량 계산 결과와 거의 일치하여 유속 분포를 적절하게 필터링하는 것으로 파악되었다. 또한 공간평균된 유속 자료를 이용하여 하천의 흐름장을 일목요언하게 제시할 수 있는 평면적 유속 벡터와 단면상 유속 벡터를 제시하였다. 차후 다른 유속계를 이용한 결과와 적절히 비교된다면 공간평균된 자료는 원시 자료에 비해 보다 유용할 것으로 예상되며 하천 흐름 해석 및 수치 모의에 기초 자료로 이용될 수 있을 것으로 기대된다.

  • PDF

Corrections for Sampling biases of borehole data to characterize deep fractured rock mass (심층 절리암반의 구조특성 규명을 위한 시추공 자료편향 보정법)

  • 엄정기
    • Proceedings of the KSEG Conference
    • /
    • 2003.04a
    • /
    • pp.27-35
    • /
    • 2003
  • 시추공에서 측정된 절리자료의 샘플링 편향오류를 보정하는 절차를 기술하였다. 시추공에서 절리의 방향이 관측될 수 있는 확률은 시추공에 대한 절리의 상대적인 방향 이외에도 절리의 크기, 절리의 모양 및 시추공의 반경 과 길이와 같은 요인에 의하여 결정될 수 있으며, 이러한 요인들에 의하여 나타날 수 있는 절리자료의 방향편향을 보정할 수 있는 방법론을 제시하였다 유한 길이의 시추공으로부터 산정된 절리의 간격분포는 샘플링 영역인 시추공 길이의 영향에 의한 산정치의 오류를 내포하고 있으며, 이에 대한 보정법을 고찰하였다.

  • PDF

An Implementation of Integrated System for Topographic and Cadastral Data (지형 및 지적자료의 통합체계 구축)

  • 유복모;김갑진
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.18 no.2
    • /
    • pp.143-155
    • /
    • 2000
  • With the increasing needs for the integrated use of topographic and cadastral data in order to build an efficient geo-spatial information system. it is urgently necessary to research into its solution. The intention of this study is to detect error types of data and to propose adjustment methods for solving the problems caused by integrating topographic and cadastral data. For this purpose a primary integrated data model is created to link attribute data(land management system) and graphic data within cadastral information in the first step. In next, a secondary integrated data model based on the improved method is formed to coincide the graphic data of cadastral map with that of topographic map. At the first, because a numerous error types md sources caused by separate management of graphic and attribute data are easily checked, it is possible to suggest an improved method to correct these errors using the primary integrated data model. In addition, the accuracy in position and area with coordinate transformation method based on multi-block adjustment is more efficient than rubber-sheeting method. As a result, the secondary integrated data model could be built by harmonizing cadastral map with topographic map using the improved solution.

  • PDF

Status and Quality Analysis on the Biodiversity Data of East Asian Vascular Plants Mobilized through the Global Biodiversity Information Facility (GBIF) (세계생물다양성정보기구(GBIF)에 출판된 동아시아 관속식물 생물다양성 정보 현황과 자료품질 분석)

  • Chang, Chin-Sung;Kwon, Shin-Young;Kim, Hui
    • Journal of Korean Society of Forest Science
    • /
    • v.110 no.2
    • /
    • pp.179-188
    • /
    • 2021
  • Biodiversity informatics applies information technology methods in organizing, accessing, visualizing, and analyzing primary biodiversity data and quantitative data management through the scientific names of accepted names and synonyms. We reviewed the GBIF data published by China, Japan, Taiwan, and internal institutes, such as NIBR, NIE, and KNA of the Republic of Korea, and assessed data in diverse aspects of data quality using BRAHMS software. Most data from four Asian countries have quality problems with the lack of data consistency and missing information on georeferenced data, collectors, collection date, and place names (gazetteers) or other invalid data forms. The major problem is that biodiversity management institutions in East Asia are using unstructured databases and simple spreadsheet-type data. Owing to the nature of the biodiversity information, if data relationships are not structured, it would be impossible to secure the data integrity of scientific names, human names, geographical names, literature, and ecological information. For data quality, it is essential to build data integrity for database management and training systems for taxonomists who are continuous data managers to correct errors. Thus, publishers in East Asia play an essential role not only in using specialized software to manage biodiversity data but also in developing structured databases and ensuring their integration and value within biodiversity publishing platforms.