• 제목/요약/키워드: Standard Dataset

검색결과 187건 처리시간 0.025초

기계학습 분석을 위한 차원 확장과 차원 축소가 적용된 지진 카탈로그 (Application of Dimensional Expansion and Reduction to Earthquake Catalog for Machine Learning Analysis)

  • 장진수;소병달
    • 지질공학
    • /
    • 제32권3호
    • /
    • pp.377-388
    • /
    • 2022
  • 최근, 다수의 연구가 지수적으로 증가하는 지진 자료를 효율적이고 정확하게 처리하기 위해 기계학습을 활용하고 있다. 본 연구는 지진의 발생 시간, 위치, 규모의 정보를 확장하여 기계학습에 적용 가능한 자료를 제작한 후, 주성분 분석을 통해 추출한 자료의 주요 성분으로 자료의 차원을 축소하였다. 차원이 확장된 자료는 36,699개의 지진 사건을 포함하는 Global Centroid Moment Tensor 카탈로그로부터 얻은 지진 정보의 통계량으로 구성되었다. 표준화와 최대-최소화 스케일링을 활용하여 자료 전처리를 수행하였으며, 스케일링이 완료된 자료에 주성분 분석을 적용하여 자료의 주요 특징을 추출하였다. 스케일링은 상이한 단위로 인한 특징 값의 차이를 현저히 감소시켰으며, 그 중 표준화는 다른 전처리에 비해서 각 특징의 중앙값을 더 균등하게 변환하였다. 주성분 분석이 스케일링이 적용되지 않은 자료로부터 추출한 여섯 개의 주성분은 원본 자료의 정보를 99% 설명하였다. 표준화와 최대-최소 스케일링이 적용된 자료로부터 추출한 열여섯 개의 주성분은 원본 자료의 정보의 98%를 재구성하였다. 이는 특징 값의 분포가 균등한 자료의 정보를 보존하기 위해서는 더 많은 주성분이 필요함을 지시한다. 본 연구는 지진 데이터와 지진 거동과의 관계를 분석하는 효율적이고 정확한 기계 학습 모형을 훈련시키기 위한 데이터 처리 방법을 제안하였다.

DDI 메타데이터를 활용한 METS 설계에 관한 연구 (A Study on METS Design Using DDI Metadata)

  • 박진호
    • 정보관리학회지
    • /
    • 제38권4호
    • /
    • pp.153-171
    • /
    • 2021
  • 이 연구는 데이터세트를 관리, 보존, 서비스하기 위해 DDI 메타데이터를 기반으로 METS를 활용하는 방안을 제시하였다. DDI는 통계 데이터 처리를 위한 표준으로 현재 DDI Codebook(DDI-C)과 DDI Lifecycle(DDI-L) 두 가지 버전이 존재한다. 본 연구에서는 DDI-C의 주요 요소를 주로 하였다. 이를 위해 우선 METS와 DDI-C의 구조와 요소를 분석하였다. 그리고 METS와 DDI-C의 주요 요소들에 대한 매핑작업을 수행하였다. 여기서 기준은 최종적으로 이를 표현할 형식인 METS로 삼았다. METS와 DDI-C가 완벽하게 1:1의 매핑을 보이지 않기 때문에 기준인 METS의 각 요소들에 가장 적합하게 부합하는 DDI-C 요소를 선택하였다. 그 결과 DDI-C 메타데이터요소를 활용한 새로운 데이터세트 관리전송 표준 METS를 설계하여 제시하였다.

협업필터링에서 고객의 평가치를 이용한 선호도 예측의 사전평가에 관한 연구 (Pre-Evaluation for Prediction Accuracy by Using the Customer's Ratings in Collaborative Filtering)

  • 이석준;김선옥
    • Asia pacific journal of information systems
    • /
    • 제17권4호
    • /
    • pp.187-206
    • /
    • 2007
  • The development of computer and information technology has been combined with the information superhighway internet infrastructure, so information widely spreads not only in special fields but also in the daily lives of people. Information ubiquity influences the traditional way of transaction, and leads a new E-commerce which distinguishes from the existing E-commerce. Not only goods as physical but also service as non-physical come into E-commerce. As the scale of E-Commerce is being enlarged as well. It keeps people from finding information they want. Recommender systems are now becoming the main tools for E-Commerce to mitigate the information overload. Recommender systems can be defined as systems for suggesting some Items(goods or service) considering customers' interests or tastes. They are being used by E-commerce web sites to suggest products to their customers who want to find something for them and to provide them with information to help them decide which to purchase. There are several approaches of recommending goods to customer in recommender system but in this study, the main subject is focused on collaborative filtering technique. This study presents a possibility of pre-evaluation for the prediction performance of customer's preference in collaborative filtering before the process of customer's preference prediction. Pre-evaluation for the prediction performance of each customer having low performance is classified by using the statistical features of ratings rated by each customer is conducted before the prediction process. In this study, MovieLens 100K dataset is used to analyze the accuracy of classification. The classification criteria are set by using the training sets divided 80% from the 100K dataset. In the process of classification, the customers are divided into two groups, classified group and non classified group. To compare the prediction performance of classified group and non classified group, the prediction process runs the 20% test set through the Neighborhood Based Collaborative Filtering Algorithm and Correspondence Mean Algorithm. The prediction errors from those prediction algorithm are allocated to each customer and compared with each user's error. Research hypothesis : Two research hypotheses are formulated in this study to test the accuracy of the classification criterion as follows. Hypothesis 1: The estimation accuracy of groups classified according to the standard deviation of each user's ratings has significant difference. To test the Hypothesis 1, the standard deviation is calculated for each user in training set which is divided 80% from MovieLens 100K dataset. Four groups are classified according to the quartile of the each user's standard deviations. It is compared to test the estimation errors of each group which results from test set are significantly different. Hypothesis 2: The estimation accuracy of groups that are classified according to the distribution of each user's ratings have significant differences. To test the Hypothesis 2, the distributions of each user's ratings are compared with the distribution of ratings of all customers in training set which is divided 80% from MovieLens 100K dataset. It assumes that the customers whose ratings' distribution are different from that of all customers would have low performance, so six types of different distributions are set to be compared. The test groups are classified into fit group or non-fit group according to the each type of different distribution assumed. The degrees in accordance with each type of distribution and each customer's distributions are tested by the test of ${\chi}^2$ goodness-of-fit and classified two groups for testing the difference of the mean of errors. Also, the degree of goodness-of-fit with the distribution of each user's ratings and the average distribution of the ratings in the training set are closely related to the prediction errors from those prediction algorithms. Through this study, the customers who have lower performance of prediction than the rest in the system are classified by those two criteria, which are set by statistical features of customers ratings in the training set, before the prediction process.

3차원 CAD 데이터의 제품구조를 포함하는 X3D 기반 데이터로의 변환 기법 (Translation of 3D CAD Data to X3D Dataset Maintaining the Product Structure)

  • 조귀목;황진상;김영국
    • 정보처리학회논문지A
    • /
    • 제18A권3호
    • /
    • pp.81-92
    • /
    • 2011
  • 제품수명주기(Product life cycle) 중 설계단계에서 생성되는 3차원 CAD 데이터를 다양한 단계에서 활용하고자하는 노력이 관련 산업 분야에서 이루어져 왔다. 그러나 3차원 CAD 데이터는 데이터 처리를 위한 많은 컴퓨팅 자원을 요구하고 설계지식이 유출될 수 있는 위험이 있으며, 라이선스 비용이 따르기 때문에 원격지 협업 검토나 마케팅, 전자 기술 매뉴얼과 같은 서비스단계에서 활용하기에 적합하지 않다. 이러한 문제점들을 해결하기 위해 경량화된 가시화 파일형식과 이를 적용한 응용시스템에 대한 다양한 연구가 수행되었으나, 제안된 경량화 파일형식들은 대부분 기업 혹은 기관의 독자적인 형식으로 서로 간에 공유될 수 없으며, 제품의 형상 정보와 함께 제품구조 정보를 표현하는데 한계점을 보이고 있다. 본 연구에서는 이를 해결하기 위하여 웹 기반 3차원 그래픽 표준인 X3D를 활용하여 제품의 형상 정보뿐만 아니라 구조 정보의 표현이 가능한 X3D 기반 데이터 집합인 prod-X3D(Enhanced X3D Dataset for Web-based Visualization of 3D CAD Product Model)를 정의하고, 3차원 CAD 데이터로부터의 변환 기법을 제안한다.

데이터세트 기록관리를 위한 생산시스템 기록관리 모듈의 DB 설계 모형연구 (A Study on Database Design Model for Production System Record Management Module in DataSet Record Management)

  • 김동수;임진희;강성희
    • 기록학연구
    • /
    • 제78호
    • /
    • pp.153-195
    • /
    • 2023
  • RDBMS는 전 세계적으로 많이 사용하는 데이터베이스 시스템으로, 행정정보 데이터세트(이하 데이터세트)는 RDBMS를 이용하여 행정정보시스템에서 생산되는 방대한 규모의 데이터를 의미한다. 행정적인 문서 위주로 생산되는 업무시스템과는 달리 행정정보시스템은 기관의 고유한 업무 중심으로 기록들이 생산되고 있다. 이러한 기록들은 기존의 결재문서류와 메타데이터 등이 달라 표준기록관리시스템으로 이관이 쉽지 않다. 2022년 「공공기록물법 시행령」 개정으로 기록물의 관리권한만 이전하는 유형에 데이터세트가 포함되었고, 개정의 핵심 내용은 행정정보시스템에서 기록의 생애주기를 관리해야 하는 것으로 볼 수 있다. 그러나 현재까지는 행정정보시스템에서 데이터세트를 어떻게 관리해야 하는지 모색된 바는 없었다. 이에 본 연구에서는 기록의 생애주기를 관리하기 위해 행정정보시스템에 탑재해야 하는 기록관리 모듈의 DB를 설계하고자 한다. ISO 16175-1:2020의 예시를 수정·보완하여 "인사관리시스템"을 설계하고, 인사관리 데이터세트를 식별 및 평가함으로써 행정정보시스템에서의 기록관리를 위한 구체적인 실행 예시를 보여주고자 한다. 본 연구에서 설계한 프로토타입 시스템이 실제 기관에서 사용하고 있는 시스템에 비해 데이터의 양이 적고, 기록관리 모듈의 DB가 헹정정보시스템에 적용 가능한지 현업에 계신 기록연구사분들과 IT 개발자들에게 검증을 받지 못한 한계점은 있다. 그러나, 예시를 통해서 데이터세트가 무엇인지 실체를 파악할 수 있었고, 행정정보시스템에서 데이터세트를 어떻게 관리해야 하는지 알 수 있었다. 그리고 행정정보시스템에서 기록관리 모듈의 필요성을 확인할 수 있었다. 향후 완전한 기록관리 모듈이 완성되고 국가기록원에서 기록관리 모듈에 대한 표준이 만들어진다면, 관련 기관에서 데이터세트를 관리하는데 필요한 모듈이 될 수 있을 것이라 기대한다.

유럽공동체 배출권거래제 도입 효과에 대한 실증분석 (Empirical Analysis of the Effect of EU ETS on the CO2 Emission)

  • 김현;이광훈
    • 자원ㆍ환경경제연구
    • /
    • 제19권4호
    • /
    • pp.875-896
    • /
    • 2010
  • 본 논문은 DID(Difference in Differences) 추정모형을 이용하여 유럽공동체 25개 회원국에 대해 2005년~2007년간 1단계 시행이 완료된 바 있는 배출권거래제도가 참여 국가들의 이산화탄소 배출량을 감소시키는 효과가 있었는지를 분석하였다. 이를 위해 이러한 배출권거래제 1단계 시행이 적용되지 않았던 17개국을 포함한 유럽 대륙 42개국에 대한 1990년~2007년까지의 패널자료를 구축하였다. 추정결과를 도출함에 있어서 계열 상관이 존재하는 경우 DID 추정에서 발생할 수 있는 통상적 표준오차의 편차 문제를 고려하여 두 가지의 강건한 표준오차 값들을 추가적으로 계산하여 제시하였다. 그 결과 배출권거래제의 시행이 이산화탄소 배출량을 감소시키는 효과가 표준오차의 계산방법에 무관하게 상당히 일관되고 강건하게 나타나는 것으로 분석되었다. 아울러 잠재에너지세율의 증가 역시 일관되게 일인당 이산화탄소 배출량을 감소시키는 효과가 있는 것으로 나타났다. 반면에 일인당 GDP나 인구밀도 등이 일인당 이산화탄소 배출량에 미치는 영향은 표준오차의 계산방법에 따라 일관되지 못한 결과를 나타내었다. 특히 환경쿠즈네츠가설은 강건한 표준오차를 사용하는 경우 통계적으로 뒷받침되지 못하였다.

  • PDF

Clinical Validation of a Deep Learning-Based Hybrid (Greulich-Pyle and Modified Tanner-Whitehouse) Method for Bone Age Assessment

  • Kyu-Chong Lee;Kee-Hyoung Lee;Chang Ho Kang;Kyung-Sik Ahn;Lindsey Yoojin Chung;Jae-Joon Lee;Suk Joo Hong;Baek Hyun Kim;Euddeum Shim
    • Korean Journal of Radiology
    • /
    • 제22권12호
    • /
    • pp.2017-2025
    • /
    • 2021
  • Objective: To evaluate the accuracy and clinical efficacy of a hybrid Greulich-Pyle (GP) and modified Tanner-Whitehouse (TW) artificial intelligence (AI) model for bone age assessment. Materials and Methods: A deep learning-based model was trained on an open dataset of multiple ethnicities. A total of 102 hand radiographs (51 male and 51 female; mean age ± standard deviation = 10.95 ± 2.37 years) from a single institution were selected for external validation. Three human experts performed bone age assessments based on the GP atlas to develop a reference standard. Two study radiologists performed bone age assessments with and without AI model assistance in two separate sessions, for which the reading time was recorded. The performance of the AI software was assessed by comparing the mean absolute difference between the AI-calculated bone age and the reference standard. The reading time was compared between reading with and without AI using a paired t test. Furthermore, the reliability between the two study radiologists' bone age assessments was assessed using intraclass correlation coefficients (ICCs), and the results were compared between reading with and without AI. Results: The bone ages assessed by the experts and the AI model were not significantly different (11.39 ± 2.74 years and 11.35 ± 2.76 years, respectively, p = 0.31). The mean absolute difference was 0.39 years (95% confidence interval, 0.33-0.45 years) between the automated AI assessment and the reference standard. The mean reading time of the two study radiologists was reduced from 54.29 to 35.37 seconds with AI model assistance (p < 0.001). The ICC of the two study radiologists slightly increased with AI model assistance (from 0.945 to 0.990). Conclusion: The proposed AI model was accurate for assessing bone age. Furthermore, this model appeared to enhance the clinical efficacy by reducing the reading time and improving the inter-observer reliability.

Artificial Intelligence-based Echocardiogram Video Classification by Aggregating Dynamic Information

  • Ye, Zi;Kumar, Yogan J.;Sing, Goh O.;Song, Fengyan;Ni, Xianda;Wang, Jin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권2호
    • /
    • pp.500-521
    • /
    • 2021
  • Echocardiography, an ultrasound scan of the heart, is regarded as the primary physiological test for heart disease diagnoses. How an echocardiogram is interpreted also relies intensively on the determination of the view. Some of such views are identified as standard views because of the presentation and ease of the evaluations of the major cardiac structures of them. However, finding valid cardiac views has traditionally been time-consuming, and a laborious process because medical imaging is interpreted manually by the specialist. Therefore, this study aims to speed up the diagnosis process and reduce diagnostic error by providing an automated identification of standard cardiac views based on deep learning technology. More importantly, based on a brand-new echocardiogram dataset of the Asian race, our research considers and assesses some new neural network architectures driven by action recognition in video. Finally, the research concludes and verifies that these methods aggregating dynamic information will receive a stronger classification effect.

연령 및 성별에 따른 한국인 단모음 포먼트 비교에 관한 연구 -한방병원 내원환자를 중심으로- (A Study on the Formant Comparison of Korean Monophthongs according to Age and Gender -A Survey on Patients in Oriental Hospitals-)

  • 김영수;김근호;김종열;장준수
    • 말소리와 음성과학
    • /
    • 제5권1호
    • /
    • pp.73-80
    • /
    • 2013
  • Formant is one of the essential vocal features for research of voice production, recognition and synthesis. Numerous studies were established on foreign languages including English vowels. However, studies related to Korean were done with a limited number of voice data. In this study, we compare four formants according to age and gender using a large number of Korean monophthongs. A total of 2614 Korean speakers participated in our experiments. We summarize statistical results by mean and standard deviation for each formant of five monophthongs. The results show a notable difference in each age and gender group. A quantitative study based on a large dataset is suggested for future studies on Korean speech sounds.

Splice Site Detection Using a Combination of Markov Model and Neural Network

  • M Abdul Baten, A.K.;Halgamuge, Saman K.;Wickramarachchi, Nalin;Rajapakse, Jagath C.
    • 한국생물정보학회:학술대회논문집
    • /
    • 한국생물정보시스템생물학회 2005년도 BIOINFO 2005
    • /
    • pp.167-172
    • /
    • 2005
  • This paper introduces a method which improves the performance of the identification of splice sites in the genomic DNA sequence of eukaryotes. This method combines a low order Markov model in series with a neural network for the predictions of splice sites. The lower order Markov model incorporates the biological knowledge surrounding the splice sites as probabilistic parameters. The Neural network takes the Markov encoded parameters as the inputs and produces the prediction. Two types of neural networks are used for the comparison. This method reduces the computational complexity and shows encouraging accuracy in the predictions of splice sites when applied to several standard splice site dataset.

  • PDF