• 제목/요약/키워드: Automatic validation

검색결과 186건 처리시간 0.023초

Mid-infrared (MIR) spectroscopy for the detection of cow's milk in buffalo milk

  • Anna Antonella, Spina;Carlotta, Ceniti;Cristian, Piras;Bruno, Tilocca;Domenico, Britti;Valeria Maria, Morittu
    • Journal of Animal Science and Technology
    • /
    • 제64권3호
    • /
    • pp.531-538
    • /
    • 2022
  • In Italy, buffalo mozzarella is a largely sold and consumed dairy product. The fraudulent adulteration of buffalo milk with cheaper and more available milk of other species is very frequent. In the present study, Fourier transform infrared spectroscopy (FTIR), in combination with multivariate analysis by partial least square (PLS) regression, was applied to quantitatively detect the adulteration of buffalo milk with cow milk by using a fully automatic equipment dedicated to the routine analysis of the milk composition. To enhance the heterogeneity, cow and buffalo bulk milk was collected for a period of over three years from different dairy farms. A total of 119 samples were used for the analysis to generate 17 different concentrations of buffalo-cow milk mixtures. This procedure was used to enhance variability and to properly randomize the trials. The obtained calibration model showed an R2 ≥ 0.99 (R2 cal. = 0.99861; root mean square error of cross-validation [RMSEC] = 2.04; R2 val. = 0.99803; root mean square error of prediction [RMSEP] = 2.84; root mean square error of cross-validation [RMSECV] = 2.44) suggesting that this method could be successfully applied in the routine analysis of buffalo milk composition, providing rapid screening for possible adulteration with cow's milk at no additional cost.

The World as Seen from Venice (1205-1533) as a Case Study of Scalable Web-Based Automatic Narratives for Interactive Global Histories

  • NANETTI, Andrea;CHEONG, Siew Ann
    • Asian review of World Histories
    • /
    • 제4권1호
    • /
    • pp.3-34
    • /
    • 2016
  • This introduction is both a statement of a research problem and an account of the first research results for its solution. As more historical databases come online and overlap in coverage, we need to discuss the two main issues that prevent 'big' results from emerging so far. Firstly, historical data are seen by computer science people as unstructured, that is, historical records cannot be easily decomposed into unambiguous fields, like in population (birth and death records) and taxation data. Secondly, machine-learning tools developed for structured data cannot be applied as they are for historical research. We propose a complex network, narrative-driven approach to mining historical databases. In such a time-integrated network obtained by overlaying records from historical databases, the nodes are actors, while thelinks are actions. In the case study that we present (the world as seen from Venice, 1205-1533), the actors are governments, while the actions are limited to war, trade, and treaty to keep the case study tractable. We then identify key periods, key events, and hence key actors, key locations through a time-resolved examination of the actions. This tool allows historians to deal with historical data issues (e.g., source provenance identification, event validation, trade-conflict-diplomacy relationships, etc.). On a higher level, this automatic extraction of key narratives from a historical database allows historians to formulate hypotheses on the courses of history, and also allow them to test these hypotheses in other actions or in additional data sets. Our vision is that this narrative-driven analysis of historical data can lead to the development of multiple scale agent-based models, which can be simulated on a computer to generate ensembles of counterfactual histories that would deepen our understanding of how our actual history developed the way it did. The generation of such narratives, automatically and in a scalable way, will revolutionize the practice of history as a discipline, because historical knowledge, that is the treasure of human experiences (i.e. the heritage of the world), will become what might be inherited by machine learning algorithms and used in smart cities to highlight and explain present ties and illustrate potential future scenarios and visionarios.

격납건물종합누설률시험 주기연장을 위한 웹기반 소외결말분석 프로그램 개발 및 적용 (Development of Web-based Off-site Consequence Analysis Program and its Application for ILRT Extension)

  • 나장환;황석원;오지용
    • 한국안전학회지
    • /
    • 제27권5호
    • /
    • pp.219-223
    • /
    • 2012
  • For an off-site consequence analysis at nuclear power plant, MELCOR Accident Consequence Code System(MACCS) II code is widely used as a software tool. In this study, the algorithm of web-based off-site consequence analysis program(OSCAP) using the MACCS II code was developed for an Integrated Leak Rate Test (ILRT) interval extension and Level 3 probabilistic safety assessment(PSA), and verification and validation(V&V) of the program was performed. The main input data for the MACCS II code are meteorological, population distribution and source term information. However, it requires lots of time and efforts to generate the main input data for an off-site consequence analysis using the MACCS II code. For example, the meteorological data are collected from each nuclear power site in real time, but the formats of the raw data collected are different from each site. To reduce the efforts and time for risk assessments, the web-based OSCAP has an automatic processing module which converts the format of the raw data collected from each site to the input data format of the MACCS II code. The program also provides an automatic function of converting the latest population data from Statistics Korea, the National Statistical Office, to the population distribution input data format of the MACCS II code. For the source term data, the program includes the release fraction of each source term category resulting from modular accident analysis program(MAAP) code analysis and the core inventory data from ORIGEN. These analysis results of each plant in Korea are stored in a database module of the web-based OSCAP, so the user can select the defaulted source term data of each plant without handling source term input data.

요구사항 시나리오 기계 학습을 이용한 자동 소프트웨어 요구사항 패턴 추출 기법 (Automatic Software Requirement Pattern Extraction Method Using Machine Learning of Requirement Scenario)

  • 고덕윤;박수용;김순태;유희경;황만수
    • 한국인터넷방송통신학회논문지
    • /
    • 제16권1호
    • /
    • pp.263-271
    • /
    • 2016
  • 소프트웨어 요구사항 분석은 성공적인 소프트웨어 프로젝트를 위해 필수적 요소이다. 특히 불완전한 요구사항은 소프트웨어 프로젝트 실패의 가장 큰 원인으로 꼽힌다. 불완전한 요구사항은 소프트웨어 개발 시 개발자에게 이해 부족을 야기할 뿐 아니라, 소프트웨어 검증 시 에도 모호한 기준을 제공함으로써, 개발 후반부에 납기일 연기 및 비용 증가의 원인이 된다. 요구사항 패턴은 이러한 문제를 극복하는데 도움을 줄 수 있다. 요구사항 패턴은 요구사항 작성과 검토 시 참조모델이 될 뿐 아니라, 검증 기준이 될 수 있으며, 작성자가 누락한 부분을 보완해 줄 수 있다. 이와 더불어 요구사항 작성의 경험이 적은 작성자는 요구사항 패턴을 통해 더 쉽고, 빠르고 정확하게 요구사항을 작성할 수 있다. 본 논문에서는 다양한 요구사항의 시나리오를 통해 공통된 요구사항 시나리오를 추출하는 기법을 제안한다. 그리고 제안한 기법의 가시성 검증을 위해 여덟 개의 프로젝트에서 추출한 83개의 소프트웨어 시나리오를 통해 54개의 시나리오 패턴을 추출하고 이 패턴을 이용하여 누락된 행위를 찾는 과정을 사례연구를 통해 보여준다.

GPS/INS와 LIDAR자료를 이용한 자동 항공영상 정사보정 개발 (Development of Automatic Airborne Image Orthorectification Using GPS/INS and LIDAR Data)

  • 장재동
    • 한국정보통신학회논문지
    • /
    • 제10권4호
    • /
    • pp.693-699
    • /
    • 2006
  • 항공관측으로 얻어지는 디지털 영상은 지리정보로써의 가치를 가지기 위해서는 정밀하게 정사보정되어야 한다. 항공영상의 자동 정사보정을 위해 카메라와 함께 설치된 GPS/INS (Global Positioning System/Inertial Navigation System) 자료와 LIDAR (LIght Detection And Ranging) 지표고도 자료를 이용하였다. 본 연구에서 635개 항공영상이 생산되고 LIDAR 자료는 정사보정에 적용하기 위하여 격자영상 형태로 변환되었다. 영상 전체적으로 일정한 명도를 가지기 위해서, flat field 수정을 영상에 적용하였다. 영상은 내부방위와 GPS/INS를 이용한 외부방위를 계산하여 기하보정되고, LIDAR 지표고도 영상을 이용하여 정사보정되었다. 정사보정의 정도는 임의의 5개 영상과 LIDAR 반사강도 영상에서 50개 지상기준점을 수집하여 검증되었다. 검정된 결과로써 RMSE (Root Mean Square Error)는 화소 해상도의 단지 2배에 해당하는 0.387 m를 도출하였다. 높은 정도를 가진 자동 항공영상 정사보정 방법은 항공영상 산업에 적용 가능할 것이다.

감정어휘 평가사전과 의미마디 연산을 이용한 영화평 등급화 시스템 (Grading System of Movie Review through the Use of An Appraisal Dictionary and Computation of Semantic Segments)

  • 고민수;신효필
    • 인지과학
    • /
    • 제21권4호
    • /
    • pp.669-696
    • /
    • 2010
  • 본 논문은 한 문서의 전체 의미는 각 부분의미의 합성이라는 관점에서 미리 반자동으로 구축된 감정어휘 평가사전을 기반으로 한 시스템을 제안한다. 인간의 의사 결정 과정과 유사한 방식으로 의사 결정 과정을 모델링하려는 노력으로써 본 ARSSA 시스템은 개별 리뷰의 의미값 연산과 자료 분류를 통해 감정 표현이 나타난 영화평 리뷰의 자동 등급화에 대한 연구를 수행한다. 이는 {'평점' : '리뷰'} 이항구조로 이루어진 현재의 평점 부여 형식에서 발생하는 두 변항의 불연속성 문제를 해결해보려는 목적을 가진다. 이는 어휘 의미 합성 과정에서 반영된 추상적 의미들의 합성 함수를 통해 실현될 수 있다. 시스템의 성능 실험에서 네이버 무비에서 확보한 1000개의 리뷰에 대한 10-fold 교차 검증 실험이 수행되었다. 이 실험은 기존에 부여된 평점과 비교하여 감정어휘 평가사전을 이용하였을 때 85%의 F1 Score를 보였다.

  • PDF

Automatic Construction of SHACL Schemas for RDF Knowledge Graphs Generated by R2RML Mappings

  • Choi, Ji-Woong
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권8호
    • /
    • pp.9-21
    • /
    • 2020
  • RDF 지식 그래프의 사용이 늘어나면서 표준화된 RDF 스키마 표현 형식의 부재가 데이터 상호 교환·운용성을 저해한다는 문제가 제기되어 왔다. 이를 위해 W3C는 RDF 그래프에 대한 구조 묘사 및 검증을 지원하는 SHACL 명세를 개발하였다. 관계형 데이터베이스(RDB)는 구조화된 지식 그래프를 얻는 주요 원천 중 하나이다. RDB로부터 RDF 그래프를 생성하는 방법은 통상 W3C에 의해 표준화된 R2RML 명세를 따른다. 그러나 R2RML 방식으로 생성한 RDF 그래프에 대한 스키마를 생성하기 위해서는 전문가에 의한 별도의 수작업이 요구된다. 본 논문에서는 R2RML 매핑에 의해 구축된 RDF 그래프에 대한 SHACL 스키마를 자동 생성하는 방법을 제안한다. 제안하는 방법의 특징은 R2RML 매핑 문서만으로 SHACL 스키마를 생성할 수 있다는 것이다. 본 논문은 제안하는 방법의 구현 사항들을 상세히 기술하며 구현 결과물을 W3C의 R2RML 테스트 케이스에 적용한 결과를 제시한다.

복합 레이블을 적용한 한국어 구문 규칙 (Korean Syntactic Rules using Composite Labels)

  • 김성용;이공주;최기선
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권2호
    • /
    • pp.235-244
    • /
    • 2004
  • 본 논문에서는 한국어 구문 분석 및 구문 트리 표현을 위한 복합 레이블 생성 방법을 제안한다. 기존의 구문 트리 표현에서는 미리 정의된 구문 트리 레이블을 사용하여 구문 정보를 표현하였다. 본 논문에서는 이진 규칙하에서 품사태그 정보만을 이용하여 구문 레이블을 자동으로 생성하는 방법을 제시한다. 제안된 구문 레이블은 두 개의 하위 구성체의 품사정보를 적절히 구성하여 형성되며, 동시에 현 구성체의 상태 및 역할 정보를 표현할 수 있도록 고안되었다. 이와 같이 함으로써 품사태그 정보가 가지고 있는 정보를 그대로 구문 트리에 반영시킬 수 있었다. 또한, 품사 정보와 이진규칙만을 이용하여 구문 트리를 표현하기 때문에, 다양한 구문 규칙을 채택하고 있는 서로 다른 구문 분석기의 결과를 정규화 하는 데 적용할 수 있을 것이며, 일본어와 같은 다른 언어에도 쉽게 적용 가능하다. 약 31,080 문장에 대한 구문 분석의 결과, 79.30%의 정확도를 얻을 수 있었으며, 이는 제안된 구문 트리 표현 방법이 구문 분석기의 효율에도 좋은 영향을 미침을 보이는 것이다.

A Novel, Deep Learning-Based, Automatic Photometric Analysis Software for Breast Aesthetic Scoring

  • Joseph Kyu-hyung Park;Seungchul Baek;Chan Yeong Heo;Jae Hoon Jeong;Yujin Myung
    • Archives of Plastic Surgery
    • /
    • 제51권1호
    • /
    • pp.30-35
    • /
    • 2024
  • Background Breast aesthetics evaluation often relies on subjective assessments, leading to the need for objective, automated tools. We developed the Seoul Breast Esthetic Scoring Tool (S-BEST), a photometric analysis software that utilizes a DenseNet-264 deep learning model to automatically evaluate breast landmarks and asymmetry indices. Methods S-BEST was trained on a dataset of frontal breast photographs annotated with 30 specific landmarks, divided into an 80-20 training-validation split. The software requires the distances of sternal notch to nipple or nipple-to-nipple as input and performs image preprocessing steps, including ratio correction and 8-bit normalization. Breast asymmetry indices and centimeter-based measurements are provided as the output. The accuracy of S-BEST was validated using a paired t-test and Bland-Altman plots, comparing its measurements to those obtained from physical examinations of 100 females diagnosed with breast cancer. Results S-BEST demonstrated high accuracy in automatic landmark localization, with most distances showing no statistically significant difference compared with physical measurements. However, the nipple to inframammary fold distance showed a significant bias, with a coefficient of determination ranging from 0.3787 to 0.4234 for the left and right sides, respectively. Conclusion S-BEST provides a fast, reliable, and automated approach for breast aesthetic evaluation based on 2D frontal photographs. While limited by its inability to capture volumetric attributes or multiple viewpoints, it serves as an accessible tool for both clinical and research applications.

오염원 산정단위 수준의 소유역 세분화를 고려한 새만금유역 수문·수질모델링 적용성 검토 (Developing Surface Water Quality Modeling Framework Considering Spatial Resolution of Pollutant Load Estimation for Saemangeum Using HSPF)

  • 성충현;황세운;오찬성;조재필
    • 한국농공학회논문집
    • /
    • 제59권3호
    • /
    • pp.83-96
    • /
    • 2017
  • This study presented a surface water quality modeling framework considering the spatial resolution of pollutant load estimation to better represent stream water quality characteristics in the Saemangeum watershed which has been focused on keeping its water resources sustainable after the Saemangeum embankment construction. The watershed delineated into 804 sub-watersheds in total based on the administrative districts, which were units for pollutant load estimation and counted as 739 in the watershed, Digital Elevation Model (DEM), and agricultural structures such as drainage canal. The established model consists of 7 Mangyung (MG) sub-models, 7 Dongjin (DJ) sub-models, and 3 Reclaimed sub-models, and the sub-models were simulated in a sequence of upstream to downstream based on its connectivity. The hydrologic calibration and validation of the model were conducted from 14 flow stations for the period of 2009 and 2013 using an automatic calibration scheme. The model performance to the hydrologic stations for calibration and validation showed that the Nash-Sutcliffe coefficient (NSE) ranged from 0.66 to 0.97, PBIAS were -31.0~16.5 %, and $R^2$ were from 0.75 to 0.98, respectively in a monthly time step and therefore, the model showed its hydrological applicability to the watershed. The water quality calibration and validation were conducted based on the 29 stations with the water quality constituents of DO, BOD, TN, and TP during the same period with the flow. The water quality model were manually calibrated, and generally showed an applicability by resulting reasonable variability and seasonality, although some exceptional simulation results were identified in some upstream stations under low-flow conditions. The spatial subdivision in the model framework were compared with previous studies to assess the consideration of administrative boundaries for watershed delineation, and this study outperformed in flow, but showed a similar level of model performance in water quality. The framework presented here can be applicable in a regional scale watershed as well as in a need of fine-resolution simulation.