• 제목/요약/키워드: Probability testing

검색결과 278건 처리시간 0.024초

An active learning method with difficulty learning mechanism for crack detection

  • Shu, Jiangpeng;Li, Jun;Zhang, Jiawei;Zhao, Weijian;Duan, Yuanfeng;Zhang, Zhicheng
    • Smart Structures and Systems
    • /
    • 제29권1호
    • /
    • pp.195-206
    • /
    • 2022
  • Crack detection is essential for inspection of existing structures and crack segmentation based on deep learning is a significant solution. However, datasets are usually one of the key issues. When building a new dataset for deep learning, laborious and time-consuming annotation of a large number of crack images is an obstacle. The aim of this study is to develop an approach that can automatically select a small portion of the most informative crack images from a large pool in order to annotate them, not to label all crack images. An active learning method with difficulty learning mechanism for crack segmentation tasks is proposed. Experiments are carried out on a crack image dataset of a steel box girder, which contains 500 images of 320×320 size for training, 100 for validation, and 190 for testing. In active learning experiments, the 500 images for training are acted as unlabeled image. The acquisition function in our method is compared with traditional acquisition functions, i.e., Query-By-Committee (QBC), Entropy, and Core-set. Further, comparisons are made on four common segmentation networks: U-Net, DeepLabV3, Feature Pyramid Network (FPN), and PSPNet. The results show that when training occurs with 200 (40%) of the most informative crack images that are selected by our method, the four segmentation networks can achieve 92%-95% of the obtained performance when training takes place with 500 (100%) crack images. The acquisition function in our method shows more accurate measurements of informativeness for unlabeled crack images compared to the four traditional acquisition functions at most active learning stages. Our method can select the most informative images for annotation from many unlabeled crack images automatically and accurately. Additionally, the dataset built after selecting 40% of all crack images can support crack segmentation networks that perform more than 92% when all the images are used.

Radionuclide identification based on energy-weighted algorithm and machine learning applied to a multi-array plastic scintillator

  • Hyun Cheol Lee ;Bon Tack Koo ;Ju Young Jeon ;Bo-Wi Cheon ;Do Hyeon Yoo ;Heejun Chung;Chul Hee Min
    • Nuclear Engineering and Technology
    • /
    • 제55권10호
    • /
    • pp.3907-3912
    • /
    • 2023
  • Radiation portal monitors (RPMs) installed at airports and harbors to prevent illicit trafficking of radioactive materials generally use large plastic scintillators. However, their energy resolution is poor and radionuclide identification is nearly unfeasible. In this study, to improve isotope identification, a RPM system based on a multi-array plastic scintillator and convolutional neural network (CNN) was evaluated by measuring the spectra of radioactive sources. A multi-array plastic scintillator comprising an assembly of 14 hexagonal scintillators was fabricated within an area of 50 × 100 cm2. The energy spectra of 137Cs, 60Co, 226Ra, and 4K (KCl) were measured at speeds of 10-30 km/h, respectively, and an energy-weighted algorithm was applied. For the CNN, 700 and 300 spectral images were used as training and testing images, respectively. Compared to the conventional plastic scintillator, the multi-arrayed detector showed a high collection probability of the optical photons generated inside. A Compton maximum peak was observed for four moving radiation sources, and the CNN-based classification results showed that at least 70% was discriminated. Under the speed condition, the spectral fluctuations were higher than those under dwelling condition. However, the machine learning results demonstrated that a considerably high level of nuclide discrimination was possible under source movement conditions.

폐기능검사 해석에 정상하한치 변화와 새 해석흐름도가 미치는 영향 (Effect of the Changing the Lower Limits of Normal and the Interpretative Strategies for Lung Function Tests)

  • 나승원;오지선;홍상범;심태선;임채만;고윤석;이상도;김우성;김동순;김원동;오연목
    • Tuberculosis and Respiratory Diseases
    • /
    • 제61권2호
    • /
    • pp.129-136
    • /
    • 2006
  • 연구 배경: 폐기능검사를 해석하는데 정상하한치(lower limits of normal) 선정과 해석흐름도 합의가 필수적이다. COPD 국제지침은 $FEV_1$/FVC 정상하한치로 0.7을 사용하여 폐쇄성장애를 진단한다. 한편, 미국흉부학회(ATS)와 유럽호흡기학회(ERS) 공동으로 새 해석흐름도를 제시하였다. '$FEV_1$/FVC 정상하한치 0.7' 의 정확성과 새 해석흐름도가 실제 폐기능검사 해석에 어떤 영향을 미치는지 알아 보고자 하였다. 방 법: 서울 아산병원의 호흡기검사실에서 2005년 7월 1일부터 11월 30일까지 5개월간 폐활량측정법을 시행한 7362명을 대상으로 하여 '$FEV_1$/FVC 정상하한치 0.7' 의 정확성을 평가하였고 새로운 ATS/ERS 해석흐름도에 따르면 폐용적검사가 추가로 필요한 경우가 얼마나 증가하는지 평가하였다. 상기 기간 내에 같은 날 폐용적검사를 시행한 1611 명을 대상으로 과거 해석흐름도와 비교하여 새로운 ATS/ERS 해석흐름도를 적용하게 되면 폐쇄성장애로 진단되는 경우가 얼마나 증가하는지 알아보았다. 결 과: 1) '$FEV_1$/FVC < 0.7' 에 의한 폐쇄성장애 진단은 연령이 증가할수록 민감도는 증가하였으나 특이도는 감소하였고 양성예측도는 감소하였으나 음성예측도는 증가하였다. 2) 새 ATS/ERS 해석흐름도를 적용할 경우 34.5% (2540명/7362명)의 환자가 추가로 폐용적검사가 필요하였다. 3) 새 ATS/ERS 해석흐름도를 적용할 경우, 과거에 제한성질환으로 진단되었던 환자 중 30%(205명/681명)가 폐쇄성질환으로 진단되었고 이는 전체 환자의 13%(205명/1611명)에 해당하였다. 결 론: 폐쇄성질환 진단기준으로 '$FEV_1$/FVC < 0.7' 을 사용하였을 때 연령에 따라서 민감도와 특이도가 변한다. 또한, 새로운 ATS/ERS 해석흐름도를 실제 환자를 진료하는데 적용하면 폐용적검사를 시행해야 하는 경우가 증가하게 되고 폐쇄성장애로 진단되는 경우가 더 증가하게 된다.

단계적 소수 판별법 (A Step-by-Step Primality Test)

  • 이상운
    • 한국인터넷방송통신학회논문지
    • /
    • 제13권3호
    • /
    • pp.103-109
    • /
    • 2013
  • 대표적인 소수판별법으로 밀러-라빈 방법이 적용되고 있다. 밀러-라빈 판별법은 카마이클 수 또는 반소수가 합성수임에도 불구하고 소수로 잘못 판별하는 단점이 있어 m=[2,n-1], (m,n)=1인 m을 k개 선택하여 소수 여부를 판별한다. 밀러-라빈 방법은 $n-1=2^sd$, $0{\leq}r{\leq}s-1$에 대해 $m^d{\equiv}1$(mod n) 또는 $m^{2^rd}{\equiv}-1$(mod n)로 소수를 판별한다. 본 논문은 m=2로 한정시켜 98.9%를 판별할 수 있는 알고리즘을 제안한다. 제안된 방법은 $n=6k{\pm}1$, $n_1{\neq}5$로 1차로 합성수 여부를 판별한다. 2차에서는 $2^{2^{s-1}d}{\equiv}{\beta}_{s-1}$(mod n)과 $2^d{\equiv}{\beta}_0$(mod n)로 판별하였으며, 3차에서는 ${\beta}_0$ >1이면 $1{\leq}r{\leq}s-2$에서 ${\beta}_r{\equiv}-1$ 존재 여부로, ${\beta}_0=1$이면 m=3,5,7,11,13,17을 순서대로 적용하였다. 제안된 알고리즘을 n=[101,1000]에 적용한 결과 ${\beta}_0$ >1은 26개로 3.0%, ${\beta}_0$ = 1은 0.55%만 수행되었으며, 96.55%는 초기에 판별할 수 있었다.

진동대 시험에 의한 편평한 암석 절리면의 동적 마찰거동 특성 (Dynamic Frictional Behavior of Saw-cut Rock Joints Through Shaking Table Test)

  • 박병기;전석원
    • 터널과지하공간
    • /
    • 제16권1호
    • /
    • pp.58-72
    • /
    • 2006
  • 암반구조물의 규모가 점차 대형화됨에 따라 암반이 자유면에 노출되는 확률이 높아지고 있으며, 최근 들어 지진이나 발파, 고속철도의 운행에 의한 진동 등으로 야기되는 동적 하중의 발생빈도가 증가하는 추세이므로 동적 하중조건 하에서 암반 불연속면의 거동 특성 파악을 위한 연구의 필요성이 증대되고 있다. 본 연구에서는 자유면에 노출된 블록의 동적 거동을 모사할 수 있도록 경사면 진동대 시험장비를 제작하였고, 다양한 동적 하중 조건하에서 편평한 화강암 절리면의 마찰 거동 특성을 분석하였다. 경사시험을 통해서 구한 한계 경사각과 진동하중 하에서의 임계가속도로부터 역산한 정적 마찰각을 비교한 결과 동하중 하에서 정적마찰각이 $4.5\~8.2^{\circ}$ 정도 낮게 산정되는 경향을 보였다. 이론적인 암석 블록의 마찰 거동을 표현하는 블록 거동 프로그램을 작성하고, 진동하중에 의해 미끄러지는 암석 블록의 가속도 및 변위 계측결과를 개발된 프로그램에 의한 결과와 비교하여 암석 절리면의 동적 마찰각을 산정하였는데 동적 마찰각 역시 한계 경사각에 비해 $2.0\~7.5^{\circ}$ 정도 감소하는 결과를 얻었다. 동하중 하에서 측정된 정적 마찰각과 동적 마찰각은 가해진 가속도의 크기나 진폭 등의 하중 특성과 기하조건에 따라 달라지는 경향을 보였다. 개별요소 프로그램을 이용하여 진동대 시험을 모사하였는데, 계측결과 및 개발된 프로그램에 의한 결과와 비교적 잘 일치하였다. 진동대 시험에 의한 동적, 정적 마찰각은 직접전단시험에 의한 기본 마찰각보다 현저히 작게 산정되었다.

다변량 형질의 유전연관성에 대한 주성분을 이용한 회귀방법와 다변량 비모수 추세검정법의 비교 (Comparison of Principal Component Regression and Nonparametric Multivariate Trend Test for Multivariate Linkage)

  • 김수영;송혜향
    • 응용통계연구
    • /
    • 제21권1호
    • /
    • pp.19-33
    • /
    • 2008
  • 연속 형질(quantitative trait)에 영향을 미치는 유전자를 알아내기 위해 형제 쌍의 자료를 수집하여, 주로 이용되는 Haseman과 Elston (1972)의 최소제곱 회귀검정법으로 분석하는데 이는 단일 형질에 대한 분석법이다. 현실적으로 여러 형질들이 복잡하게 단일유전자 좌위(single locus)와 연관되어 있어 함께 수집하게 되는 경우에는, 이러한 연관된 여러 형질을 동시에 분석하는 유전연관성 검정법(linkage test)이 절실히 필요한 실정이다. Amos 등 (1990)은 주성분(principal component) 선형모형을 이용하여 Haseman과 Elston (1972)방법을 둘 이상의 형질의 다변량 분석법으로 확장시켰다. 그러나 이 검정방법은 통계량의 분포를 알 수 없기에 아직 제 1종 오류가 제대로 통제되지 못하는 문제를 가지고 있다. 본 논문에서는 이러한 다변량 형질 자료의 연관성검정에 있어 단일변량에 대한 비모수 추세검정법을 다변량 자료에 대한 분석법으로 확장시킨 통계량을 사용할 것을 제안한다. Amos 등 (1990)이 제안한 방법과 다변량 추세검정 통계량을 모의실험으로 생성한 연속형 형질자료에 적용하였을 때, 다변량 추세검정 통계량은 Amos 등 (1990) 방법에서의 여러 문제점이 발생되지 않을 뿐만 아니라 모의실험에서 제 1종 오류가 정해진 유의수준에 가까운 것을 확인하였고, 검정적이 더 높음을 볼 수 있었다.

정규화 및 교차검증 횟수 감소를 위한 무작위 풀링 연산 선택에 관한 연구 (A Study on Random Selection of Pooling Operations for Regularization and Reduction of Cross Validation)

  • 류서현
    • 한국산학기술학회논문지
    • /
    • 제19권4호
    • /
    • pp.161-166
    • /
    • 2018
  • 본 논문에서는 컨볼루션 신경망 구조(Convolution Neural Network)에서 정규화 및 교차검증 횟수 감소를 위한 무작위로 풀링 연산을 선택하는 방법에 대해 설명한다. 컨볼루션 신경망 구조에서 풀링 연산은 피쳐맵(Feature Map) 크기 감소 및 이동 불변(Shift Invariant)을 위해 사용된다. 기존의 풀링 방법은 각 풀링 계층에서 하나의 풀링 연산이 적용된다. 이러한 방법은 학습 간 신경망 구조의 변화가 없기 때문에, 학습 자료에 과도하게 맞추는 과 적합(Overfitting) 문제를 가지고 있다. 또한 최적의 풀링 연산 조합을 찾기 위해서는, 각 풀링 연산 조합에 대해 교차검증을 하여 최고의 성능을 내는 조합을 찾아야 한다. 이러한 문제를 해결하기 위해, 풀링 계층에 확률적인 개념을 도입한 무작위 풀링 연산 선택 방법을 제안한다. 제안한 방법은 풀링 계층에 하나의 풀링 연산을 적용하지 않는다. 학습기간 동안 각 풀링 영역에서 여러 풀링 연산 중 하나를 무작위로 선택한다. 그리고 시험 시에는 각 풀링 영역에서 사용된 풀링 연산의 평균을 적용한다. 이러한 방법은 풀링 영역에서 서로 다른 풀링 조합을 사용한 구조의 평균을 한 것으로 볼 수 있다. 따라서, 컨볼루션 신경망 구조가 학습데이터에 과도하게 맞추어지는 과적합 문제를 피할 수 있으며, 또한 각 풀링 계층에서 특정 풀링 연산을 선택할 필요가 없기 때문에 교차 검증 횟수를 감소시킬 수 있다. 실험을 통해, 제안한 방법은 정규화 성능을 향상시킬 뿐만 아니라 및 교차 검증 횟수를 줄일 수 있다는 것을 검증하였다.

트윗 데이터를 이용한 황사 관련 질병 유의성 분석 (Significance Analysis of Yellow Dust Related Disease Using Tweet Data)

  • 정용한;서민송;유환희
    • 지적과 국토정보
    • /
    • 제47권1호
    • /
    • pp.267-276
    • /
    • 2017
  • 우리나라는 황사로 인해 농업 및 산업분야, 시민건강 등 다양한 분야에 걸쳐 피해가 발생되고 있으며 이에 대한 대책 마련이 시급한 실정이다. 이에 본 연구에서는 2009년 이후 최대 황사가 나타났던 2015년 2월 23일을 기준으로 전후 11일간의 황사 관련 트윗 데이터를 수집하고, 이슈어 분석, 건강과 관련된 트윗 데이터 그룹 재구성, 질병과의 연관규칙 분석 등을 걸쳐 황사발생과 관련 질병의 유의성을 검정한 결과 다음과 같은 결론을 얻었다. 황사관련 트윗 데이터로부터 도출된 질병과 건강보험심사평가원에서 취득한 환자실태 자료를 종합하여 비염, 천식, 결막염 환자에 대한 유의성 검정을 실시한 결과, 유의확률 5%에서 결막염은 16개 시 도 중 13개 지역에서 유의하게 나타났으며, 비염은 6개 지역에서, 천식은 3개 지역에서 질병 발생에 유의한 것으로 나타났다. 이상과 같이 트윗 데이터와 같은 SNS데이터로 부터 시민들의 건강에 대한 정보를 취득할 수 있었으며, 이를 활용한 시민건강 관리 대책을 수립하는데 유용한 정보를 제공해 줄 수 있을 것으로 판단된다.

주변값이 주어진 이원분할표에 대한 카이제곱 검정통계량의 소표본 분포 및 대표본 분포와의 일치성 연구 (On the Small Sample Distribution and its Consistency with the Large Sample Distribution of the Chi-Squared Test Statistic for a Two-Way Contigency Table with Fixed Margins)

  • 박철용;최재성;김용곤
    • Journal of the Korean Data and Information Science Society
    • /
    • 제11권1호
    • /
    • pp.83-90
    • /
    • 2000
  • 이원분할표의 두 범주형 변수에 대한 독립성을 검정할 때 흔히 카이제곱 검정통계량이 사용된다. 표본추출 모형이 다항이나 곱다항인 경우 이 검정통계량이 독립성 가정하에서 근사적으로 카이제곱 분포를 따르게 되는 것은 잘 알려진 사실이다. 두 주변값이 모두 주어진 경우 독립성 가정하에서 표본추출 모형은 다중 초기하분포가 되며 앞의 모형과 마찬가지로 카이제곱 통계량에 근거한 검정을 사용할 수 있다. 이 연구에서는 주변값이 주어진 경우에 카이제곱 통계량의 소표본 분포를 대표본 분포인 카이제곱 분포와 비교하고자 한다. 표본크기가 작은 몇 개의 경우에 대해 카이제곱 통계량의 소표본 분포를 직접 계산해보았다. 표본크기가 큰 몇 개의 경우는 간단한 몬테칼로 알고리듬을 통해 소표본 분포를 생성하고 카이제곱 확률도와 콜모고로브-스미노브 단일표본 검정을 이용하여 대표본 분포와의 일치성을 알아보았다.

  • PDF

인공지능을 이용한 신규간호사 이직률 예측 (Artificial Intelligence to forecast new nurse turnover rates in hospital)

  • 최주희;박혜경;박지은;이창민;최병관
    • 한국융합학회논문지
    • /
    • 제9권9호
    • /
    • pp.431-440
    • /
    • 2018
  • 본 연구에서는 인공지능 기술 중 구글에서 개발하여 오픈소스로 제공하고 있는 텐서플로우(Tensorflow) 활용하여 신규간호사 이직률을 예측해 보았고, 이를 통해 전략적 인적자원관리 방안을 제시하였다. 부산지역 한 대학병원의 2010년에서 2017년 사이 퇴직한 간호사 데이터 1,018건을 수집하였다. 학습에 사용된 자료는 순서를 임의로 재배열 한 뒤 전체 데이터의 80%를 학습에, 나머지 20%를 테스트에 이용하였다. 활용된 알고리즘은 다중신경망회로(multiple neural network)로서 입력층과 출력층, 3개 층의 은닉층을 가지도록 설계 되었다. 본 연구의 결과 텐서플로우 플랫폼을 활용하여 1년 이내 이직률을 88.7%, 3년 이내 조기 이직률은 79.8%의 정확도로 예측하였고, 대상자들의 퇴직 시 연령은 20대 후반부터 30대에 집중되어 있었다. 가장 높은 빈도를 차지한 이직 사유로는 '결혼, 출산, 육아, 가정 및 개인사정'이었으나, 근무기간 1년 이하 대상자 들의 가장 높은 이직사유는 '업무 부적응 및 대인관계 문제'로 나타났다.