• Title/Summary/Keyword: 로지스틱형

Search Result 274, Processing Time 0.026 seconds

Nomogram comparison conducted by logistic regression and naïve Bayesian classifier using type 2 diabetes mellitus (T2D) (제 2형 당뇨병을 이용한 로지스틱과 베이지안 노모그램 구축 및 비교)

  • Park, Jae-Cheol;Kim, Min-Ho;Lee, Jea-Young
    • The Korean Journal of Applied Statistics
    • /
    • v.31 no.5
    • /
    • pp.573-585
    • /
    • 2018
  • In this study, we fit the logistic regression model and naïve Bayesian classifier model using 11 risk factors to predict the incidence rate probability for type 2 diabetes mellitus. We then introduce how to construct a nomogram that can help people visually understand it. We use data from the 2013-2015 Korean National Health and Nutrition Examination Survey (KNHANES). We take 3 interactions in the logistic regression model to improve the quality of the analysis and facilitate the application of the left-aligned method to the Bayesian nomogram. Finally, we compare the two nomograms and examine their utility. Then we verify the nomogram using the ROC curve.

A credit classification method based on generalized additive models using factor scores of mixtures of common factor analyzers (공통요인분석자혼합모형의 요인점수를 이용한 일반화가법모형 기반 신용평가)

  • Lim, Su-Yeol;Baek, Jang-Sun
    • Journal of the Korean Data and Information Science Society
    • /
    • v.23 no.2
    • /
    • pp.235-245
    • /
    • 2012
  • Logistic discrimination is an useful statistical technique for quantitative analysis of financial service industry. Especially it is not only easy to be implemented, but also has good classification rate. Generalized additive model is useful for credit scoring since it has the same advantages of logistic discrimination as well as accounting ability for the nonlinear effects of the explanatory variables. It may, however, need too many additive terms in the model when the number of explanatory variables is very large and there may exist dependencies among the variables. Mixtures of factor analyzers can be used for dimension reduction of high-dimensional feature. This study proposes to use the low-dimensional factor scores of mixtures of factor analyzers as the new features in the generalized additive model. Its application is demonstrated in the classification of some real credit scoring data. The comparison of correct classification rates of competing techniques shows the superiority of the generalized additive model using factor scores.

Korea-specified Maximum Expected Utility Model for the Probability of Default (기대효용최대화를 통한 한국형 기업 신용평가 모형)

  • Park, You-Sung;Song, Ji-Hyun;Choi, Bo-Seung
    • The Korean Journal of Applied Statistics
    • /
    • v.20 no.3
    • /
    • pp.573-584
    • /
    • 2007
  • A well estimated probability of default is most important for constructing a good credit scoring process. The maximum expected utility (MEU) model has been suggested as an alternative of the traditional logistic regression model. Because the MEU model has been constructed using financial data arising from North America and European countries, the MEU model may not be suitable to Korean private firms. Thus, we propose a Korea-specific MEU model by estimating the parameters involved in kernel functions. This Korea-specific MEU model is illustrated using 34,057 private firms to show the performance of the MEU model relative to the usual logistic regression model.

Image Quality Enhancement by Using Logistic Equalization Function (로지스틱 평활화 함수에 의한 영상의 화질개선)

  • Cho, Yong-Hyun
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.20 no.1
    • /
    • pp.30-35
    • /
    • 2010
  • This paper presents a quality enhancement of images by using a histogram equalization based on the symmetric logistic function. The histogram equalization is a simple and effective spatial processing method that it enhances the quality by adjusting the brightness of image. The logistic function that is a sigmoidal nonlinear transformation function, is applied to non-linearly enhance the brightness of the image according to its intensity level frequency. We propose a flexible and symmetrical logistic function by only using the intensity with maximum frequency in an histogram and the total number of pixels. The proposed function decreases the computation load of an exponential function in the traditional logistic function. The proposed method has been applied for equalizing 5 images with a different resolution and histogram distribution. The experimental results show that the proposed method has the superior enhancement performances compared with the source images and the traditional global histogram equalization, respectively.

Flood Risk Forecasting using Logistic Regression for the Han River Basin (로지스틱 회귀분석을 활용한 한강권역 홍수위험 예보기법 개발)

  • Lee, Seon Mi;Choi, Youngje;Yi, Jaeeung
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.354-354
    • /
    • 2021
  • 2020년은 장마기간이 49일간 지속됨에 따라 침수, 산사태 등 많은 홍수피해가 발생하였다. 특히 서울에서는 한강 본류의 수위가 급격하게 증가함에 따라 둔치 및 도로 침수 피해가 발생하였다. 이처럼 하천의 수위증가로 인한 홍수피해에 대응하기 위해 홍수통제소 및 기초지자체에서는 홍수특보를 발령한다. 이 홍수특보는 수위관측소 지점별 계획홍수량의 50 %, 70 % 이상의 홍수량이 발생할 경우 홍수주의보와 홍수경보가 발령되며, 이 기준은 각 권역별로 동일하다. 하지만 2017년 의정부시에서는 중랑천 수위증가로 인해 주변 지역에 침수피해가 발생하였지만, 이때 홍수량은 계획홍수량 대비 약 30 %에 불과하였다. 이처럼 한강권역 내 하천수위 증가로 인한 홍수피해는 계획홍수량의 50 % 이내에서 발생하기도 한다. 이에 본 연구에서는 한강권역을 대상으로 현재 2단계로 발령되는 홍수특보를 3단계로 세분화하고자 하였다. 단계별 홍수량 위험기준을 산정하기 위해 과거 홍수피해 발생 이력이 있는 한강권역 내 43개의 수위관측소 지점을 선정하였으며, 지점별 홍수기 동안의 홍수량 및 피해액 자료를 수집하였다. 각 단계별 홍수량 기준을 산정하기 위해서는 로지스틱 회귀분석 방법을 활용하여 피해발생 확률을 산정하였다. 1단계 기준은 계획홍수량 대비 홍수량 비율과 홍수피해 발생여부를 고려한 이항 로지스틱 회귀분석 모델을 구축한 후 3계 도함수에 적용하여 홍수피해 발생확률이 급격하게 증가하는 특이점을 산정하였다. 2단계와 3단계 기준은 다항 로지스틱 회귀분석 중 계층형 로지스틱 회귀분석을 활용하여 지점별 피해액 비율이 60 ~ 80 %, 80 ~ 100 % 구간에 속할 확률을 산정하고, 1단계와 동일한 방법으로 특이점을 산정하였다. 그 결과 지점별로 기존 제공되고 있는 홍수특보 기준을 과거 발생한 홍수피해를 고려하여 세분화할 수 있었으며, 이 결과는 지역별 홍수피해 저감대책에 활용될 수 있을 것으로 판단된다.

  • PDF

A Study on the Edequate Parameter Estimation of S W (소프트웨어 신뢰도의 매개변수 도출)

  • Che, Gyu-Shik
    • Proceedings of the KIEE Conference
    • /
    • 2005.07d
    • /
    • pp.2924-2926
    • /
    • 2005
  • 몇몇 논문을 통하여 테스트 노력을 고려한 소프트웨어의 신뢰도 평가가 중요한 인자인 것으로 발표되었다. 여러 산업 현장의 경험 데이타에 의하면 그 형태가 지수함수형, 레일레이형, 웨이불형, 로지스틱형 테스트 노력 함수 중 하나인 것으로 보고되었다. 그러므로 연구자들은 각각의 소프트웨어 테스트 형태에 따라 이중하나의 적합한 형태를 사용해왔다. 테스트 노력이 어떤 형태의 그래프를 따르냐에 의해 신뢰도 예측 및 성장에 대한 평가가 달라지고 그에 따라 인도시기도 변한다. 따라서, 본 논문에서는 이 네 가지 형태의 테스트 노력을 가진 소프트웨어의 신뢰도 성장에 필요한 각종 파라미터를 구하는 방법에 대하여 고찰한다. 개발 현장에서 관찰된 테스트 노력 데이터와 결함검출을 비교하여 어느 형태의 테스트 노력 곡선이 그 경우에 적합한가를 연구하는 한편, 목표 신뢰도에 맞는 발행시기를 결정하는 문제를 연구한다.

  • PDF

Parameter Estimation of Testing Effort (테스트 노력 함수의 파라미터 산출)

  • 최규식
    • Proceedings of the IEEK Conference
    • /
    • 2003.11b
    • /
    • pp.35-38
    • /
    • 2003
  • 지난 수십년간 많은 SRGM이 제안되었다. 이러한 모델들 중 많은 부분에서 암암리에 소프트웨어 테스트 전 단계를 거쳐서 테스트노력이 상수인 것으로 가정하거나 또는 아예 고려하지도 않았다. 그 후 몇몇 논문을 통하여 테스트노력을 고려한 소프트웨어의 신뢰도 평가가 중요한 인자인 것으로 발표되었다. 이들에 의해 지금까지 제안된 형태를 보면 지수함수형, 레일레이형, 웨이블형, 로지스틱형, 테스트노력함수로서 경우에 따라 이 중 하나의 적합한 형태를 사용해왔다. 본 논문에서는 이 네 가지 형태에 대해서 최소자승평가자(LSE)와 최대가능성평가자(MLE)를 써서 신뢰도 성장 파라미터를 구하는 방법에 대해서 고찰하고, 실제의 데이터를 적용하여 각각의 경우에 대한 파라미터를 구하고 이를 이용하여 목표신뢰도에 맞는 발행시기를 결정하는 문제를 연구하였다.

  • PDF

Data Mining for Road Traffic Accident Type Classification (데이터 마이닝을 이용한 교통사고 심각도 분류분석)

  • 손소영;신형원
    • Journal of Korean Society of Transportation
    • /
    • v.16 no.4
    • /
    • pp.187-194
    • /
    • 1998
  • 본 연구는 교통사고 심각도와 관련된 중요변수를 찾고 이들 변수를 바탕으로 신경망, Decision Tree, 로지스틱 회귀분석을 이용하여 사고 심각도 분류 예측모형을 추정하였다. 다수의 범주형 변수로 이루어진 교통사고 통계원표상의 설명변수 들로부터 사고 심각도 변화에 영향력 있는 변수 선택을 위하여 독립성 검정을 위한 $x^2$ test와 Decision Tree를 이용하였고, 선택된 변수들은 신경망과 로지스틱 회귀분석의 기초로 이용되었다. 분석결과 세가지기법간에 분류정확도에는 유의한 차이가 없는 것으로 나타났다. 그러나 Decision Tree가 설명변수 선택능력과 분석수행시간, 사고 심각도 결정요인 식별의 용이함 측면에서 범주형 종속변수인 사고 심각도의 분석에 적합한 것으로 보이며 사고 심각도에는 보호장구가 가장 큰 영향을 미치는 것으로 재입증되었다.

  • PDF

Data Mining for Road Traffic Accident Type Classification (데이터 마이닝을 이용한 교통사고 심각도 분류분석)

  • 손소영
    • Proceedings of the KOR-KST Conference
    • /
    • 1998.10a
    • /
    • pp.373-381
    • /
    • 1998
  • 본 연구는 교통사고 심각도와 관련된 중요변수를 찾고 이들 변수를 바탕으로 신경망, Decision Tree, 로지스틱 회귀분석을 이용하여 사고 심각도 분류 예측모형을 추정하였다. 다수의 범주형 변수로 이루어진 교통사고 통계원표상의 설명변수 들로부터 사고 심각도변화에 영향력 있는 변수선택을 위하여 $X^2$ 독립성 검정과 Decision Tree를 이용하였고, 선택된 변수들은 신경망과 로지스틱 회귀분석의 기초로 이용되었다. 분석결과 세가지기법간에 분류정확도에는 유의한 차이가 없는 것으로 나타났다. 그러나 decision Tree가 설명변수 선택능력과 분석수행시간, 사고 심각도 결정요인 식별의 용이함 측면에서 범주형 종속변수인 사고 심각도의 분석에 적합합 것으로 보이며 사고 심각도에는 보호장구가 가장 큰 영향을 미치는 것으로 재입증되었다.

  • PDF

A Study on the Optimum Release of Developing Software applying Testing Efforts (테스트 노력에 의한 소프트웨어의 최적 발행에 관한 연구)

  • Che, Gyu-Shik;Kim, Yong-Kyung
    • Proceedings of the Korea Society of Information Technology Applications Conference
    • /
    • 2006.06a
    • /
    • pp.717-729
    • /
    • 2006
  • 소프트웨어 신뢰도 성장 모델을 비동차 포아송 프로세스(NHPP)로 공식화하고, 이 모델을 이용하여 소프트웨어 신뢰도 척도에 대한 데이터 분석기법을 개발한다. 그간 여러 문헌에서 소프트웨어 신뢰도 성장 모델을 연구할 때 소프트웨어 테스트 중에 소요되는 테스트노력의 양으로서 지수함수형, 레일레이형, 웨이불형, 로지스틱형 테스트노적함수를 고려하여, 경우에 따라 이 중 하나의 적합한 형태를 사용해 왔다. 본 논문에서는 이 네 가지 형태에 대해서 최소자승평가자(LSE)와 최대가능성평가자(MLE)를 써서 파라미터를 구하는 방법을 검토한다.

  • PDF