• Title/Summary/Keyword: 엔트로피 모델

Search Result 154, Processing Time 0.035 seconds

Self-Organizing Fuzzy Modeling using Creation of Clusters (클러스터 생성을 이용한 자기구성 퍼지 모델링)

  • 고택범
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.05a
    • /
    • pp.245-251
    • /
    • 2002
  • 본 논문에서는 상대적으로 큰 퍼지 엔트로피를 갖는 입력-출력 데이터 집단에 다중 회귀 분석을 적용하여 다차원 평면 클러스터를 생성하고, 이 클러스터를 새로운 퍼지 모델의 규칙으로 추가한 후 퍼지 모델 파라미터의 개략 동조와 정밀 동조를 수행하는 자기구성 퍼지 모델링을 제안한다. Weighted recursive least squared 알고리즘과 fuzzy C-regression model 클러스터링에 의해 퍼지 모델의 파라미터를 개략적으로 동조한 후 gradient descent 알고리즘에 의해 파라미터를 정밀 동조하면서 감수분열 유전 알고리즘을 이용하여 최적의 학습률을 탐색한다. 그리고 자기 구성 퍼지 모델링 기법을 이용하여 Box-Jenkins의 가스로 데이터, 다변수비선형 정적 함수의 데이터와 하수 처리 활성오니 공정의 모델링을 수행하고, 기존의 방법에 의한 모델링 결과와 비교하여 그 성능을 입증한다.

  • PDF

Prediction of complex disease using Decision Rules (의사결정규칙을 이용한 복합 질환의 예측)

  • Kim, Myoung-Ki;Kim, Seung-Hyun;Wee, Kyu-Bum
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.593-596
    • /
    • 2007
  • 복합 질환과 관련된 임상데이터에 대한 예측 모델을 회귀분석, 신경망, 또는 MDR과 같은 방법을 이용하여 분석할 경우 데이터의 차원 문제(Dimensionality Problem)가 발생할 수 있다. 엔트로피(Entropy)를 이용한 의사결정규칙 방법은 이러한 데이터의 차원 문제를 줄이고 의사결정규칙의 결과를 바로 해석할 수 있다는 점에서 질환 예측 모델을 만드는데 유용하다. 본 논문에서는 천식과 관련된 임상데이터를 사용하여 예측 모델을 구성하고 결과를 분석한다.

  • PDF

A Study on Incremental Learning Model for Naive Bayes Text Classifier (Naive Bayes 문서 분류기를 위한 점진적 학습 모델 연구)

  • 김제욱;김한준;이상구
    • Proceedings of the Korea Database Society Conference
    • /
    • 2001.06a
    • /
    • pp.331-341
    • /
    • 2001
  • 본 논문에서는 Naive Bayes 문서 분류기를 위한 새로운 학습모델을 제안한다. 이 모델에서는 라벨이 없는 문서들의 집합으로부터 선택한 적은 수의 학습 문서들을 이용하여 문서 분류기를 재학습한다. 본 논문에서는 이러한 학습 방법을 따를 경우 작은 비용으로도 문서 분류기의 정확도가 크게 향상될 수 있다는 사실을 보인다. 이와 같이, 알고리즘을 통해 라벨이 없는 문서들의 집합으로부터 정보량이 큰 문서를 선택한 후, 전문가가 이 문서에 라벨을 부여하는 방식으로 학습문서를 결정하는 것을 selective sampling이라 한다. 본 논문에서는 이러한 selective sampling 문제를 Naive Bayes 문서 분류기에 적용한다. 제안한 학습 방법에서는 라벨이 없는 문서들의 집합으로부터 재학습 문서를 선택하는 기준 측정치로서 평균절대편차(Mean Absolute Deviation), 엔트로피 측정치를 사용한다. 실험을 통해서 제안한 학습 방법이 기존의 방법인 신뢰도(Confidence measure)를 이용한 학습 방법보다 Naive Bayes 문서 분류기의 성능을 더 많이 향상시킨다는 사실을 보인다.

  • PDF

A application for Image completion with Deep GAN (심층 GAN을 이용한 이미지 완성 어플리케이션)

  • Cho, Sang-Hyun;Kim, Jong-Deug
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.774-777
    • /
    • 2017
  • 사진에는 의도하지 않은 노이즈나 찍는 과정 중에 발생한 실수나 문제로 원치 않게 가려진 부분이 있을 수 있는데, 이미지 완성 어플리케이션은 사용자가 전문적인 프로그램이나 전문가의 도움 없이 노이즈나 가려진 부분을 제거할 수 있도록 하였다. 본 논문에서는 GAN(Generative Adversial Network) 모델에 노이즈가 있는 사진을 입력으로 넣어 노이즈가 제거 된 사진을 생성하도록 하였고, 생성 된 사진과 기존 이미지가 자연스럽게 합성 될 수 있도록 보정을 하여 완성 된 이미지를 출력하는 어플리케이션을 제안한다. GAN 분류 모델의 시그모이드 교차-엔트로피와 생성이미지와 원본이미지간의 평균 제곱 오차를 함께 최소화 하도록 생성 모델을 학습시켰고, 낮은 평균 제곱 오차를 가지는 완성 이미지를 생성 할 수 있었다. 이미지 보정을 통해 생성 된 이미지와 입력 이미지와의 밝기 차이를 해소시켜 좀 더 자연스러운 완성 이미지 결과를 얻을 수 있었다.

On a Quantization and Rate-Control in H.263 Video Coder using Fuzzy Reasoning (퍼지 추론을 이용한 H.263 양자화 및 비율제어)

  • 허진원;신경철;최귀열;이광형
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.717-720
    • /
    • 2000
  • H.263의 시험모델인 TMN5를 최대한 적용하여 실험하였으며 분산, 엔트로피, 움직임 크기 등의 퍼지변수를 데이터 영역에서 추출하여 퍼지화하였다. 소속함수를 계산하기 위해 최소값으로 가장 분명한 퍼지값을 추출하였으며 퍼지집합을 위해서는 각 소속함수로부터의 요소를 더하는 의미에서 최대값을 선택하였다. 무게중심기법을 이용하여 최종 퍼지감도를 구하여 TMN5에 부가하였다.

  • PDF

Saliency Map Creation Method Robust to the Contour of Objects (객체의 윤곽선에 강인한 Saliency Map 생성 기법)

  • Han, Sung-Ho;Hong, Yeong-Pyo;Lee, Sang-Hun
    • Journal of Digital Convergence
    • /
    • v.10 no.3
    • /
    • pp.173-178
    • /
    • 2012
  • In this paper, a new saliency map generation method is discussed which extracts objects effectively using extracted Salient Region. Feature map is constructed first using four features of edge, hue of HSV color model, focus and entropy and then conspicuity map is generated from Center Surround Differences using the feature map. Final saliency map is constructed by the combination of conspicuity maps. Saliency map generated using this procedure is compared to the conventional technique and confirmed that new technique has better results.

A Complexity Metric for Web Documentation Based on Entropy (엔트로피를 기반으로한 Web 문서들의 복잡도 척도)

  • Kim, Kap-Su
    • Journal of The Korean Association of Information Education
    • /
    • v.2 no.2
    • /
    • pp.260-268
    • /
    • 1998
  • In this paper, I propose a metric model for measuring complexity of Web documentations which are wrote by HTML and XML. The complexity of Web documentation has effect on documentation understandability which is an important metric in maintenance and reusing of Web documentation. The understandable documents have more effect on WEI. The proposed metric uses the entropy to represent the degree of information flows between Web documentations. The proposed documentation complexity measures the information flows in a Web document based on the information passing relationship between Web document files. I evaluate the proposed metric by using the complexity properties proposed by Weyuker, and measure the document complexity. I show effectiveness of analyzing the correlation between the number of document file and document complexity.

  • PDF

Thermodynamic Analysis of the Diabatic Efficiency of Turbines and Compressors (터빈과 압축기의 비단열 효율에 대한 열역학적 해석)

  • Park, Kyoung Kuhn
    • Transactions of the Korean Society of Mechanical Engineers B
    • /
    • v.40 no.3
    • /
    • pp.139-148
    • /
    • 2016
  • Thermodynamic analysis is conducted on the first-order approximation model for turbines and compressors. It is shown that the adiabatic efficiency could be greater than unity, depending on the entropic mean temperature, entropy generation, thermal reservoir temperature, and heat transfer. Therefore, adiabatic efficiency applied to a diabatic control volume results in an error overestimating its performance. To resolve this overestimation, it is suggested that a reversible diabatic process be referred to as an ideal process to evaluate diabatic efficiency. The diabatic efficiency suggested in this work is proven to always be less than unity and it is smaller than the exergy efficiency in most cases. The diabatic efficiency could be used as a more general definition of efficiency, which would include adiabatic efficiency.

Text Categorization Using TextRank Algorithm (TextRank 알고리즘을 이용한 문서 범주화)

  • Bae, Won-Sik;Cha, Jeong-Won
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.16 no.1
    • /
    • pp.110-114
    • /
    • 2010
  • We describe a new method for text categorization using TextRank algorithm. Text categorization is a problem that over one pre-defined categories are assigned to a text document. TextRank algorithm is a graph-based ranking algorithm. If we consider that each word is a vertex, and co-occurrence of two adjacent words is a edge, we can get a graph from a document. After that, we find important words using TextRank algorithm from the graph and make feature which are pairs of words which are each important word and a word adjacent to the important word. We use classifiers: SVM, Na$\ddot{i}$ve Bayesian classifier, Maximum Entropy Model, and k-NN classifier. We use non-cross-posted version of 20 Newsgroups data set. In consequence, we had an improved performance in whole classifiers, and the result tells that is a possibility of TextRank algorithm in text categorization.

Analysis of Change Detection Results by UNet++ Models According to the Characteristics of Loss Function (손실함수의 특성에 따른 UNet++ 모델에 의한 변화탐지 결과 분석)

  • Jeong, Mila;Choi, Hoseong;Choi, Jaewan
    • Korean Journal of Remote Sensing
    • /
    • v.36 no.5_2
    • /
    • pp.929-937
    • /
    • 2020
  • In this manuscript, the UNet++ model, which is one of the representative deep learning techniques for semantic segmentation, was used to detect changes in temporal satellite images. To analyze the learning results according to various loss functions, we evaluated the change detection results using trained UNet++ models by binary cross entropy and the Jaccard coefficient. In addition, the learning results of the deep learning model were analyzed compared to existing pixel-based change detection algorithms by using WorldView-3 images. In the experiment, it was confirmed that the performance of the deep learning model could be determined depending on the characteristics of the loss function, but it showed better results compared to the existing techniques.