• Title/Summary/Keyword: 최대엔트로피

Search Result 167, Processing Time 0.024 seconds

Estimation of Rivers Discharge by Probabilistic Velocity Function Considering Hydraulic Characteristics (하천 수리특성을 고려한 확률론적 유속공식에 의한 하천유량 산정)

  • Choo, Tai Ho;Lee, Sang Jin;Park, Sang Woo;Oh, Ryun Su
    • KSCE Journal of Civil and Environmental Engineering Research
    • /
    • v.29 no.6B
    • /
    • pp.537-542
    • /
    • 2009
  • To improve stage-discharge curve equation considering water level's function, this study suggested the method that can efficiently compute rivers discharge based on hydraulic characteristics such as river width, area, channel bed slope and entropy concept adopting probabilistic approach. This scheme is proposed to estimate discharge from the velocity formulation based on the entropy function in the equilibrium state derived from the relation between mean and maximum flow velocity. It has been tested using field and laboratory hydraulic data collected from the Alberta university in Canada. As a result it was found that the method proposed in this study was more efficient and accurate comparing with the traditional stage-discharge curve equation.

A New Method for Improving Performance in ACE Relation Detect ion and Characterization (ACE 관계 추출과 특징화 과정에서 성능 향상을 위한 새로운 방법(1))

  • Kim, Kyung-Duk;Kim, Seok-Hwan;Lee, Gray Geun-Bae;Cha, Jeong-Won
    • Annual Conference on Human and Language Technology
    • /
    • 2005.10a
    • /
    • pp.1-6
    • /
    • 2005
  • 텍스트 기반 문서의 급증으로 인해 정보 추출 기술이 더욱 중요해지고 있다 특히 최근에 활발한 연구가 진행되고 있는 개체 간 관계 추출 기술은 정보검색과 질의응답 등 많은 분야에 걸쳐 활용될 수 있는 기술이다 본 논문은 기존의 자질 기반 관계 추출 시스템의 재현율을 향상시키기 위해 WHISK 알고리즘을 도입한 시스템에 관한 것이다. WHISK 알고리즘은 문장으로부터 관계에 참여하는 개체 쌍을 추출하는 규칙을 자동으로 학습한다. 그리고 시스템은 최대 엔트로피 모델을 이용하여 WHISK에 의해 추출된 개체 쌍에 적합한 관계 유형을 파악해 낸다. 본 논문은 시스템에 사용된 WHISK 알고리즘과 최대 엔트로피 모델에 대해서 알아보고, 실제로 WHISK 알고리즘을 도입하여 관계를 가지는 개체 쌍을 추출하여 문제를 해결했을 때 어느 정도의 성능 향상이 있는지 알아본다.

  • PDF

Techniques for improving performance of POS tagger based on Maximum Entropy Model (최대 엔트로피 모텔 기반 품사 태거의 성능 향상 기법)

  • Cho, Min-Hee;Kim, Myoung-Sun;Park, Jae-Han;Park, Eui-Kyu;Ra, Dong-Yul
    • Annual Conference on Human and Language Technology
    • /
    • 2004.10d
    • /
    • pp.73-81
    • /
    • 2004
  • 한국어에서의 품사 결정 문제는 형태론적 중의성 문제도 있지만, 영어에는 발생하지 않는 동품사 중의성 문제로 더 까다롭다. 이러한 문제들은 어휘 문맥을 고려하지 않고서는 해결하기 어렵다. 통계 자료 부족 문제에 쉽게 대처하는 모델이 필요하며 문맥에 따른 품사를 결정하고자 할 때 서로 다른 형태의 여러 가지 어휘 문맥 정보를 반영할 수 있는 모델이 필요하다. 본 논문에서는 이런 점에 가장 적합한 최대 엔트로피(maximum entropy : ME) 모델을 품사태깅 작업에 이용하는 문제에 대해 다룬다. 어휘 문맥 정보를 이용하기 위한 자질함수가 매우 많아지는 문제에 대처하기 위해 필요에 따라 어휘 문맥 정보를 사전화 한다. 본 시스템의 특징으로는 어절 단위 품사 태깅을 위한 처리 기법. 어절의 형태소 분석열에 대한 어절 내부 확률 계산. ME 모델의 정규화 과정 생략에 의한 성능 향상, 디코딩 경로의 확장과 같은 점들이 있다. 실험을 통하여 본 연구의 기법이 높은 성능의 시스템을 달성할 수 있음을 알게 되었다.

  • PDF

Korean Noun Phrase Identification using Maximum Entropy Method (최대 엔트로피 모델을 이용한 한국어 명사구 추출)

  • Kang, In-Ho;Jeon, Su-Young;Kim, Gil-Chang
    • Annual Conference on Human and Language Technology
    • /
    • 2000.10d
    • /
    • pp.127-132
    • /
    • 2000
  • 본 논문에서는 격조사의 구문적인 특성을 이용하여, 수식어까지 포함한 명사구 추출 방법을 연구한다. 명사구 판정을 위해 연속적인 형태소열을 문맥정보로 사용하던 기존의 방법과 달리, 명사구의 처음과 끝 그리고 명사구 주변의 형태소를 이용하여 명사구의 수식 부분과 중심 명사를 문맥정보로 사용한다. 다양한 형태의 문맥정보들은 최대 엔트로피 원리(Maximum Entropy Principle)에 의해 하나의 확률 분포로 결합된다. 본 논문에서 제안하는 명사구 추출 방법은 먼저 구문 트리 태깅된 코퍼스에서 품사열로 표현되는 명사구 문법 규칙을 얻어낸다. 이렇게 얻어낸 명사구 규칙을 이용하여 격조사와 인접한 명사구 후보들을 추출한다. 추출된 각 명사구 후보는 학습 코퍼스에서 얻어낸 확률 분포에 기반하여 명사구로 해서될 확률값을 부여받는다. 이 중 제일 확률값이 높은 것을 선택하는 형태로 각 격조사와 관계있는 명사구를 추출한다. 본 연구에서 제시하는 모델로 실험을 한 결과 평균 4.5개의 구를 포함하는 명사구를 추출할 수 있었다.

  • PDF

ME-based Emotion Recognition Model (ME 기반 감성 인식 모델)

  • Park, So-Young;Kim, Dong-Geun;Whang, Min-Cheol
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2010.05a
    • /
    • pp.985-987
    • /
    • 2010
  • In this paper, we propose a maximum entropy-based emotion recognition model using individual average difference. In order to accurately recognize an user' s emotion, the proposed model utilizes the difference between the average of the given input physiological signals and the average of each emotion state' signals rather than only the input signal. For the purpose of alleviating data sparse -ness, the proposed model substitutes two simple symbols such as +(positive number)/-(negative number) for every average difference value, and calculates the average of physiological signals based on a second rather than the longer total emotion response time. With the aim of easily constructing the model, it utilizes a simple average difference calculation technique and a maximum entropy model, one of well-known machine learning techniques.

  • PDF

Rule-Based Classification Analysis Using Entropy Distribution (엔트로피 분포를 이용한 규칙기반 분류분석 연구)

  • Lee, Jung-Jin;Park, Hae-Ki
    • Communications for Statistical Applications and Methods
    • /
    • v.17 no.4
    • /
    • pp.527-540
    • /
    • 2010
  • Rule-based classification analysis is widely used for massive datamining because it is easy to understand and its algorithm is uncomplicated. In this classification analysis, majority vote of rules or weighted combination of rules using their supports are frequently used in order to combine rules. We propose a method to combine rules by using the multinomial distribution in this paper. Iterative proportional fitting algorithm is used to estimate the multinomial distribution which maximizes entropy constrained on rules' support. Simulation experiments show that this method can compete with other well known classification models in the case of two similar populations.

A Robust Sequential Preprocessing Scheme for Efficient Lossless Image Compression (영상의 효율적인 무손실 압축을 위한 강인한 순차적 전처리 기법)

  • Kim, Nam-Yee;You, Kang-Soo;Kwak, Hoon-Sung
    • Journal of Internet Computing and Services
    • /
    • v.10 no.1
    • /
    • pp.75-82
    • /
    • 2009
  • In this paper, we propose a robust preprocessing scheme for entropy coding in gray-level image. The issue of this paper is to reduce additional information needed when bit stream is transmitted. The proposed scheme uses the preprocessing method of co-occurrence count about gray-levels in neighboring pixels. That is, gray-levels are substituted by their ranked numbers without additional information. From the results of computer simulation, it is verified that the proposed scheme could be reduced the compression bit rate by up to 44.1%, 37.5% comparing to the entropy coding and conventional preprocessing scheme respectively. So our scheme can be successfully applied to the application areas that require of losslessness and data compaction.

  • PDF

Registration and Visualization of Medical Image Using Conditional Entropy and 3D Volume Rendering (조건부 엔트로피와 3차원 볼륨 렌더링기법을 이용한 의료영상의 정합과 가시화)

  • Kim, Sun-Worl;Cho, Wan-Hyun
    • Communications for Statistical Applications and Methods
    • /
    • v.16 no.2
    • /
    • pp.277-286
    • /
    • 2009
  • Image registration is a process to establish the spatial correspondence between images of the same scene, which are acquired at different view points, at different times, or by different sensors. In this paper, we introduce a robust brain registration technique for correcting the difference between two temporal images by the different coordinate systems in MR and CT image obtained from the same patient. Two images are registered where this measure is minimized using a modified conditional entropy(MCE: Modified Conditional Entropy) computed from the joint histograms for the intensities of two given images, we conduct the rendering for visualization of 3D volume image.

A Rate and Distortion Estimation Scheme for HEVC Hardware Implementation (하드웨어 구현에 적합한 HEVC 의 CU 단위 율 및 왜곡 예측 방법)

  • Lee, Busmhik;Kim, Munchurl
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2014.11a
    • /
    • pp.15-17
    • /
    • 2014
  • 본 논문에서는 하드웨어의 제한된 자원을 이용하여 HEVC 코덱을 구현할 때 DCT 와 엔트로피 부호화를 사용하지 않고 율 및 왜곡값을 예측하여 고효율의 부호화를 수행하는 방법에 대하여 제안한다. HEVC 는 기존의 부호화기에 비하여 계층적 부호화 구조와 함께 큰 블록 크기를 갖는 DCT 와 엔트로피 부호화를 반복적으로 수행하기 때문에 하드웨어 구현 시 그 복잡도가 매우 크게 증가한다. 먼저 DCT 는 하다마드변환 행렬과 또 다른 정규 직교 변환 행렬의 곱으로 표현될 수 있는 성질을 이용하여 부호화 변환 시 생성된 하드마드변환 행렬에 저복잡도의 정규 직교 변환 행렬을 곱하여 DCT 변환 계수를 생성한 후 변환 및 양자화를 수행한다. 왜곡값의 경우, 이 때 생성된 양자화 계수와 변환 계수 간의 차이를 변환도메인에서 제곱합을 이용하여 계산하여 역변환을 생략함으로써 복잡도를 감소시킬 수 있다. 또한 텍스처에 대한 비트율 예측은 각 CU 블록내의 양자화 계수의 수를 더하여 계산하여 엔트로피를 수행하지 않고 예측할 수 있다. 그리고 비 텍스처에 대한 비트율 예측의 경우 움직임벡터의 비트에 대한 Pseudo CABAC 코드를 수행하여 예측할 수 있다. 이러한 저 복잡도의 텍스처 및 비텍스처 비트와 왜곡을 예측함으로써 하다마드변환만을 이용하여 부호화하였을 때에 비해 최대 33%의 비트율 감소를 얻을 수 있었다.

  • PDF

Improving a Test for Normality Based on Kullback-Leibler Discrimination Information (쿨백-라이블러 판별정보에 기반을 둔 정규성 검정의 개선)

  • Choi, Byung-Jin
    • The Korean Journal of Applied Statistics
    • /
    • v.20 no.1
    • /
    • pp.79-89
    • /
    • 2007
  • A test for normality introduced by Arizono and Ohta(1989) is based on fullback-Leibler discrimination information. The test statistic is derived from the discrimination information estimated using sample entropy of Vasicek(1976) and the maximum likelihood estimator of the variance. However, these estimators are biased and so it is reasonable to make use of unbiased estimators to accurately estimate the discrimination information. In this paper, Arizono-Ohta test for normality is improved. The derived test statistic is based on the bias-corrected entropy estimator and the uniformly minimum variance unbiased estimator of the variance. The properties of the improved KL test are investigated and Monte Carlo simulation is performed for power comparison.