• Title/Summary/Keyword: 가중치방법

Search Result 2,832, Processing Time 0.032 seconds

Performance Improvement in Speech Recognition by Weighting HMM Likelihood (은닉 마코프 모델 확률 보정을 이용한 음성 인식 성능 향상)

  • 권태희;고한석
    • The Journal of the Acoustical Society of Korea
    • /
    • v.22 no.2
    • /
    • pp.145-152
    • /
    • 2003
  • In this paper, assuming that the score of speech utterance is the product of HMM log likelihood and HMM weight, we propose a new method that HMM weights are adapted iteratively like the general MCE training. The proposed method adjusts HMM weights for better performance using delta coefficient defined in terms of misclassification measure. Therefore, the parameter estimation and the Viterbi algorithms of conventional 1:.um can be easily applied to the proposed model by constraining the sum of HMM weights to the number of HMMs in an HMM set. Comparing with the general segmental MCE training approach, computing time decreases by reducing the number of parameters to estimate and avoiding gradient calculation through the optimal state sequence. To evaluate the performance of HMM-based speech recognizer by weighting HMM likelihood, we perform Korean isolated digit recognition experiments. The experimental results show better performance than the MCE algorithm with state weighting.

ECG Identification Method Using Adaptive Weight Based LMSE Optimization (적응적 가중치를 사용한 LMSE 최적화 기반의 심전도 개인 인식 방법)

  • Kim, Seok-Ho;Kang, Hyun-Soo
    • The Journal of the Korea Contents Association
    • /
    • v.15 no.4
    • /
    • pp.1-8
    • /
    • 2015
  • This paper presents a Electrocardiogram(ECG) identification method using adaptive weight based on Least Mean Square Error(LMSE) optimization. With a preprocessing for noise suppression, we extracts the average ECG signal and its standard deviation at every time instant. Then the extracted information is stored in database. ECG identification is achieved by matching an input ECG signal with the information in database. In computing the matching scores, the standard deviation is used. The scores are computed by applying adaptive weights to the values of the input signal over all time instants. The adaptive weight consists of two terms. The first term is the inverse of the standard deviation of an input signal. The second term is the proportional one to the standard deviation between user SAECGs stored in the DB. Experimental results show up to 100% recognition rate for 32 registered people.

Determining of Weighting Factor for Two-Point Interpolation Filters (2-점 보간법 필터에서의 가중치 결정)

  • Ha, Mi Ryeong;Yoo, Hoon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2013.11a
    • /
    • pp.217-219
    • /
    • 2013
  • 본 논문은 다양한 값의 가중치간 적용한 두 포인트 보간 필터를 제안한다. 기존 방법은 선행 보간 필터에 변형 함수와 가중치를 적용한 일반선행 보간 공식을 이용해 영상의 화질을 향상시켰지만 제안된 보간법은 일반 선형 보간 공식에 가중치 값을 다양하게 적용하여 2 점 보간법에서 실질적인 가중치 결정을 제공한다. 실험 결과에서는 제안된 방법이 기존 보간법보다 더 우수한 성능을 보여주는 것을 알 수 있다.

  • PDF

Weight estimation of complex risk index using entropy (엔트로피를 이용한 복합위험지수의 가중치 산정)

  • Lee, Lim-Yeol;Kim, Duck-Gil;Kang, Na-Rae;Lee, Jong-So;Kim, Hung-Soo
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2012.05a
    • /
    • pp.408-408
    • /
    • 2012
  • 최근 기후변화 때문에 태풍, 호우 등 자연재해로 수방시설물의 피해규모가 커지고 있으며 이러한 피해는 단일 재해요인이 아닌 여러 재해요인이 복합적으로 작용하여 발생하고 있다. 그러므로 도시의 안전성과 방재기능을 확보하기 위해서는 복합위험요소를 고려한 재해위험도의 진단 기술 및 종합적인 재해경감대책 수립을 위한 연구가 필요한 실정이다. 복합위험요소를 고려한 재해위험도 및 재해경감대책을 수립하기 위해서는 도시재해를 유발하는 다양한 요인들이 도시재해에 미치는 영향과 재해요인 중에서 어떠한 재해요인이 도시재해에 더 큰 영향을 미치는지에 대한 검토가 필요하다. 이에 본 연구에서는 정보전달 이론 중의 하나인 엔트로피 방법을 이용하여 복합위험요소를 고려하여 도시지역에 대한 재해위험도를 나타내는 복합위험지수의 가중치를 산정하고자 하였다. 복합위험지수의 가중치는 지표별 속성정보를 추출하여 정규화 과정을 거친 후, 속성별 엔트로피를 산정하여 지표별로 산정된다. 엔트로피 방법에 따라 산정된 가중치는 다른 가중치 산정 방법에 따라 산정된 가중치와의 비교 분석을 통하여 타당성을 검토할 것이며, 이렇게 산정된 가중치를 복합위험지수 산정에 적용한다면, 보다 현실성 있는 도시재해 위험성 또는 취약성 지수로 활용될 수 있을 것으로 판단된다.

  • PDF

Distributed Algorithm for Maximal Weighted Independent Set Problem in Wireless Network (무선통신망의 최대 가중치 독립집합 문제에 관한 분산형 알고리즘)

  • Lee, Sang-Un
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.19 no.5
    • /
    • pp.73-78
    • /
    • 2019
  • This paper proposes polynomial-time rule for maximum weighted independent set(MWIS) problem that is well known NP-hard. The well known distributed algorithm selects the maximum weighted node as a element of independent set in a local. But the merged independent nodes with less weighted nodes have more weights than maximum weighted node are frequently occur. In this case, existing algorithm fails to get the optimal solution. To deal with these problems, this paper constructs maximum weighted independent set in local area. Application result of proposed algorithm to various networks, this algorithm can be get the optimal solution that fail to existing algorithm.

The design method for a vector codebook using a variable weight and employing an improved splitting method (개선된 미세분할 방법과 가변적인 가중치를 사용한 벡터 부호책 설계 방법)

  • Cho, Che-Hwang
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.39 no.4
    • /
    • pp.462-469
    • /
    • 2002
  • While the conventional K-means algorithms use a fixed weight to design a vector codebook for all learning iterations, the proposed method employs a variable weight for learning iterations. The weight value of two or more beyond a convergent region is applied to obtain new codevectors at the initial learning iteration. The number of learning iteration applying a variable weight must be decreased for higher weight value at the initial learning iteration to design a better codebook. To enhance the splitting method that is used to generate an initial codebook, we propose a new method, which reduces the error between a representative vector and the member of training vectors. The method is that the representative vector with maximum squared error is rejected, but the vector with minimum error is splitting, and then we can obtain the better initial codevectors.

Component Extraction Method Using Weight Analysis between Use Cases and Classes (Use Case 및 클래스의 가중치 분석에 의한 컴포넌트 추출 기법)

  • Yu, Yeong-Ran;Kim, Su-Dong
    • Journal of KIISE:Software and Applications
    • /
    • v.28 no.8
    • /
    • pp.537-549
    • /
    • 2001
  • 소프트웨어의 생산성과 유지보수 비용을 줄여줄 수 있는 기법으로 다양한 컴포넌트 기반의 개발 방법론이 제안되고 있다. 그러나 컴포넌트 기반의 시스템에서 재사용성과 독립성이 높은 컴포넌트의 식별은 가장 중요한 성공 요소 중의 하나임에도 불구하고, 대부분의 컴포넌트 기반 방법론들에서는 직관적이고 분석자의 경험에 의존적인 컴포넌트 식별 방법만을 제공하고 있을 따름이다. 본 논문에서는 분석 단계의 산출물인 시스템의 기능 모델 Use Case 모델과 자료 모델인 클래스 모델에 기반 하여 체계적인 컴포넌트 식별 기법과 지침들을 제안한다. 먼저 클래스에 대한 Use Case의 자료 접근값을 정의하고, 정의된 접근값을 기반으로 Use Case별로 접근되는 클래스의 가중치와 클래스별 동일 접근값을 가지는 Use Case들의 가중치를 계산하다. 두 가중치를 곱하여 최종적인 Use Case&클래스 가중치를 계산하여 후보 컴포넌트 식별의 기준으로 삼는다.

  • PDF

Discovery of Frequent Traversal Patterns on Weighted Graph with Priority (중요도를 고려한 가중치 그래프에서의 빈발 순회패턴 탐사)

  • Lee Seong-Dae;Park Hyu-Chan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.169-171
    • /
    • 2005
  • 그래프를 사용하는 데이터 표현법은 직$\cdot$간접적으로 실세계를 표현하는 다양한 데이터 모델 중에서 가장 일반화된 방법으로 알려져 있다. 기본적으로 그래프는 정점과 간선으로 구성되며, 정점과 간선은 그 중요도나 운영 목적에 따라 다양한 가중치가 부여될 수 있다. 특히, 이러한 그래프를 순회하는 트랜잭션들로부터 중요한 순회패턴을 탐사하는 것은 흥미로운 일이다. 본 논문에서는, 정점과 간선에 가중치가 있고 방향성을 가진 기반 그래프가 주어졌을 때, 그 그래프를 순회하는 트랜잭션들로부터 가중치를 고려하여 빈발 순회패턴을 탐사하는 방법을 제안한다. 또한, 이렇게 탐사한 결과에 가중치를 고려한 중요도를 평가하여 빈발 순회패턴들 간의 우선순위를 결정할 수 있도록 한다. 이 과정에서 발생할 수 있는 트랜잭션 노이즈는 기반 그래프의 간선 가중치의 평균과 표준편차를 이용하여 제거함으로써 보다 신뢰성 있는 빈발 순회패턴을 탐사할 수 있다. 제안한 논문은 웹 로그 마이닝 등 그래프를 이용하는 다양한 응용 분야에 적용할 수 있을 것이다.

  • PDF

Implement of Relevance Feedback in "MIRINE" Information Retrieval System ("미리내" 정보검색 시스템에서 Relevance Feedback 구현)

  • Park, Su-Hyun;Park, Se-Jin;Kwon, Hyuk-Chul
    • Annual Conference on Human and Language Technology
    • /
    • 1997.10a
    • /
    • pp.65-71
    • /
    • 1997
  • 이 논문은 부산대학교 전자계산학과 인공지능 연구실에서 개발한 정보검색 시스템 "미리내"의 적합성 피드백 방법을 분석하고, 그 방법들의 검색 효율을 비교 분석하였다. "미리내"에서 질의문은 자연언어 질의문을 사용하고 재검색을 위한 적합성 피드백은 원질의문에서 검색된 문서 중 이용자가 직접 선택한 적합 문서에서 추출한다. 적합성 피드백은 크게 단어 확장(Term Expansion)을 위한 단어 선택 방법과 추가될 단어에 가중치를 부여하는 단어 가중치 부여(Term Weighting)의 2가지 요소로 이루어진다. 단어 선택을 위해서는 적합 문서에 나타난 단어 빈도합(tf), 역문헌빈도(idf), 적합 문서 중에서 해당 단어가 있는 적합 문서의 비율(r/R) 등의 정보를 이용한다. 단어 가중치 부여 방법으로는 정규화 또는 코사인 함수를 이용하여 부여하였다. 단어확장에는 tfidf가 tfidf(r/R)보다 정확도 면에서 나은 향상율을 보였으나, 30위 내 검색된 적합문서의 수를 비교해 보았을 때 tfidf(r/R)의 정확도가 높았다. 단어 선택 방법에서 계산된 값을 정규화하여 가중치를 부여하였을 때 보다 코사인 함수를 이용하여 가중치를 부여하였을 때 정확도가 높았다. 실험은 KT-Set 2.0 (4391 건), 동아일보 96 년 신문기사(70459 건)를 대상으로 수행하였다.

  • PDF

Gradient Descent Approach for Value-Based Weighting (점진적 하강 방법을 이용한 속성값 기반의 가중치 계산방법)

  • Lee, Chang-Hwan;Bae, Joo-Hyun
    • The KIPS Transactions:PartB
    • /
    • v.17B no.5
    • /
    • pp.381-388
    • /
    • 2010
  • Naive Bayesian learning has been widely used in many data mining applications, and it performs surprisingly well on many applications. However, due to the assumption that all attributes are equally important in naive Bayesian learning, the posterior probabilities estimated by naive Bayesian are sometimes poor. In this paper, we propose more fine-grained weighting methods, called value weighting, in the context of naive Bayesian learning. While the current weighting methods assign a weight to each attribute, we assign a weight to each attribute value. We investigate how the proposed value weighting effects the performance of naive Bayesian learning. We develop new methods, using gradient descent method, for both value weighting and feature weighting in the context of naive Bayesian. The performance of the proposed methods has been compared with the attribute weighting method and general Naive bayesian, and the value weighting method showed better in most cases.