• Title/Summary/Keyword: 가중치 모델

Search Result 930, Processing Time 0.033 seconds

A Betweenness Centrality Analysis Method in Valued Workflow-supported Social Networks (가중치 워크플로우 소셜 네트워크의 사이중심도 분석방법)

  • Kim, Mee-sun;Kim, Kwang-hoon
    • Journal of Internet Computing and Services
    • /
    • v.17 no.1
    • /
    • pp.65-71
    • /
    • 2016
  • In this paper, we propose a novel analysis method and its algorithms to perform the betweenness centrality measurements on a valued and directed workflow-supported social network. The conventional workflow-supported social network model is to represent the existences of task transferring relationships among their performers by using a binary social network. However, it is necessary to consider not only the existences of task transferring relationships but also their quantities and directions in order to obtain much more effective and sophisticated analysis results. In conclusion, this paper newly defines a concept of valued and directed workflow-supported social network, and its betweenness centrality analysis method and algorithms. Especially, to verify the proposed method and algorithms, we try to apply the conventional method and the proposed method to an example workflow model respectively, and compare their betweenness centrality analysis results.

A Korean Homonym Disambiguation Model Based on Statistics Using Weights (가중치를 이용한 통계 기반 한국어 동형이의어 분별 모델)

  • 김준수;최호섭;옥철영
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.11
    • /
    • pp.1112-1123
    • /
    • 2003
  • WSD(word sense disambiguation) is one of the most difficult problems in Korean information processing. The Bayesian model that used semantic information, extracted from definition corpus(1 million POS-tagged eojeol, Korean dictionary definitions), resulted in accuracy of 72.08% (nouns 78.12%, verbs 62.45%). This paper proposes the statistical WSD model using NPH(New Prior Probability of Homonym sense) and distance weights. We select 46 homonyms(30 nouns, 16 verbs) occurred high frequency in definition corpus, and then we experiment the model on 47,977 contexts from ‘21C Sejong Corpus’(3.5 million POS-tagged eojeol). The WSD model using NPH improves on accuracy to average 1.70% and the one using NPH and distance weights improves to 2.01%.

A Dynamic Ensemble Method using Adaptive Weight Adjustment for Concept Drifting Streaming Data (컨셉 변동 스트리밍 데이터를 위한 적응적 가중치 조정을 이용한 동적 앙상블 방법)

  • Kim, Young-Deok;Park, Cheong Hee
    • Journal of KIISE
    • /
    • v.44 no.8
    • /
    • pp.842-853
    • /
    • 2017
  • Streaming data is a sequence of data samples that are consistently generated over time. The data distribution or concept can change over time, and this change becomes a factor to reduce the performance of a classification model. Adaptive incremental learning can maintain the classification performance by updating the current classification model with the weight adjusted according to the degree of concept drift. However, selecting the proper weight value depending on the degree of concept drift is difficult. In this paper, we propose a dynamic ensemble method based on adaptive weight adjustment according to the degree of concept drift. Experimental results demonstrate that the proposed method shows higher performance than the other compared methods.

An Effective Sentence Similarity Measure Method Based FAQ System Using Self-Attentive Sentence Embedding (Self-Attention 기반의 문장 임베딩을 이용한 효과적인 문장 유사도 기법 기반의 FAQ 시스템)

  • Kim, Bosung;Kim, Juae;Lee, Jeong-Eom;Kim, Seona;Ko, Youngjoong;Seo, Jungyun
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.361-363
    • /
    • 2018
  • FAQ 시스템은 주어진 질문과 가장 유사한 질의를 찾아 이에 대한 답을 제공하는 시스템이다. 질의 간의 유사도를 측정하기 위해 문장을 벡터로 표현하며 일반적으로 TFIDF, Okapi BM25와 같은 방법으로 계산한 단어 가중치 벡터를 이용하여 문장을 표현한다. 하지만 단어 가중치 벡터는 어휘적 정보를 표현하는데 유용한 반면 단어의 의미적인(semantic) 정보는 표현하기 어렵다. 본 논문에서는 이를 보완하고자 딥러닝을 이용한 문장 임베딩을 구축하고 단어 가중치 벡터와 문장 임베딩을 조합한 문장 유사도 계산 모델을 제안한다. 또한 문장 임베딩 구현 시 self-attention 기법을 적용하여 문장 내 중요한 부분에 가중치를 주었다. 실험 결과 제안하는 유사도 계산 모델은 비교 모델에 비해 모두 높은 성능을 보였고 self-attention을 적용한 실험에서는 추가적인 성능 향상이 있었다.

  • PDF

Voice Activity Detection Based on Real-Time Discriminative Weight Training (실시간 변별적 가중치 학습에 기반한 음성 검출기)

  • Chang, Sang-Ick;Jo, Q-Haing;Chang, Joon-Hyuk
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.45 no.4
    • /
    • pp.100-106
    • /
    • 2008
  • In this paper we apply a discriminative weight training employing power spectral flatness measure (PSFM) to a statistical model-based voice activity detection (VAD) in various noise environments. In our approach, the VAD decision rule is expressed as the geometric mean of optimally weighted likelihood ratio test (LRT) based on a minimum classification error (MCE) method which is different from the previous works in th at different weights are assigned to each frequency bin and noise environments depending on PSFM. According to the experimental results, the proposed approach is found to be effective for the statistical model-based VAD using the LRT.

Performance Improvement in Speech Recognition by Weighting HMM Likelihood (은닉 마코프 모델 확률 보정을 이용한 음성 인식 성능 향상)

  • 권태희;고한석
    • The Journal of the Acoustical Society of Korea
    • /
    • v.22 no.2
    • /
    • pp.145-152
    • /
    • 2003
  • In this paper, assuming that the score of speech utterance is the product of HMM log likelihood and HMM weight, we propose a new method that HMM weights are adapted iteratively like the general MCE training. The proposed method adjusts HMM weights for better performance using delta coefficient defined in terms of misclassification measure. Therefore, the parameter estimation and the Viterbi algorithms of conventional 1:.um can be easily applied to the proposed model by constraining the sum of HMM weights to the number of HMMs in an HMM set. Comparing with the general segmental MCE training approach, computing time decreases by reducing the number of parameters to estimate and avoiding gradient calculation through the optimal state sequence. To evaluate the performance of HMM-based speech recognizer by weighting HMM likelihood, we perform Korean isolated digit recognition experiments. The experimental results show better performance than the MCE algorithm with state weighting.

Study on blending radar and numerical rainfall prediction to improve hydroelectric dam inflow forecasts accuracy (발전용 댐 유입량 예측 정확도 향상을 위한 레이더와 수치예보 예측강우 병합기법 연구)

  • Seong Sim Yoon;Hongjoon Shin
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.112-112
    • /
    • 2023
  • 발전용댐의 댐 유입량 예측 및 운영을 위해서 (주)한국수력원자력에서는 수자원통합 운영시스템(Water resources Integrated System, WIOS)을 운영 중에 있다. 해당 시스템에서는 댐 유입량을 예측하기 위해서 기상청 수치예보모델 중 하나인 국지예보모델(Local Data Assimilation and Prediction System, LDAPS)의 예측강우를 수문모형의 입력자료로 활용하고 있으며, 레이더 기반의 초단시간 강우예측 기법을 자체 개발 중에 있다. 기상청 국지예보모델은 강우의 on/off에 대한 정확도는 90%를 상회할 만큼 높으나 정량적인 강우량의 정확도는 매우 낮고, 레이더 기반의 초단시간 예측 강우는 선행 1~2시간 예측에서는 정량적 정확도는 높으나, 그 이후 예측성능이 급격히 떨어지는 경향을 보인다. 따라서 댐 유입량의 정량적 예측 정확도를 확보하기 위해 초단시간 모델과 국지예보모델의 강우예측 결과를 병합(blending)하는 기법을 적용하여 초기 6시간 동안의 예측 성능을 향상시켜야 한다. 본 연구에서는 선행시간 0~6시간에 대해서 병합하는 기법들을 적용하고 평가하고자 한다. 기본적으로 병합은 초단시간 예측강우와 수치예보자료 간 가중치를 통해 수행된다. 일반적으로 초기 1시간 선행시간에서 레이더 기반 예측강우는 완벽한 예측자료(외삽 관측자료의 가중치는 1.0)로 가정하며, tanh 함수를 이용하여 선행시간의 증가에 따라 가중치를 감소시키면서, 6시간 선행시간에서는 수치예보 예측강우가 완벽한 예측자료라고 가정한다. 본 연구에서는 일반적인 병합 방법 외에 병합된 예측강우에 과거 관측강우와 예측강우의 평균편이를 적용하여 보정하는 방법, 사례별 변동성이 큰 병합된 예측강우 특성을 고려하여 병합 가중치를 신뢰도에 따라 가변시키는 방법을 적용하여 평가한다. 이를 통해 댐 유입량 예측에 최적이 되는 병합기법을 선정하고자 한다.

  • PDF

A Method for Ranking Candidate Parse Trees using Weighted Dependency Relation (가중치를 가지는 의존관계를 이용한 구문분석 후보의 순위화 방법)

  • Ryu, Jaemin;Kim, Minho;Kwon, Hyuk-Chul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.924-927
    • /
    • 2017
  • 통계 모형에 기반을 둔 구문분석기는 자료 부족 문제에 취약하거나 장거리 의존관계와 같은 특정 언어현상에 대한 처리가 어렵다는 단점이 있다. 이러한 한계점을 극복하고자 본 연구진은 규칙에 기반을 둔 한국어 구문분석기를 개발하고 있다. 다른 구문 분석기와 다르게 형태소 단위 구문분석을 시도하며 생성 가능한 모든 구문분석 후보를 보여주는 것이 특징이다. 본 연구진의 기존 연구에서 개발한 한국어 구문분석기는 형태소의 입력순서와 구문분석 후보의 생성 순서에 의존하여 구문분석 후보를 순서화하였다. 그러나 생성되는 구문분석 후보 중 가장 정답에 가까운 구문분석 후보의 순위를 낮추기 위해서는 각 구문분석 트리가 특정한 점수를 가질 필요가 있다. 본 논문에서는 품사 태거(tagger)에서 출력하는 어절별 형태소의 순위에 따른 가중치, 수식 거리에 따른 가중치, 특정한 지배-의존 관계에 대한 가중치를 이용해 가중치 합을 가지는 구문분석 후보를 구성하고 이를 정렬하여 이전 연구보다 향상된 성능을 가진 한국어 구문분석기 모델을 제안한다. 실험은 본 연구진이 직접 구축한 평가데이터를 기반으로 진행하였으며 기존의 Unlabeled Attachment Score(UAS) 87.86%에서 제안 모델의 UAS 93.34%로 약 5.48의 성능향상을 확인할 수 있었다.

LM Clustering based Dynamic LM Interpolation for ASR N-best Rescoring (언어모델 군집화와 동적 언어모델 보간을 통한 음성인식 성능 향상)

  • Chung, Euisok;Jeon, Hyung-Bae;Jung, Ho-Young;Park, Jeon-Gue
    • Annual Conference on Human and Language Technology
    • /
    • 2015.10a
    • /
    • pp.240-245
    • /
    • 2015
  • 일반영역 음성인식은 n-gram 희소성 문제로 인해 대용량의 언어모델이 필요하다. 대용량 언어모델은 분산형 모델로 구현될 수 있고, 사용자 입력에 대한 동적 언어모델 보간 기술을 통해 음성인식 성능을 개선할 수 있다. 본 논문은 동적 언어모델 보간 기술에 대한 새로운 접근방법을 시도한다. 텍스트 군집화를 통해 주제별 언어모델을 생성한다. 여기서 주제는 사용자 입력 영역에 대응한다. 본 논문은 사용자 입력에 대하여 실시간으로 주제별 언어모델의 보간 가중치 값을 계산하는 접근 방법을 제시한다. 또한 언어모델의 보간 가중치 값 계산의 부담을 감소하기 위해 언어모델 군집화를 통해 대용량 언어모델 보간 접근 방법의 연산 부담을 해소하기 위한 시도를 한다. 주제별 언어모델에 기반하고 언어모델 군집화를 통한 동적 언어모델 보간 기술의 실험 결과 음성인식 오류 감소율 6.89%를 달성했다. 또한 언어모델 군집화 기술은 음성인식 정확도를 0.09% 저하시켰을 때 실행 시간을 17.6% 개선시키는 실험결과를 보였다.

  • PDF

An Exploratory Study on Survey Data Categorization using DDI metadata (메타데이터를 활용한 조사자료의 문서범주화에 관한 연구)

  • Park, Ja-Hyun;Song, Min
    • Proceedings of the Korean Society for Information Management Conference
    • /
    • 2012.08a
    • /
    • pp.73-76
    • /
    • 2012
  • 본 연구는 DDI 메타데이터를 활용하여 귀납적 학습모델(supervised learning model)의 문서범주화 실험을 수행함으로써 조사자료의 체계적이고 효율적인 분류작업을 설계하는데 그 목적이 있다. 구체적으로 조사자료의 DDI 메타데이터를 대상으로 단순 TF 가중치, TF-IDF 가중치, Okapi TF 가중치에 따른 나이브 베이즈(Naive Bayes), kNN(k nearest neighbor), 결정트리(Decision tree) 분류기의 성능비교 실험을 하였다. 그 결과, 나이브 베이즈가 가장 좋은 성능을 보였으며, 단순 TF 가중치와 TF-IDF 가중치는 나이브 베이즈, kNN, 결정트리 분류기에서 동일한 성능을 보였으나, Okapi TF 가중치의 경우 나이브 베이즈에서 가장 좋은 성능을 보였다.

  • PDF