• 제목/요약/키워드: normalization factor

검색결과 101건 처리시간 0.026초

퍼지양자화 은닉 마르코프 모델에서 코드워드 종속거리 정규화와 Instar 형태의 퍼지 기여도에 기반한 출력확률의 평활화 (Codeword-Dependent Distance Normalization and Smoothing of Output Probalities Based on the Instar-formed Fuzzy Contribution in the FVQ-DHMM)

  • 최환진;김연준;오영환
    • 한국음향학회지
    • /
    • 제16권2호
    • /
    • pp.71-79
    • /
    • 1997
  • 본 논문에서는 FVQ-DHMM(fuzzy vector quantization-discrete hidden Markov model)에서 강인한 출력확률의 추정을 위해서 코드워드 종속 거리 정규화와 출력확률에 대한 instar 형태의 퍼지 평활화 방법을 제안한다. FVQ-DHMM은 DHMM의 변형된 모델로, 상태별 출력확률이 입력패턴에 대한 각 코드워드와의 가중치와 출력확률의 곱에 대한 합의 형태로 추정된다. FVQ-DHMM의 성능이 가중치 요소와 상태별 출력분포에 영향을 받으므로, 가중치 요소와 상태별 출력분포를 강인하게 추정하는 방법이 필요하게 된다. 실험결과, 제안된 코드워드 종속 거리 정규화(CDDN : codeword dependent distance normalization)를 적용한 방법이 기존의 FVQ-DHMM에 비해 24%의 오인식률 감소가 있었으며, 상태별 출력분포에 대해서 평활화를 적용한 경우 79%의 오식율을 감소 시킴을 알 수 있었다. 이러한 결과는 제안된 CDDN과 퍼지 평활화의 사용이 향상된 인식율을 얻는데 주요하며, 결과적으로 제안된 방법이 FVQ-HMM을 위한 강인한 출력확률의 추정을 위한 대안으로 유용함을 보여준다고 할 수 있다.

  • PDF

연속음성 인식기를 위한 벡터양자화기 기반의 화자정규화 (Vector Quantizer Based Speaker Normalization for Continuos Speech Recognition)

  • 신옥근
    • 한국음향학회지
    • /
    • 제23권8호
    • /
    • pp.583-589
    • /
    • 2004
  • 포만트 등의 음향학적인 정보를 이용하지 않는 연속음성인식 (CSR)을 위한 벡터 양자화기 기반의 화자 정규화 방법을 제안한다. 이 방법은 앞서 제안한 간단한 숫자음 인식기를 위한 화자정규화 방법을 개선한 것으로, 코드북의 크기를 증가시켜 가면서 벡터양자화기를 반복적으로 학습시킴으로써 정규화된 코드북을 구한 다음, 치를 이용하여 시험용화자의 워핑계수를 추정한다. 코드북 생성과 워핑계수 추정을 위해 모음 음소의 집합과 자음과 모음을 포함한 모든 음소의 집합 등 두 가지 음소집합을 이용i,겨 실험하였으며, 추정한 워핑계수에 상응하는 구간선형 워핑함수를 이용하여 인식기의 학습과 시험에 사용될 특징벡터를 워핑하였다. TIMIT 코퍼스와 HTK toolkit을 이용한 음소인식 실험을 수행하여 제안하는 방법의 성능을 조사한 결과, 포만트를 이용한 워핑 방법과 비슷한 성능을 가짐을 확인하였다.

부정형 전자선 조사면의 심부선량과 출력비의 계산 (Calculation of depth dose for irregularly shaped electron fields)

  • 이병구;이상록;권영호
    • 대한방사선치료학회지
    • /
    • 제14권1호
    • /
    • pp.79-84
    • /
    • 2002
  • 1.목적 : 작고 불규칙한 모양의 전자선 조사면에서 선원의 출력에 영향을 미치는 요인은 선형가속기의 collimation system, insert block diameter, energy 등이다. 때문에 이러한 조사면의 선량계산으로 LBR을 이용할 수 있는데 LBR(lateral build-up ratio)이란 동일한 incident fluence와 profile에 대해 circular field와 broad field의 선량비로서 나타낼 수 있다. 얻어진 LBR data는 elementary pencil beam 모형을 근거해 깊이와 에너지에 따른 함수(${\sigma}$)로 표현할 수 있다. 여기에서 얻어진 수식을 기초로 해서 만들어진 factor값이 작고 부정형의 전자선 조사면의 선량계산 유용성을 알아보고자 한다. 2.재료 및 방법: 심부선량은 water phantom에서 ion chamber로 측정하였다. Cerrobend와 electron applicator 에 따른 incident fluence의 변화를 알아보기 위해 Chamber를 0.5mm깊이에 놓고 측정하였다. 그리고 에너지와 electron applicator 크기에 따라 insert block diameter를 2-15cm로 변화시키며 심부선량을 측정하였고 이 값을 0.5mm 깊이에서 normalization 하였다. 이렇게 normalization 한 그래프로부터 LBR과 함수 (${\sigma}$)를 얻어했다. 3.결과 : 0.5mm 깊이에서 normalization한 심부선량-그래프로부터 LBR data와 그로부터 얻어낸 (${\sigma}$)함수 값을 기초로 하여 elementary pencil beam 모형의 깊이에 빠른 선량변화의 수식을 얻어낼 수 있었다. 4.결론 : 부정형 전자선 조사면에 대해 MU당 심부선량은 작은 circular field에서 측정된 LBR값, reference applicator와 insert block diameter 에 따른 incident fluence factor 그리고 reference broad field에서의 심부선량등 세 가지 data로 부터 계산할 수 있다. 이 방법을 이용하면 어떤 모양의 전자선 조사면에 대해서도 심부선량의 계산에 유용하다고 할 수 있다.

  • PDF

해상교통 조우데이터 요인분석에 관한 연구 (A Study on the Factor Analysis of the Encounter Data in the Maritime Traffic Environment)

  • 김광일;정중식;박계각
    • 한국지능시스템학회논문지
    • /
    • 제25권3호
    • /
    • pp.293-298
    • /
    • 2015
  • 해상교통상황에서 수집된 선박 조우(Encounter) 데이터 변수는 선박 충돌 및 근접사고(Near-Collision) 위험도를 통계적인 방법에 의한 분석이 가능하다. 본 연구에서는 선박 조우 데이터에서 추출되는 다수의 선박충돌위험도 평가 변수들을 요인분석(Factor Analysis)하여, 선박 조우데이터에서 충돌위험에 영향을 미치는 주요 요인을 결정하고자 한다. 각 요인 결정을 위해 선박조우데이터 변수 정규분포화 및 표준화를 수행한 후 주성분 분석(Principal Component Analysis)으로 요인을 결정하였다. 요인분석결과 선박 근접도 요인과 충돌회피변화요인으로 요약하였다.

A Novel Journal Evaluation Metric that Adjusts the Impact Factors across Different Subject Categories

  • Pyo, Sujin;Lee, Woojin;Lee, Jaewook
    • Industrial Engineering and Management Systems
    • /
    • 제15권1호
    • /
    • pp.99-109
    • /
    • 2016
  • During the last two decades, impact factor has been widely used as a journal evaluation metric that differentiates the influence of a specific journal compared with other journals. However, impact factor does not provide a reliable metric between journals in different subject categories. For example, higher impact factors are given to biology and general sciences than those assigned to other traditional engineering and social sciences. This study initially analyzes the trend of the time series of the impact factors of the journals listed in Journal Citation Reports during the last decade. This study then proposes new journal evaluation metrics that adjust the impact factors across different subject categories. The proposed metrics possibly provides a consistent measure to mitigate the differences in impact factors among subject categories. On the basis of experimental results, we recommend the most reliable and appropriate metric to evaluate journals that are less dependent on the characteristics of subject categories.

데이터베이스 정규화 이론을 이용한 국민건강영양조사 중 다년도 식이조사 자료 정제 및 통합 (Data Cleaning and Integration of Multi-year Dietary Survey in the Korea National Health and Nutrition Examination Survey (KNHANES) using Database Normalization Theory)

  • 권남지;서지혜;이헌주
    • 한국환경보건학회지
    • /
    • 제43권4호
    • /
    • pp.298-306
    • /
    • 2017
  • Objectives: Since 1998, the Korea National Health and Nutrition Examination Survey (KNHANES) has been conducted in order to investigate the health and nutritional status of Koreans. The food intake data of individuals in the KNHANES has also been utilized as source dataset for risk assessment of chemicals via food. To improve the reliability of intake estimation and prevent missing data for less-responded foods, the structure of integrated long-standing datasets is significant. However, it is difficult to merge multi-year survey datasets due to ineffective cleaning processes for handling extensive numbers of codes for each food item along with changes in dietary habits over time. Therefore, this study aims at 1) cleaning the process of abnormal data 2) generation of integrated long-standing raw data, and 3) contributing to the production of consistent dietary exposure factors. Methods: Codebooks, the guideline book, and raw intake data from KNHANES V and VI were used for analysis. The violation of the primary key constraint and the $1^{st}-3rd$ normal form in relational database theory were tested for the codebook and the structure of the raw data, respectively. Afterwards, the cleaning process was executed for the raw data by using these integrated codes. Results: Duplication of key records and abnormality in table structures were observed. However, after adjusting according to the suggested method above, the codes were corrected and integrated codes were newly created. Finally, we were able to clean the raw data provided by respondents to the KNHANES survey. Conclusion: The results of this study will contribute to the integration of the multi-year datasets and help improve the data production system by clarifying, testing, and verifying the primary key, integrity of the code, and primitive data structure according to the database normalization theory in the national health data.

베이지안 기법을 적용한 마이크로어레이 데이터 분류 알고리즘 설계와 구현 (The Algorithm Design and Implement of Microarray Data Classification using the Byesian Method)

  • 박수영;정채영
    • 한국정보통신학회논문지
    • /
    • 제10권12호
    • /
    • pp.2283-2288
    • /
    • 2006
  • 최근 생명 정보학 기술의 발달로 마이크로 단위의 실험조작이 가능해짐에 따라 하나의 chip상에서 전체 genome의 expression pattern을 관찰할 수 있게 되었고, 동시에 수 만개의 유전자들 간의 상호작용도 연구 가능하게 되었다. 이처럼 DNA 마이크로어레이 기술은 복잡한 생물체를 이해하는 새로운 방향을 제시해주게 되었다. 따라서 이러한 기술을 통해 얻어진 대량의 유전자 정보들을 효과적으로 분석하는 방법이 시급하다. 본 논문에서는 실험용 데이터로 하버드대학교의 바이오인포메틱스 코어 그룹의 샘플데이터 이용하여 마이크로어레이 실험에서 다양한 원인에 의해 발생하는 잡음(noise)을 줄이거나 제거하는 과정인 표준화 과정을 거쳐 특징 추출방법인 베이지안 알고리즘 ASA(Adaptive Simulated Annealing) 방법을 이용하여 데이터를 2개의 클래스로 나누고, 정확도를 평가하는 시스템을 설계하고 구현하였다. Lowess 표준화 후 98.23%의 정확도를 보였다.

러시아 철갑상어(Acipenser gueldenstaedtii) 발생 시료의 RT-qPCR 분석을 위한 내재 대조군 유전자의 선정 (Evaluation of Candidate Housekeeping Genes for the Normalization of RT-qPCR Analysis using Developing Embryos and Prolarvae in Russian Sturgeon Acipenser gueldenstaedtii)

  • 남윤권;이상윤;김은정
    • 한국수산과학회지
    • /
    • 제51권1호
    • /
    • pp.95-106
    • /
    • 2018
  • To evaluate appropriate reference genes for the normalization of quantitative reverse transcription PCR (RT-qPCR) data with embryonic and larval samples from Russian sturgeon Acipenser gueldenstaedtii, the expression stability of eight candidate housekeeping genes, including beta-actin (ACTB), elongation factor-1A (EF1A), glyceraldehyde-3-phosphate dehydrogenase (GAPDH), histone 2A (H2A), ribosomal protein L5 (RPL5), ribosomal protein L7 (RPL7), succinate dehydrogenase (SDHA), and ubiquitin-conjugating enzyme E2 (UBE2A), were tested using embryonic samples from 12 developmental stages and larval samples from 11 ontogenic stages. Based on the stability rankings from three statistic software packages, geNorm, NormFinder, and BestKeeper, the expression stability of the embryonic subset was ranked as UBE2A>H2A>SDHA>GAPDH>RPL5>EF1A>ACTB>RPL7. On the other hand, the ranking in the larval subset was determined as UBE2A>GAPDH>SDHA>RPL5>RPL7>H2A>EF1A>AC TB. When the two subsets were combined, the overall ranking was UBE2A>SDHA>H2A>RPL5>GAPDH>EF1A>ACTB>RPL7. Taken together, our data suggest that UBE2A and SDHA are recommended as suitable references for developmental and ontogenic samples of this sturgeon species, whereas traditional housekeepers such as ACTB and GAPDH may not be suitable candidates.

유전자 알고리즘을 이용한 트레이닝 최적화 기법 연구 - 정규분포를 고려한 통계적 영상분류의 경우 - (A Study on the Training Optimization Using Genetic Algorithm -In case of Statistical Classification considering Normal Distribution-)

  • 어양담;조봉환;이용웅;김용일
    • 대한원격탐사학회지
    • /
    • 제15권3호
    • /
    • pp.195-208
    • /
    • 1999
  • 위성영상 분류작업에서 분류클래스에 대한 샘플화소의 대표성은 분류 정확도에 많은 영향을 미친다. 따라서, 통계적 영상분류방법에서는 분류 기법 자체보다 분류 확률을 결정하는 트레이닝 단계, 즉 샘플화소의 최적화가 필요하다. 본 연구에서는 SPOT XS, LANDSAT TM을 이용한 위성영상 화소분류작업에서 분류 이전단계, 즉 샘플화소의 정규성을 계산하여, 정규성에 악영향을 미치는 화소를 객관적 기준으로 조정하였다. 정규화과정을 위한 유전자 알고리즘 적용의 생존확률 평가함수로 다변량 Q-Q plot의 상관계수와 트레이닝의 분산값을 고려하였으며, 5% 유의수준을 적용하였다. 연구결과, 실험대상지역의 경우, 유전자 알고리즘을 이용한 트레이닝 정규화 결과가 대부분의 클래스에 대하여 그 평균과 분산을 모집단에 근사시키고 있다는 것을 입증하였고, 해당 클래스의 모집단 분포를 예측할 수 있는 가능성을 제시하였다.

도로기상차량으로 관측한 노면온도자료를 이용한 도로살얼음 취약 구간 산정 (Estimation of Road Sections Vulnerable to Black Ice Using Road Surface Temperatures Obtained by a Mobile Road Weather Observation Vehicle)

  • 박문수;강민수;김상헌;정현채;장성빈;유동길;류성현
    • 대기
    • /
    • 제31권5호
    • /
    • pp.525-537
    • /
    • 2021
  • Black ices on road surfaces in winter tend to cause severe and terrible accidents. It is very difficult to detect black ice events in advance due to their localities as well as sensitivities to surface and upper meteorological variables. This study develops a methodology to detect the road sections vulnerable to black ice with the use of road surface temperature data obtained from a mobile road weather observation vehicle. The 7 experiments were conducted on the route from Nam-Wonju IC to Nam-Andong IC (132.5 km) on the Jungang Expressway during the period from December 2020 to February 2021. Firstly, temporal road surface temperature data were converted to the spatial data with a 50 m resolution. Then, the spatial road surface temperature was normalized with zero mean and one standard deviation using a simple normalization, a linear de-trend and normalization, and a low-pass filter and normalization. The resulting road thermal map was calculated in terms of road surface temperature differences. A road ice index was suggested using the normalized road temperatures and their horizontal differences. Road sections vulnerable to black ice were derived from road ice indices and verified with respect to road geometry and sky view, etc. It was found that black ice could occur not only over bridges, but also roads with a low sky view factor. These results are expected to be applicable to the alarm service for black ice to drivers.