• 제목/요약/키워드: dimension reduction method

검색결과 251건 처리시간 0.024초

Intensive comparison of semi-parametric and non-parametric dimension reduction methods in forward regression

  • Shin, Minju;Yoo, Jae Keun
    • Communications for Statistical Applications and Methods
    • /
    • 제29권5호
    • /
    • pp.615-627
    • /
    • 2022
  • Principal Fitted Component (PFC) is a semi-parametric sufficient dimension reduction (SDR) method, which is originally proposed in Cook (2007). According to Cook (2007), the PFC has a connection with other usual non-parametric SDR methods. The connection is limited to sliced inverse regression (Li, 1991) and ordinary least squares. Since there is no direct comparison between the two approaches in various forward regressions up to date, a practical guidance between the two approaches is necessary for usual statistical practitioners. To fill this practical necessity, in this paper, we newly derive a connection of the PFC to covariance methods (Yin and Cook, 2002), which is one of the most popular SDR methods. Also, intensive numerical studies have done closely to examine and compare the estimation performances of the semi- and non-parametric SDR methods for various forward regressions. The founding from the numerical studies are confirmed in a real data example.

음성구간 검출기의 실시간 적응화를 위한 음성 특징벡터의 차원 축소 방법 (Dimension Reduction Method of Speech Feature Vector for Real-Time Adaptation of Voice Activity Detection)

  • 박진영;이광석;허강인
    • 융합신호처리학회논문지
    • /
    • 제7권3호
    • /
    • pp.116-121
    • /
    • 2006
  • 본 논문에서는 다양한 잡음환경에서의 실시간 적응화 기법을 적용하기 위한 선결 과제로 다차원 음성 특정 벡터를 저차원으로 축소하는 방법을 제안한다. 제안된 방법은 특징 벡터를 확률 우도 값으로 매핑시켜 비선형적으로 축소하는 방법으로 음성 / 비음성의 분류는 우도비 검증 (Likelihood Ratio Test; LRT) 을 이용하여 분류하였다. 실험 결과 고차원 특징 벡터를 이용하여 분류한 결과와 대등하게 분류됨을 확인할 수 있었다. 그리고, 제안된 방법에 의해 검출된 음성 데이터를 이용한 음성인식 실험에서도 10차 MFCC(Mel-Frequency Cepstral Coefficient)를 사용하여 분류한 경우와 대등한 인식률을 보여주었다.

  • PDF

단변수 차원 감소법을 이용한 제작 공차가 유도전동기 성능에 미치는 영향력 분석 (Analysis of the Effect of Manufacturing Tolerance on Induction Motor Performance by Univariate Dimension Reduction Method)

  • 이상균;강병수;백종현;김동훈
    • 한국자기학회지
    • /
    • 제25권6호
    • /
    • pp.203-207
    • /
    • 2015
  • 본 논문에서는 전동기 제작과정에서 발생하는 제작공차가 유도전동기 성능에 미치는 영향력을 분석하기 위하여 확률론적 해석기법을 도입하였다. 단변수 차원 감소법을 사용하여 특정한 확률분포를 갖는 설계변수에 의해 발생하는 성능함수의 확률분포 특성을 예측하였다. 또한 확률성능함수의 평균과 분산의 민감도 정보를 도출함으로써 개별 설계변수의 임의성이 확률성능함수의 분포에 미치는 영향력을 분석하였다. 제안된 기법은 간단한 수학예제와 유도전동기 모델에 적용하여 그 효율성과 정밀도를 검증하였다.

신뢰성 기반 최적설계의 효율성 향상을 위한 차원감소법의 적분직교점 선정 기법 (A Technique for Selecting Quadrature Points for Dimension Reduction Method to Improve Efficiency in Reliability-based Design Optimization)

  • 김하영;조현규
    • 한국전산구조공학회논문집
    • /
    • 제37권3호
    • /
    • pp.217-224
    • /
    • 2024
  • 본 논문에서는 신뢰성 기반 최적설계(RBDO)에서 성능함수의 비선형성을 고려한 효율적인 차원감소법(DRM)을 제안한다. 차원감소법은 적분직교점과 가중치를 사용하여 1차 신뢰도법(FORM) 보다 더 정확하게 신뢰도를 평가하는 반면 성능함수를 추가로 해석해야하기 때문에 적분직교점의 개수가 증가하면 효율성이 저해된다. 본 논문에서는 신뢰성 기반 최적설계에서 성능함수의 비선형도를 평가하고, 비선형도에 따라 적분직교점의 수를 결정하는 기준을 제안한다. 이를 통해 신뢰성 기반 최적설계가 진행될 때 반복마다 적분직교점의 수를 조절하여 차원감소법의 정확도는 유지하면서 계산의 효율성은 개선하는 방안을 제안한다. 성능함수의 비선형도 평가는 최대가능목표점(MPTP) 탐색에 사용한 벡터 사이의 각도를 통해 이루어지며, 수치 테스트를 통해 비선형도에 따른 적절한 적분직교점의 수를 도출하였다. 2차원 수치예제를 통해 개발된 방법이 차원감소법이나 몬테카를로 시뮬레이션(MCS)의 정확도는 유지하면서 효율성이 향상된다는 것을 확인하였다.

통계적 비선형 차원축소기법에 기반한 잡음 환경에서의 음성구간검출 (Voice Activity Detection in Noisy Environment based on Statistical Nonlinear Dimension Reduction Techniques)

  • 한학용;이광석;고시영;허강인
    • 한국정보통신학회논문지
    • /
    • 제9권5호
    • /
    • pp.986-994
    • /
    • 2005
  • 본 논문은 잡음 환경하에서 적응 가능한 음성구간검출를 구축하기 위하여 우도기반의 음성 특징 파라미터의 비선형 차원축소 방법을 제안한다. 제안하는 차원축소 방법은 음성/비음성 클래스에 대한 가우시아 확률 밀도 함수의 비선형적 우도값을 새로운 특징으로 취하는 방법이다. 음성구간검출기의 음성/비음성 결정은 우도비 검증(LRT)의 통계적 방법을 이용하며, 선형판별분석(LDA)에 의한 차원축소 결과와 성능을 비교한다. 실험 결과 제안된 차원 축소 방법으로 음성 특징 파라미터를 2차원으로 축소한 결과가 원래 특징백터의 차원에서의 결과와 대등한 성능을 확인하였다.

Value at Risk의 사후검증을 통한 다변량 시계열자료의 차원축소 방법의 비교: 사례분석 (Comparison of Dimension Reduction Methods for Time Series Factor Analysis: A Case Study)

  • 이대수;송성주
    • 응용통계연구
    • /
    • 제24권4호
    • /
    • pp.597-607
    • /
    • 2011
  • 금융자산에의 투자에서 리스크 관리의 중요성이 부각되면서 리스크를 측정할 수 있는 도구로서 Value at Risk (VaR)가 널리 각광을 받고 있다. Value at Risk는 주어진 신뢰수준에서 목표기간 동안 발생 가능한 최대손실로 정의되는데 몇 가지 한계점이 있지만 비교적 간단하게 계산되고 이해될 수 있다는 장점이 있어 리스크 측정 및 관리의 기본적인 측도로 이용되고 있다. 그러나 포트폴리오에 포함되는 자산의 숫자가 많아지는 경우 VaR을 계산하는 데에 필수적인 변동성 추정이 매우 어려워지게 된다. 이때 차원축소의 방법을 생각할 수 있는데, 전통적인 인자분석은 시계열자료에 적합한 방법이 아니기 때문에 직접 적용할 수 없고 자료의 자기상관성을 제거하는 방법이 선행되어야 한다. 본 논문에서는 인자분석의 확장 형태인 시계열인자분석을 활용하여 시계열자료의 차원축소과정을 간결하게 하는 방법을 제시하고, 시계열인자분석으로 차원을 축소할 때 기존의 방법을 사용하는 것과 어떠한 차이가 있는지를 실제 금융자료를 이용한 VaR의 사후검증을 통해 분석하였다.

다중해상도 알고리즘을 이용한 자동 해석모델 생성 (Automatic Generation of Analysis Model Using Multi-resolution Modeling Algorithm)

  • 김민철;이건우;김성찬
    • 한국CDE학회논문집
    • /
    • 제11권3호
    • /
    • pp.172-182
    • /
    • 2006
  • This paper presents a method to convert 3D CAD model to an appropriate analysis model using wrap-around, smooth-out and thinning operators that have been originally developed to realize the multi-resolution modeling. Wrap-around and smooth-out operators are used to simplify 3D model, and thinning operator is to reduce the dimension of a target object with simultaneously decomposing the simplified 3D model to 1D or 2D shapes. By using the simplification and dimension-reduction operations in an appropriate way, the user can generate an analysis model that matches specific applications. The advantage of this method is that the user can create optimized analysis models of various simplification levels by selecting appropriate number of detailed features and removing them.

Face recognition by PLS

  • Baek, Jang-Sun
    • 한국통계학회:학술대회논문집
    • /
    • 한국통계학회 2003년도 추계 학술발표회 논문집
    • /
    • pp.69-72
    • /
    • 2003
  • The paper considers partial least squares (PLS) as a new dimension reduction technique for the feature vector to overcome the small sample size problem in face recognition. Principal component analysis (PCA), a conventional dimension reduction method, selects the components with maximum variability, irrespective of the class information. So PCA does not necessarily extract features that are important for the discrimination of classes. PLS, on the other hand, constructs the components so that the correlation between the class variable and themselves is maximized. Therefore PLS components are more predictive than PCA components in classification. The experimental results on Manchester and ORL databases show that PLS is to be preferred over PCA when classification is the goal and dimension reduction is needed.

  • PDF

Comparison of Methods for Reducing the Dimension of Compositional Data with Zero Values

  • Song, Taeg-Youn;Choi, Byung-Jin
    • Communications for Statistical Applications and Methods
    • /
    • 제19권4호
    • /
    • pp.559-569
    • /
    • 2012
  • Compositional data consist of compositions that are non-negative vectors of proportions with the unit-sum constraint. In disciplines such as petrology and archaeometry, it is fundamental to statistically analyze this type of data. Aitchison (1983) introduced a log-contrast principal component analysis that involves logratio transformed data, as a dimension-reduction technique to understand and interpret the structure of compositional data. However, the analysis is not usable when zero values are present in the data. In this paper, we introduce 4 possible methods to reduce the dimension of compositional data with zero values. Two real data sets are analyzed using the methods and the obtained results are compared.

More on directional regression

  • Kim, Kyongwon;Yoo, Jae Keun
    • Communications for Statistical Applications and Methods
    • /
    • 제28권5호
    • /
    • pp.553-562
    • /
    • 2021
  • Directional regression (DR; Li and Wang, 2007) is well-known as an exhaustive sufficient dimension reduction method, and performs well in complex regression models to have linear and nonlinear trends. However, the extension of DR is not well-done upto date, so we will extend DR to accommodate multivariate regression and large p-small n regression. We propose three versions of DR for multivariate regression and discuss how DR is applicable for the latter regression case. Numerical studies confirm that DR is robust to the number of clusters and the choice of hierarchical-clustering or pooled DR.