• 제목/요약/키워드: two-step selection

검색결과 188건 처리시간 0.024초

H.264/AVC에서 빠른 부호화를 위한 3단계 모드 선택 기법 (A Three-Step Mode Selection Algorithm for Fast Encoding in H.264/AVC)

  • 전현기;김성민;강진미;정기동
    • 한국멀티미디어학회논문지
    • /
    • 제11권2호
    • /
    • pp.163-174
    • /
    • 2008
  • H.264/AVC는 최신의 비디오 코딩 표준으로, MPEG-2나 MPEG-4에 비해 50% 정도의 높은 압축 효율을 가지고 있다. H.264/AVC에 포함된 여러 기술 중에서 다양한 모드를 이용한 부호화 기능은 높은 압축률이 가능한 기술이지만, 부호화 과정을 복잡하게 만드는 큰 요인이기도 하다. 이러한 단점을 개선하기 위해서 본 논문에서는 H.264/AVC에서 빠른 부호화를 위한 3단계 모드 선택 기법을 제안한다. 1단계에서는 시간적 공간적 상관성을 고려하여 SKIP 모드 또는 INTER 모드를 선택한다. 2단계에서는 1단계의 결과가 INTER일 경우 세부모드들을 2개의 그룹으로 나누어 그 중에서 하나의 그룹을 선택한다. 3단계에서는 2단계에서 선택된 그룹에 따라 오차 매크로블록의 픽셀 값 방향성 또는 주변 매크로블록의 모드를 고려하여 최종 모드를 선택한다. 제안한 기법의 성능을 실험한 결과, 기존의 JM10.2 표준과 비교했을 때, 적은 PSNR의 저하와 적은 비트율의 상승으로 평균 42%의 부호화 시간을 단축하였다.

  • PDF

Comparison of genome-wide association and genomic prediction methods for milk production traits in Korean Holstein cattle

  • Lee, SeokHyun;Dang, ChangGwon;Choy, YunHo;Do, ChangHee;Cho, Kwanghyun;Kim, Jongjoo;Kim, Yousam;Lee, Jungjae
    • Asian-Australasian Journal of Animal Sciences
    • /
    • 제32권7호
    • /
    • pp.913-921
    • /
    • 2019
  • Objective: The objectives of this study were to compare identified informative regions through two genome-wide association study (GWAS) approaches and determine the accuracy and bias of the direct genomic value (DGV) for milk production traits in Korean Holstein cattle, using two genomic prediction approaches: single-step genomic best linear unbiased prediction (ss-GBLUP) and Bayesian Bayes-B. Methods: Records on production traits such as adjusted 305-day milk (MY305), fat (FY305), and protein (PY305) yields were collected from 265,271 first parity cows. After quality control, 50,765 single-nucleotide polymorphic genotypes were available for analysis. In GWAS for ss-GBLUP (ssGWAS) and Bayes-B (BayesGWAS), the proportion of genetic variance for each 1-Mb genomic window was calculated and used to identify informative genomic regions. Accuracy of the DGV was estimated by a five-fold cross-validation with random clustering. As a measure of accuracy for DGV, we also assessed the correlation between DGV and deregressed-estimated breeding value (DEBV). The bias of DGV for each method was obtained by determining regression coefficients. Results: A total of nine and five significant windows (1 Mb) were identified for MY305 using ssGWAS and BayesGWAS, respectively. Using ssGWAS and BayesGWAS, we also detected multiple significant regions for FY305 (12 and 7) and PY305 (14 and 2), respectively. Both single-step DGV and Bayes DGV also showed somewhat moderate accuracy ranges for MY305 (0.32 to 0.34), FY305 (0.37 to 0.39), and PY305 (0.35 to 0.36) traits, respectively. The mean biases of DGVs determined using the single-step and Bayesian methods were $1.50{\pm}0.21$ and $1.18{\pm}0.26$ for MY305, $1.75{\pm}0.33$ and $1.14{\pm}0.20$ for FY305, and $1.59{\pm}0.20$ and $1.14{\pm}0.15$ for PY305, respectively. Conclusion: From the bias perspective, we believe that genomic selection based on the application of Bayesian approaches would be more suitable than application of ss-GBLUP in Korean Holstein populations.

학습 샘플 선택을 이용한 교사 랭크 정규화 (Supervised Rank Normalization with Training Sample Selection)

  • 허경용;최훈;윤주상
    • 한국컴퓨터정보학회논문지
    • /
    • 제20권1호
    • /
    • pp.21-28
    • /
    • 2015
  • 특징 정규화는 인식기를 적용하기 이전의 전처리 단계로 특징 차원에 따라 서로 다른 스케일에 의해 발생하는 오류를 줄이기 위해 널리 사용된다. 하지만 기존 정규화 방법은 클래스 라벨을 고려하지 않으므로 정규화 결과가 인식률에서 최적임을 보장하지 못하는 문제점이 있다. 이를 개선하기 위해 클래스 라벨을 사용하여 정규화를 시행하는 교사 정규화 방법이 제안되었고 기존 정규화 방법에 비해 나은 성능을 보임이 입증되었다. 이 논문에서는 교사 랭크 정규화 방법에 학습 샘플 선택 방법을 적용함으로써 교사 랭크 정규화 방법을 더욱 개선할 수 있는 방법을 제안한다. 학습 샘플 선택은 잡음이 많은 샘플을 학습에서 제외함으로써 잡음에 보다 강한 분류기를 학습시키는 전처리 단계로 많이 사용되며 랭크 정규화에서도 역시 사용될 수 있다. 학습 샘플 선택은 이웃한 샘플이 속하는 클래스와 이웃한 샘플까지의 거리를 바탕으로 하는 두 가지 척도를 제안하였고, 두 가지 척도 모두에서 기존 정규화 방법에 비해 인식률이 향상되었음을 실험 결과를 통해 확인할 수 있었다.

의미 정보를 이용한 이단계 단문분할 (Two-Level Clausal Segmentation using Sense Information)

  • 박현재;우요섭
    • 한국정보처리학회논문지
    • /
    • 제7권9호
    • /
    • pp.2876-2884
    • /
    • 2000
  • 단문분할은 한 문장에 용언이 복수개 있을 때 용언을 중심으로 문장을 나누는 방법이다. 기존의 방법은 정형화된 문장의 경우 비교적 효율적인 결과를 얻을 수 있으나, 구문적으로 복잡한 문장인 경우는 한계를 보였다. 본 논문에서는 이러한 한계를 극복하기 위해서 구문 정보만이 아니라, 의미 정보를 활용하여 단문을 분할하는 방법을 제안한다. 정형화된 문장의 경우와 달리 일상적인 문장은 무장 구조의 모호성이나 조사의 생략 등이 빈번하므로 의미 수준에서의 단문분할이 필요하다. 의미 영역에서 단문분할을 하면 기존의 구문 의존적인 방법들에서 발생하는 모호성을 상당수 해소할 수 있게 된다. 논문에서는 먼저 하위범주와 사전과 시소러스의 의미 정보를 이용하여 용언과 보어성분 간의 의존구조를 우선적으로 파악하고, 구문적인 정보와 기타 문법적인 지식을 사용하여 기타 성분을 의존구조에 점진적으로 포함시켜가는 이단계 단문분할 알고리즘을 제안한다. 제안된 이단계 단문분할 방법의 유용성을 보이기 위해 ETRI-KONAN의 말뭉치 중 25,000문장을 수작업으로 술어와 보어성분 간의 의존구조를 태깅한 후 본 논문에서 제안한 방법과 비교하는 실험을 수행하였으며, 이때 단문분할의 결과는 91.8%의 정확성을 보였다.

  • PDF

Processing parallel-disk viscometry data in the presence of wall slip

  • Leong, Yee-Kwong;Campbell, Graeme R.;Yeow, Y. Leong;Withers, John W.
    • Korea-Australia Rheology Journal
    • /
    • 제20권2호
    • /
    • pp.51-58
    • /
    • 2008
  • This paper describes a two-step Tikhonov regularization procedure for converting the steady shear data generated by parallel-disk viscometers, in the presence of wall slip, into a shear stress-shear rate function and a wall shear stress-slip velocity functions. If the material under test has a yield stress or a critical wall shear stress below which no slip is observed the method will also provide an estimate of these stresses. Amplification of measurement noise is kept under control by the introduction of two separate regularization parameters and Generalized Cross Validation is used to guide the selection of these parameters. The performance of this procedure is demonstrated by applying it to the parallel disk data of an oil-in-water emulsion, of a foam and of a mayonnaise.

초분광영상의 분광반사 패턴을 이용한 표적탐지 알고리즘 개발 (Development of a Target Detection Algorithm using Spectral Pattern Observed from Hyperspectral Imagery)

  • 신정일;이규성
    • 한국군사과학기술학회지
    • /
    • 제14권6호
    • /
    • pp.1073-1080
    • /
    • 2011
  • In this study, a target detection algorithm was proposed for using hyperspectral imagery. The proposed algorithm is designed to have minimal processing time, low false alarm rate, and flexible threshold selection. The target detection procedure can be divided into two steps. Initially, candidates of target pixel are extracted using matching ratio of spectral pattern that can be calculated by spectral derivation. Secondly, spectral distance is computed only for those candidates using Euclidean distance. The proposed two-step method showed lower false alarm rate than the Euclidean distance detector applied over the whole image. It also showed much lower processing time as compared to the Mahalanobis distance detector.

Significant Gene Selection Using Integrated Microarray Data Set with Batch Effect

  • Kim Ki-Yeol;Chung Hyun-Cheol;Jeung Hei-Cheul;Shin Ji-Hye;Kim Tae-Soo;Rha Sun-Young
    • Genomics & Informatics
    • /
    • 제4권3호
    • /
    • pp.110-117
    • /
    • 2006
  • In microarray technology, many diverse experimental features can cause biases including RNA sources, microarray production or different platforms, diverse sample processing and various experiment protocols. These systematic effects cause a substantial obstacle in the analysis of microarray data. When such data sets derived from different experimental processes were used, the analysis result was almost inconsistent and it is not reliable. Therefore, one of the most pressing challenges in the microarray field is how to combine data that comes from two different groups. As the novel trial to integrate two data sets with batch effect, we simply applied standardization to microarray data before the significant gene selection. In the gene selection step, we used new defined measure that considers the distance between a gene and an ideal gene as well as the between-slide and within-slide variations. Also we discussed the association of biological functions and different expression patterns in selected discriminative gene set. As a result, we could confirm that batch effect was minimized by standardization and the selected genes from the standardized data included various expression pattems and the significant biological functions.

경비행장 개발 및 입지선정에 관한 연구 (A Study on Development and Site selection of an AIRFIELD)

  • 박상용
    • 항공우주정책ㆍ법학회지
    • /
    • 제30권2호
    • /
    • pp.3-36
    • /
    • 2015
  • 2014년말 기준 항공레포츠 동호인은 약 13만명, 경항공기 356대, 경량항공기 200대, 초경량비행장치 636대에 이르고 있으며, 항공레포츠 산업은 향후 생활수준 향상에 따라 급격히 발전할 유망 레저산업으로 부상하고 있다. 또한 초경량비행장치, 특히 무인비행장치를 활용한 사용사업도 지속적으로 증가하는 추세에 있으며, 향후 이들 장치를 활용한 관광, 레저 사업자 서비스에 대한 수요도 증가할 것으로 전망된다. 본 논문은 경항공기, 경량항공기 및 초경량비행장치 관련 지속적인 수요 증가에 대비하여 경항공기, 경량항공기 및 초경량비행장치 산업 활성화를 위한 "경(소형)비행장 개발의 표준화"를 통한 개발 방안에 대한 연구를 목적으로 하였다. 정부에서 제시하고 있는 항공레저산업의 활성화를 위해서는 전국에 경비행장을 많이 건설하여 운영할 수 있는 인프라를 제공해야 하지만, 각 지자체와 기관들은 앞 다투어 경항공기 비행장 건설에 나서고 있으나, 현실적으로 개발이 된 곳은 많지 않다. 정부차원에서도 경비행장 입지를 위한 연구를 진행한 바 있으나, 후보지만 검토하였고, 실제 건설에 대한 타당성을 수행하고 있지 못하다. 만일 실제로 건설이 된다면, 이러한 비행장의 입지가 과연 적합한지에 대해서는 타당성 검토를 통해 다시 한 번 검증 받게 될 것이다. 그리고 기존 연구보고서들과 관련 문서를 통해 입지선정 요소를 도출해내고, 전문가의 설문을 통해 경비행장의 입지선정 요소들을 분석해 내고자 하였다. 연구모형은 AHP분석을 위해 계층화 형태로 정하였는데, 선행연구 검토를 토대로 가중치를 정하여, 경비행장 입지선정요소에 대하여 2단계 구성을 기술/운영적 요소, 경제/정책적요소로 선정하였다. 그리고 3단계로 기술적 요소, 운영적 요소로 구성하였다. 마지막 단계로는 총 11개 (기상조건, 장애물 제한표면 조건, 공역조건, 운항절차, 소음문제, 환경문제, 시설의 이용성, 건설 및 투자비용, 지역경제 기여도, 접근성, 산업연계성)의 하위요소들을 선정하여 구성하였다. 경항공기 비행장 입지선정 요소 가중치 설문은 본 분야의 전문가 집단인 항공 운항, 관제 등의 교수 및 기장, 교관, 관제사, 정비사 등 전문가 70명을 대상으로 실시하였다. 일관성 지수는 CI=0.02로 일관성이 있는 것으로 나타났다.

동적 해석의 효율적 축소기법에 관한 연구 (Study on the Efficient Dynamic System Condensation)

  • 백승민;김기욱;조맹효
    • 한국전산구조공학회논문집
    • /
    • 제20권3호
    • /
    • pp.347-352
    • /
    • 2007
  • 축소시스템 기법은 전체 구조의 거동을 나타내는 저차 고유모드를 근사화한다. 지난 연구에서 축소 시스템을 구축하기 위한 2단계 축소기법을 제안하였다. 첫 단계에서 리츠벡터를 이용한 각 요소의 레일리 지수를 통해 요소 에너지를 예측 하고 이를 토대로 후보영역을 선정한다. 다음 단계에서 후보영역에 포함된 자유도로 축소된 1단계 축소 시스템에 순차적 소거법을 적용하여 최종적인 주자유도를 선정한다. 이번 연구에서는 2단계 축소 기법에 축소시스템 개선을 위한 반복적 기법을 적용하여 중간영역에서의 고차모드의 정확도를 추가적인 시스템의 확장없이 구하는 방법을 제안한다. 이 방법은 축소시스템에서 고유치와 고유모드의 정확도를 조절하는 것까지도 가능하다. 최종적으로 제안된 기법의 성능을 수치 예제를 통해 검증한다.

유통과학분야에서 탐색적 연구를 위한 요인분석 (Factor Analysis for Exploratory Research in the Distribution Science Field)

  • 임명성
    • 유통과학연구
    • /
    • 제13권9호
    • /
    • pp.103-112
    • /
    • 2015
  • Purpose - This paper aims to provide a step-by-step approach to factor analytic procedures, such as principal component analysis (PCA) and exploratory factor analysis (EFA), and to offer a guideline for factor analysis. Authors have argued that the results of PCA and EFA are substantially similar. Additionally, they assert that PCA is a more appropriate technique for factor analysis because PCA produces easily interpreted results that are likely to be the basis of better decisions. For these reasons, many researchers have used PCA as a technique instead of EFA. However, these techniques are clearly different. PCA should be used for data reduction. On the other hand, EFA has been tailored to identify any underlying factor structure, a set of measured variables that cause the manifest variables to covary. Thus, it is needed for a guideline and for procedures to use in factor analysis. To date, however, these two techniques have been indiscriminately misused. Research design, data, and methodology - This research conducted a literature review. For this, we summarized the meaningful and consistent arguments and drew up guidelines and suggested procedures for rigorous EFA. Results - PCA can be used instead of common factor analysis when all measured variables have high communality. However, common factor analysis is recommended for EFA. First, researchers should evaluate the sample size and check for sampling adequacy before conducting factor analysis. If these conditions are not satisfied, then the next steps cannot be followed. Sample size must be at least 100 with communality above 0.5 and a minimum subject to item ratio of at least 5:1, with a minimum of five items in EFA. Next, Bartlett's sphericity test and the Kaiser-Mayer-Olkin (KMO) measure should be assessed for sampling adequacy. The chi-square value for Bartlett's test should be significant. In addition, a KMO of more than 0.8 is recommended. The next step is to conduct a factor analysis. The analysis is composed of three stages. The first stage determines a rotation technique. Generally, ML or PAF will suggest to researchers the best results. Selection of one of the two techniques heavily hinges on data normality. ML requires normally distributed data; on the other hand, PAF does not. The second step is associated with determining the number of factors to retain in the EFA. The best way to determine the number of factors to retain is to apply three methods including eigenvalues greater than 1.0, the scree plot test, and the variance extracted. The last step is to select one of two rotation methods: orthogonal or oblique. If the research suggests some variables that are correlated to each other, then the oblique method should be selected for factor rotation because the method assumes all factors are correlated in the research. If not, the orthogonal method is possible for factor rotation. Conclusions - Recommendations are offered for the best factor analytic practice for empirical research.