• 제목/요약/키워드: pruning algorithm

검색결과 131건 처리시간 0.026초

패킷 분류를 위한 스마트 셋-프루닝 트라이 (A Smart Set-Pruning Trie for Packet Classification)

  • 민세원;이나라;임혜숙
    • 한국통신학회논문지
    • /
    • 제36권11B호
    • /
    • pp.1285-1296
    • /
    • 2011
  • 패킷분류는 라우터의 가장 기본적이면서도 중요한 기능 중의 하나이며, 실시간 전송을 요구하는 새로운 인터넷 응용 프로그램의 등장과 더불어 그 중요성이 더욱 커지고 있다. 패킷분류는 입력 패킷에 대하여 선속도로 이루어져야 하며, 여러 헤더 필드에 대해 다차원 검색을 수행해야 하기 때문에 라우터 설계의 어려운 문제 중에 하나이다. 고속의 패킷분류를 제공하기 위한 다양한 패킷분류 알고리즘이 제안되어 왔으며, 그 중 계층적 접근 방식을 사용한 알고리즘은 하나의 필드에 대하여 검색이 수행될 때마다 많은 검색 영역이 제거되기 때문에 효율적이다. 그러나 계층적 구조는 역추적이라는 문제를 내재하고 있으며, 이를 해결하기 위해 사용되는 셋-프루닝 트라이나그리드-오브-트라이는 지나치게 많은 노드 복사를 야기하거나, 선-계산이라는 복잡한 과정을 요구한다. 본 논문에서는 셋-프루닝 하위 트라이의 간단한 합병을 통하여 복사되는 노드의 개수를 줄일 수 있는 스마트 셋-프루닝 구조를 제안한다. 시뮬레이션 결과 제안된 구조는 셋-프루닝 트라이와 비교하여 복사되는 노드 수 및 룰 수가 2-8% 줄어듦을 확인하였다.

성장과 소거 알고리즘을 이용한 모듈화된 웨이블렛 신경망의 적응구조 설계 ((Adaptive Structure of Modular Wavelet Neural Network Using Growing and Pruning Algorithm))

  • 서재용;김용택;조현찬;전홍태
    • 전자공학회논문지SC
    • /
    • 제39권1호
    • /
    • pp.16-23
    • /
    • 2002
  • 본 논문에서는 F-투영법과 기하학적인 성장기준을 적용하여 모듈화된 웨이블렛 신경망의 최적구조를 설계할 수 있는 성장과 전지 알고리즘을 제안한다. 기하학적인 성장기준은 지역오차를 고려한 예측 오차기준과 기존의 웨이블렛 함수와의 준직교성을 보장하는 웨이블렛 함수를 배치하기 위한 각도기준으로 구성되어 있다. 이러한 성장기준은 모듈화된 웨이블렛 신경망을 설계자 의도에 부합하도록 구성할 수 있는 방법론을 제시한다. 제안한 성장 알고리즘은 모듈화된 웨이블렛 신경망의 모듈과 망의 크기를 증가시킨다. 또한 소거 알고리즘은 모듈화된 웨이블렛 신경망의 모듈로 사용되는 웨이블렛 신경망의 지역화 특성으로 인해 모듈의 크기가 증가하는 문제점을 극복하기 위해 불필요한 모듈의 노드를 제거한다. 제안한 모듈화된 웨이블렛 신경망의 최적구조 설계알고리즘을 1차원과 2차원의 함수 근사화 문제에 적용하여 제안한 알고리즘의 성능을 검증하였다.

모듈환된 웨이블렛 신경망의 적응 구조 설계 (Adaptive Structure of Modular Wavelet Neural Network)

  • 서재용;김성주;조현찬;전홍태
    • 한국지능시스템학회논문지
    • /
    • 제11권9호
    • /
    • pp.782-787
    • /
    • 2001
  • 본 논문에서는 F-투영과 기하학적인 성장 기준을 이용하여 모듈화된 웨이블렛 신경망(MWNN)의 적응구조를 설계하기 위한 성장과 소거 알고리즘을 제안한다. 기하학적인 성장 알고리즘은 지역 오차를 고려한 추정 에러 기준과 이미 존재하는 다른 웨이블렛 함수와 근사적인 직교성을 보장하도록 웨이블렛 함수를 배열할 수 있는 각도 기준으로 구성되어 있다. 이러한 기준은 망의 설계자가 설계자의 의도대로 MWNN을 구성할 수 있는 방법론을 제시한다. 제안한 성장 알고리즘은 모듈과 모듈의 크기를 성장시킨다. 또한 소거 알고리즘은 MWNN의 모듈에 사용되는 웨이블렛 신경망의 지역화 특성에 기인한 문제점을 극복하기 위해 구성된 MWNN에서 불필요한 모듈의 노드나 모듈을 제거한다. 제안한 MWNN의 적응 구조 설계 알고리즘을 1, 2차원 대상 함수에 적용하여 성능을 검증하였다.

  • PDF

임팩트 팩터를 이용한 신경 회로망의 연결 소거 알고리즘 (A Pruning Algorithm of Neural Networks Using Impact Factors)

  • 이하준;정승범;박철훈
    • 전자공학회논문지CI
    • /
    • 제41권2호
    • /
    • pp.77-86
    • /
    • 2004
  • 일반적으로 작은 구조의 신경 회로망은 좋은 일반화 성능을 나타내지만 원하는 학습 목표까지 학습하기가 어려운 경향이 있다. 반면에 큰 구조의 신경 회로망은 학습 데이터는 쉽게 배우지만 일반화 성능이 좋지 않은 경향이 있다. 따라서 좋은 일반화 성능을 얻기 위한 일반적인 방법은 학습이 되는 한도 내에서 최소 구조의 신경 회로망 즉 최적 구조 신경 회로망을 찾는 것이다. 본 논문에서는 가중치의 제곱과 뉴런 출력의 분산의 곱으로 정의되는 임팩트 팩터(ImF: Impact Factor)를 이용한 새로운 연결 소거 알고리즘을 제안한다. 그리고 함수 근사화 문제에 적용하여 제안된 방법이 효율적임을 보인다.

트리검색 기법을 이용한 희소신호 복원기법 (Sparse Signal Recovery Using A Tree Search)

  • 이재석;심병효
    • 한국통신학회논문지
    • /
    • 제39A권12호
    • /
    • pp.756-763
    • /
    • 2014
  • 본 논문에서는 트리검색 기반의 GTMP (matching pursuit with greedy tree search)이라는 새로운 희소신호 복원기법을 제안한다. 트리검색은 비용함수 (cost function)를 최소화함으로써 희소신호 복원 성능을 향상시키기 위해 적용하였다. 또한 각 노드마다 트리제거 (tree pruning)기법을 이용하여 효율적인 알고리듬을 개발하였다. 본 논문에서는 알고리듬의 성능분석을 통해 희소신호에서 영(0)이 아닌 값의 위치를 정확히 찾아내는 조건을 도출하였다. 그리고 실험을 통해 GTMP가 기존의 희소신호 복원기법에 비해 성능이 향상되었음을 보였다.

HEVC 인트라 인코더를 위한 RDO 알고리듬의 개선 (An improved RDO algorithm for the HEVC intra encoder)

  • 원의연;채수익
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2013년도 하계학술대회
    • /
    • pp.123-126
    • /
    • 2013
  • High Efficiency Video Coding 비디오 표준은 다양한 분할방식 및 35가지 예측모드를 허용하기 때문에 최적의 분할 및 예측모드를 결정하기 위한 연산량이 많다. 이를 줄이기 위하여 본 논문에서는 CU분할의 결정에 있어 가설검정을 이용하여 early splitting 및 early pruning을 위한 임계값을 설정하고, early splitting의 경우 연산의 결과값이 임계값보다 클 경우, early pruning의 경우 연산의 결과값보다 임계값보다 작을 경우 CU의 분할을 조기에 결정하는 논문[1]의 방법을 차용하여 CU의 분할을 조기에 결정하며, 추가로 비트율 및 왜곡을 연산하는 예측모드의 개수를 줄임으로써 인코더의 성능을 향상시켰다. 또한 예측모드를 결정할 때 RDOQ를 수행하지 않음으로써 예측모드를 빠르게 결정하며, TU의 분할에 있어서도 CBF의 값 및 임계값을 이용한 early pruning 방법을 수행하여 인코더의 성능을 향상시켰다. 실험결과 5.9%의 luma BDRate의 증가가 있었으나, 63.7%의 인코딩 시간이 절감되었다.

  • PDF

Sparse Signal Recovery with Pruning-based Tree search

  • Kim, Jinhong;Shim, Byonghyo
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2015년도 추계학술대회
    • /
    • pp.51-53
    • /
    • 2015
  • In this paper, we propose an efficient sparse signal recovery algorithm referred to as the matching pursuit with a tree pruning (TMP). Two key ingredients of TMP are the pre-selection to put a restriction on columns of the sensing matrix to be investigated and the tree pruning to eliminate unpromising paths from the search tree. In our analysis, we show that the sparse signal is accurately reconstructed when the sensing matrix satisfies the restricted isometry property. In our simulations, we confirm that TMP is effective in recovering sparse signals and outperforms conventional sparse recovery algorithms.

  • PDF

Pruning and Learning Fuzzy Rule-Based Classifier

  • Kim, Do-Wan;Park, Jin-Bae;Joo, Young-Hoon
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.663-667
    • /
    • 2004
  • This paper presents new pruning and learning methods for the fuzzy rule-based classifier. The structure of the proposed classifier is framed from the fuzzy sets in the premise part of the rule and the Bayesian classifier in the consequent part. For the simplicity of the model structure, the unnecessary features for each fuzzy rule are eliminated through the iterative pruning algorithm. The quality of the feature is measured by the proposed correctness method, which is defined as the ratio of the fuzzy values for a set of the feature values on the decision region to one for all feature values. For the improvement of the classification performance, the parameters of the proposed classifier are finely adjusted by using the gradient descent method so that the misclassified feature vectors are correctly re-categorized. The cost function is determined as the squared-error between the classifier output for the correct class and the sum of the maximum output for the rest and a positive scalar. Then, the learning rules are derived from forming the gradient. Finally, the fuzzy rule-based classifier is tested on two data sets and is found to demonstrate an excellent performance.

  • PDF

SHOULD PRUNING BE A PRE-PROCESSOR OF ANY LINEAR SYSTEM?

  • Sen, Syamal K.;Ramakrishnan, Suja;Agarwal, Ravi P.;Shaykhian, Gholam Ali
    • Journal of applied mathematics & informatics
    • /
    • 제29권5_6호
    • /
    • pp.1337-1349
    • /
    • 2011
  • So far as a solution of the given consistent linear system is concerned many numerical methods - both mathematically non-iterative as well as iterative - have been reported in the literature over the last couple of centuries. Most of these methods consider all the equations including linearly dependent ones in the system and obtain a solution whenever it exists. Since linearly dependent equations do not add any new information to a system concerning a solution we have proposed an algorithm that identifies them and prunes them in the process of solving the system. The pruning process does not involve row/column interchanges as in the case of Gauss reduction with partial/complete pivoting. We demonstrate here that the use of pruning as an inbuilt part of our solution process reduces computational and storage complexities and also computational error.

A Density-Based K-Nearest Neighbors Search Method

  • Jang I. S.;Min K.W.;Choi W.S
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2004년도 Proceedings of ISRS 2004
    • /
    • pp.260-262
    • /
    • 2004
  • Spatial database system provides many query types and most of them are required frequent disk I/O and much CPU time. k-NN search is to find k-th closest object from the query point and up to now, several k-NN search methods have been proposed. Among these, MINMAX distance method has an aim not to visit unnecessary node by applying pruning technique. But this method access more disk than necessary while pruning unnecessary node. In this paper, we propose new k-NN search algorithm based on density of object. With this method, we predict the radius to be expected to contain k-NN object using density of data set and search those objects within this radius and then adjust radius if failed. Experimental results show that this method outperforms the previous MINMAX distance method. This algorithm visit fewer disks than MINMAX method by the factor of maximum $22\%\;and\;average\;6\%.$

  • PDF