• 제목/요약/키워드: pruning technique

검색결과 52건 처리시간 0.027초

준구조적 데이타베이스에서의 정규경로표현 최적화를 위한 질의전지 기법 (A Query Pruning Technique for Optimizing Regular Path Expressions in Semistructured Databases)

  • 박창원;정진완
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제29권3호
    • /
    • pp.217-229
    • /
    • 2002
  • 정규경로표현은 전통적 스키마를 가정하지 않는 준구조적 데이타에 대해 질의를 고안하기 위한 기본적 질의 요소이다. 그리고 질의전지는 정규경로표현의 처리에 있어 불필요한 탐색을 제거하기 위한 중요한 최적화 기법이다. 그러나 기존 질의전지는 다중 정규경로표현들은 완전히 최적화하지 못하는 경우가 많으며, 기존 질의전지의 결과를 후처리하는 기존의 방법은 지수적으로 증가하는 많은 부분결과들의 조합들을 확인해야 한다. 본 논문에서는 전처리 단계와 전지 단계로 구성된 두 단계 질의전지라 부르는 새로운 기법을 소개한다. 우리의 두 단계 질의전지는 다중 정규경로표현의 최적화에 효과적이며, 지수적으로 증가하는 많은 부분결과들의 조합들을 화인하지 않는다는 점에서 기존의 방법보다 더 확장성이 있다.

로봇 임베디드 시스템에서 리튬이온 배터리 잔량 추정을 위한 신경망 프루닝 최적화 기법 (Optimized Network Pruning Method for Li-ion Batteries State-of-charge Estimation on Robot Embedded System)

  • 박동현;장희덕;장동의
    • 로봇학회논문지
    • /
    • 제18권1호
    • /
    • pp.88-92
    • /
    • 2023
  • Lithium-ion batteries are actively used in various industrial sites such as field robots, drones, and electric vehicles due to their high energy efficiency, light weight, long life span, and low self-discharge rate. When using a lithium-ion battery in a field, it is important to accurately estimate the SoC (State of Charge) of batteries to prevent damage. In recent years, SoC estimation using data-based artificial neural networks has been in the spotlight, but it has been difficult to deploy in the embedded board environment at the actual site because the computation is heavy and complex. To solve this problem, neural network lightening technologies such as network pruning have recently attracted attention. When pruning a neural network, the performance varies depending on which layer and how much pruning is performed. In this paper, we introduce an optimized pruning technique by improving the existing pruning method, and perform a comparative experiment to analyze the results.

지식 표현 기법을 이용한 모델 구조의 표현과 구성 : 단편구조 유연생산 시스템 예 (Model Structuring Technique by A Knowledge Representation Scheme: A FMS Fractal Architecture Example)

  • 조대호
    • 한국시뮬레이션학회논문지
    • /
    • 제4권1호
    • /
    • pp.1-11
    • /
    • 1995
  • The model of a FMS (Flexible Manufacturing System) admits to a natural hierarchical decomposition of highly decoupled units with similar structure and control. The FMS fractal architecture model represents a hierarchical structure built from elements of a single basic design. A SES (System Entity Structure) is a structural knowledge representation scheme that contains knowledge of decomposition, taxonomy, and coupling relationships of a system necessary to direct model synthesis. A substructure of a SES is extracted for use as the skeleton for a model. This substructure is called pruned SES and the extraction operation of a pruned SES from a SES is called pruning (or pruning operation). This paper presents a pruning operation called recursive pruning. It is applied to SES for generating a model structure whose sub-structure contains copies if itself as in FMS fractal architecture. Another pruning operation called delay pruning is also presented. Combined with recursive pruning the delay pruningis a useful tool for representing and constructing complex systems.

  • PDF

Performance Analysis of Layer Pruning on Sphere Decoding in MIMO Systems

  • Karthikeyan, Madurakavi;Saraswady, D.
    • ETRI Journal
    • /
    • 제36권4호
    • /
    • pp.564-571
    • /
    • 2014
  • Sphere decoding (SD) for multiple-input and multiple-output systems is a well-recognized approach for achieving near-maximum likelihood performance with reduced complexity. SD is a tree search process, whereby a large number of nodes can be searched in an effort to find an estimation of a transmitted symbol vector. In this paper, a simple and generalized approach called layer pruning is proposed to achieve complexity reduction in SD. Pruning a layer from a search process reduces the total number of nodes in a sphere search. The symbols corresponding to the pruned layer are obtained by adopting a QRM-MLD receiver. Simulation results show that the proposed method reduces the number of nodes to be searched for decoding the transmitted symbols by maintaining negligible performance loss. The proposed technique reduces the complexity by 35% to 42% in the low and medium signal-to-noise ratio regime. To demonstrate the potential of our method, we compare the results with another well-known method - namely, probabilistic tree pruning SD.

Modeling strength of high-performance concrete using genetic operation trees with pruning techniques

  • Peng, Chien-Hua;Yeh, I-Cheng;Lien, Li-Chuan
    • Computers and Concrete
    • /
    • 제6권3호
    • /
    • pp.203-223
    • /
    • 2009
  • Regression analysis (RA) can establish an explicit formula to predict the strength of High-Performance Concrete (HPC); however, the accuracy of the formula is poor. Back-Propagation Networks (BPNs) can establish a highly accurate model to predict the strength of HPC, but cannot generate an explicit formula. Genetic Operation Trees (GOTs) can establish an explicit formula to predict the strength of HPC that achieves a level of accuracy in between the two aforementioned approaches. Although GOT can produce an explicit formula but the formula is often too complicated so that unable to explain the substantial meaning of the formula. This study developed a Backward Pruning Technique (BPT) to simplify the complexity of GOT formula by replacing each variable of the tip node of operation tree with the median of the variable in the training dataset belonging to the node, and then pruning the node with the most accurate test dataset. Such pruning reduces formula complexity while maintaining the accuracy. 404 experimental datasets were used to compare accuracy and complexity of three model building techniques, RA, BPN and GOT. Results show that the pruned GOT can generate simple and accurate formula for predicting the strength of HPC.

Deep Compression의 프루닝 문턱값 동적 조정 (Dynamic Adjustment of the Pruning Threshold in Deep Compression)

  • 이여진;박한훈
    • 융합신호처리학회논문지
    • /
    • 제22권3호
    • /
    • pp.99-103
    • /
    • 2021
  • 최근 CNN(Convolutional Neural Network)이 다양한 컴퓨터 비전 분야에서 우수한 성능으로 널리 사용되고 있다. 그러나 CNN은 계산 집약적이고 많은 메모리가 요구되어 한정적인 하드웨어 자원을 가지는 모바일이나 IoT(Internet of Things) 기기에 적용하기 어렵다. 이런 한계를 해결하기 위해, 기존의 학습된 모델의 성능을 최대한 유지하며 네트워크의 크기를 줄이는 인공신경망 경량화 연구가 진행되고 있다. 본 논문은 신경망 압축 기술 중 하나인 프루닝(Pruning)의 문턱값을 동적으로 조정하는 CNN 압축 기법을 제안한다. 프루닝될 가중치를 결정하는 문턱값을 실험적, 경험적으로 정하는 기존의 기술과 달리 정확도의 저하를 방지하는 최적의 문턱값을 동적으로 찾을 수 있으며, 경량화된 신경망을 얻는 시간을 단축할 수 있다. 제안 기법의 성능 검증을 위해 MNIST 데이터 셋을 사용하여 LeNet을 훈련시켰으며, 정확도 손실 없이 약 1.3 ~ 3배의 시간을 단축하여 경량화된 LeNet을 얻을 수 있었다.

효율적인 IP 주소 검색을 위한 개선된 LC-trie (Improved LC-trie for Efficient IP Address Lookup)

  • 김진수;김정환
    • 한국콘텐츠학회논문지
    • /
    • 제7권3호
    • /
    • pp.50-59
    • /
    • 2007
  • IP 주소 검색은 라우터에서 가장 중요하고 복잡한 기능중 하나이다. 본 논문에서는 고성능 라우터에서 IP 주소 검색의 성능을 향상시키기 위해 LC-trie를 개선하는 기법을 제안한다. TCAM(Ternary Content Addressable Memory)에서 테이블 압축을 위해 이용한 프리픽스 pruning 방법을 LC-trie에 효과적으로 적용한다. 이러한 기법은 메모리 참조 횟수를 감소시키고 검색의 속도를 높일 수 있다. 또한, 실제 사용되는 포워딩 테이블과 트래픽 분포를 사용하여 검색 시간과 메모리 참조 횟수 둥의 관점에서 개선된 기법의 성능을 기존의 LC-trie 기법과 비교 평가한다.

A New Pruning Method for Synthesis Database Reduction Using Weighted Vector Quantization

  • Kim, Sanghun;Lee, Youngjik;Keikichi Hirose
    • The Journal of the Acoustical Society of Korea
    • /
    • 제20권4E호
    • /
    • pp.31-38
    • /
    • 2001
  • A large-scale synthesis database for a unit selection based synthesis method usually retains redundant synthesis unit instances, which are useless to the synthetic speech quality. In this paper, to eliminate those instances from the synthesis database, we proposed a new pruning method called weighted vector quantization (WVQ). The WVQ reflects relative importance of each synthesis unit instance when clustering the similar instances using vector quantization (VQ) technique. The proposed method was compared with two conventional pruning methods through the objective and subjective evaluations of the synthetic speech quality: one to simply limit maximum number of instance, and the other based on normal VQ-based clustering. The proposed method showed the best performance under 50% reduction rates. Over 50% of reduction rates, the synthetic speech quality is not seriously but perceptibly degraded. Using the proposed method, the synthesis database can be efficiently reduced without serious degradation of the synthetic speech quality.

  • PDF

심층신경망의 더블 프루닝 기법의 적용 및 성능 분석에 관한 연구 (Application and Performance Analysis of Double Pruning Method for Deep Neural Networks)

  • 이선우;양호준;오승연;이문형;권장우
    • 융합정보논문지
    • /
    • 제10권8호
    • /
    • pp.23-34
    • /
    • 2020
  • 최근 인공지능 딥러닝 분야는 컴퓨팅 자원의 높은 연산량과 가격문제로 인해 상용화에 어려움이 존재했다. 본 논문은 더블 프루닝 기법을 적용하여 심층신경망 모델들과 다수의 데이터셋에서의 성능을 평가하고자 한다. 더블 프루닝은 기본의 네트워크 간소화(Network-Slimming)과 파라미터 프루닝(Parameter-Pruning)을 결합한다. 이는 기존의 학습에 중요하지 않는 매개변수를 절감하여 학습 정확도를 저해하지 않고 속도를 향상시킬 수 있다는 장점이 있다. 다양한 데이터셋 학습 이후에 프루닝 비율을 증가시켜, 모델의 사이즈를 감소시켰다. NetScore 성능 분석 결과 MobileNet-V3가 가장 성능이 높게 나타났다. 프루닝 이후의 성능은 Cifar 10 데이터셋에서 깊이 우선 합성곱 신경망으로 구성된 MobileNet-V3이 가장 성능이 높았고, 전통적인 합성곱 신경망으로 이루어진 VGGNet, ResNet또한 높은 폭으로 성능이 증가함을 확인하였다.

Training for Huge Data set with On Line Pruning Regression by LS-SVM

  • Kim, Dae-Hak;Shim, Joo-Yong;Oh, Kwang-Sik
    • 한국통계학회:학술대회논문집
    • /
    • 한국통계학회 2003년도 추계 학술발표회 논문집
    • /
    • pp.137-141
    • /
    • 2003
  • LS-SVM(least squares support vector machine) is a widely applicable and useful machine learning technique for classification and regression analysis. LS-SVM can be a good substitute for statistical method but computational difficulties are still remained to operate the inversion of matrix of huge data set. In modern information society, we can easily get huge data sets by on line or batch mode. For these kind of huge data sets, we suggest an on line pruning regression method by LS-SVM. With relatively small number of pruned support vectors, we can have almost same performance as regression with full data set.

  • PDF