• 제목/요약/키워드: network pruning

검색결과 82건 처리시간 0.027초

로봇 임베디드 시스템에서 리튬이온 배터리 잔량 추정을 위한 신경망 프루닝 최적화 기법 (Optimized Network Pruning Method for Li-ion Batteries State-of-charge Estimation on Robot Embedded System)

  • 박동현;장희덕;장동의
    • 로봇학회논문지
    • /
    • 제18권1호
    • /
    • pp.88-92
    • /
    • 2023
  • Lithium-ion batteries are actively used in various industrial sites such as field robots, drones, and electric vehicles due to their high energy efficiency, light weight, long life span, and low self-discharge rate. When using a lithium-ion battery in a field, it is important to accurately estimate the SoC (State of Charge) of batteries to prevent damage. In recent years, SoC estimation using data-based artificial neural networks has been in the spotlight, but it has been difficult to deploy in the embedded board environment at the actual site because the computation is heavy and complex. To solve this problem, neural network lightening technologies such as network pruning have recently attracted attention. When pruning a neural network, the performance varies depending on which layer and how much pruning is performed. In this paper, we introduce an optimized pruning technique by improving the existing pruning method, and perform a comparative experiment to analyze the results.

무선 애드 혹 네트워크에서 효과적인 메시지 전달을 위한 Directional Partial Dominant Pruning 알고리즘 (The directional partial dominant pruning algorithm for efficient message forwarding in an wireless ad-hoc network)

  • 한인구;임기욱;이정현
    • 한국산업정보학회논문지
    • /
    • 제14권2호
    • /
    • pp.16-22
    • /
    • 2009
  • 이동 애드 혹 네트워크에 있어서 브로드캐스팅을 실현할 때에 전달 메시지가 과중하게 중복 발생하는 것을 줄이기 위해 메시지를 수신하고 전달하는 역할을 맡는 전탈 노드들을 in-fly 형태로 지정하도록 하는 기법 중 가장 실용적인 것으로는 PDP(Partial Dominant Pruning) 기법[1]을 들 수 있다 본 논문에서는 PDP를 확장하여 방향성 안테나를 이용하는 애드 혹 네트워크에 있어서 전달 노드들의 수는 물론, 이때 수반되는 안테나 요소 수를 동시에 줄이도록 하는 확장된 DPDP (Directional PDP) 기법을 제안한다. 시뮬레이션을 통해 사용 안테나 요소 수(K)가 증가함에 따라 선정되는 전달 노드의 수는 전 방향 안테나를 사용하는 경우에 비해 다소 증가하지만 안테나 요소 별 평균 전달 노드 수와 노드 별 메시지 중복수신 수에서는 모두 PDP 기법에 비해 우수함을 보였다.

Effect of Potential Model Pruning on Official-Sized Board in Monte-Carlo GO

  • Oshima-So, Makoto
    • International Journal of Computer Science & Network Security
    • /
    • 제21권6호
    • /
    • pp.54-60
    • /
    • 2021
  • Monte-Carlo GO is a computer GO program that is sufficiently competent without using knowledge expressions of IGO. Although it is computationally intensive, the computational complexity can be reduced by properly pruning the IGO game tree. Here, I achieve this by using a potential model based on the knowledge expressions of IGO. The potential model treats GO stones as potentials. A specific potential distribution on the GO board results from a unique arrangement of stones on the board. Pruning using the potential model categorizes legal moves into effective and ineffective moves in accordance with the potential threshold. Here, certain pruning strategies based on potentials and potential gradients are experimentally evaluated. For different-sized boards, including an official-sized board, the effects of pruning strategies are evaluated in terms of their robustness. I successfully demonstrate pruning using a potential model to reduce the computational complexity of GO as well as the robustness of this effect across different-sized boards.

심층신경망의 더블 프루닝 기법의 적용 및 성능 분석에 관한 연구 (Application and Performance Analysis of Double Pruning Method for Deep Neural Networks)

  • 이선우;양호준;오승연;이문형;권장우
    • 융합정보논문지
    • /
    • 제10권8호
    • /
    • pp.23-34
    • /
    • 2020
  • 최근 인공지능 딥러닝 분야는 컴퓨팅 자원의 높은 연산량과 가격문제로 인해 상용화에 어려움이 존재했다. 본 논문은 더블 프루닝 기법을 적용하여 심층신경망 모델들과 다수의 데이터셋에서의 성능을 평가하고자 한다. 더블 프루닝은 기본의 네트워크 간소화(Network-Slimming)과 파라미터 프루닝(Parameter-Pruning)을 결합한다. 이는 기존의 학습에 중요하지 않는 매개변수를 절감하여 학습 정확도를 저해하지 않고 속도를 향상시킬 수 있다는 장점이 있다. 다양한 데이터셋 학습 이후에 프루닝 비율을 증가시켜, 모델의 사이즈를 감소시켰다. NetScore 성능 분석 결과 MobileNet-V3가 가장 성능이 높게 나타났다. 프루닝 이후의 성능은 Cifar 10 데이터셋에서 깊이 우선 합성곱 신경망으로 구성된 MobileNet-V3이 가장 성능이 높았고, 전통적인 합성곱 신경망으로 이루어진 VGGNet, ResNet또한 높은 폭으로 성능이 증가함을 확인하였다.

모듈화된 웨이블렛 신경망의 적응 구조 (Adaptive Structure of Modular Wavelet Neural Network)

  • 서재용;김용택;김성현;조현찬;전홍태
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2001년도 추계학술대회 학술발표 논문집
    • /
    • pp.247-250
    • /
    • 2001
  • In this paper, we propose an growing and pruning algorithm to design the adaptive structure of modular wavelet neural network(MWNN) with F-projection and geometric growing criterion. Geometric growing criterion consists of estimated error criterion considering local error and angle criterion which attempts to assign wavelet function that is nearly orthogonal to all other existing wavelet functions. These criteria provide a methodology that a network designer can constructs wavelet neural network according to one's intention. The proposed growing algorithm grows the module and the size of modules. Also, the pruning algorithm eliminates unnecessary node of module or module from constructed MWNN to overcome the problem due to localized characteristic of wavelet neural network which is used to modules of MWNN. We apply the proposed constructing algorithm of the adaptive structure of MWNN to approximation problems of 1-D function and 2-D function, and evaluate the effectiveness of the proposed algorithm.

  • PDF

An Efficient and Accurate Artificial Neural Network through Induced Learning Retardation and Pruning Training Methods Sequence

  • Bandibas, Joel;Kohyama, Kazunori;Wakita, Koji
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2003년도 Proceedings of ACRS 2003 ISRS
    • /
    • pp.429-431
    • /
    • 2003
  • The induced learning retardation method involves the temporary inhibition of the artificial neural network’s active units from participating in the error reduction process during training. This stimulates the less active units to contribute significantly to reduce the network error. However, some less active units are not sensitive to stimulation making them almost useless. The network can then be pruned by removing the less active units to make it smaller and more efficient. This study focuses on making the network more efficient and accurate by developing the induced learning retardation and pruning sequence training method. The developed procedure results to faster learning and more accurate artificial neural network for satellite image classification.

  • PDF

임베디드 시스템에서의 객체 분류를 위한 인공 신경망 경량화 연구 (Neural Network Model Compression Algorithms for Image Classification in Embedded Systems)

  • 신희중;오현동
    • 로봇학회논문지
    • /
    • 제17권2호
    • /
    • pp.133-141
    • /
    • 2022
  • This paper introduces model compression algorithms which make a deep neural network smaller and faster for embedded systems. The model compression algorithms can be largely categorized into pruning, quantization and knowledge distillation. In this study, gradual pruning, quantization aware training, and knowledge distillation which learns the activation boundary in the hidden layer of the teacher neural network are integrated. As a large deep neural network is compressed and accelerated by these algorithms, embedded computing boards can run the deep neural network much faster with less memory usage while preserving the reasonable accuracy. To evaluate the performance of the compressed neural networks, we evaluate the size, latency and accuracy of the deep neural network, DenseNet201, for image classification with CIFAR-10 dataset on the NVIDIA Jetson Xavier.

무선 센서 네트워크의 수명 향상을 위한 브로드캐스트 중복 제거 알고리즘 (Broadcast Redundancy Reduction Algorithm for Enhanced Wireless Sensor Network Lifetime)

  • 박철민;김영찬
    • 인터넷정보학회논문지
    • /
    • 제8권4호
    • /
    • pp.71-79
    • /
    • 2007
  • 무선 센서 네트워크에서 통신 행위는 라우팅과 브로드캐스팅의 두 가지 형태로 특징지어질 수 있으며, 이중 브로드캐스팅은 효과적인 경로 탐색 및 패킷 전달을 위해 사용된다. 그러나 브로드캐스팅은 패킷의 중복 전달로 인한 에너지의 과소비로 네트워크의 수명을 단축시킨다. 본 논문에서는 2-hop 이웃노드 정보를 이용하는 Dominant Pruning 방식을 기반으로 중복된 포워드 노드를 제거하는 알고리즘을 제안한다. 제안한 알고리즘이 포워드 노드 수 및 네트워크 수명 면에서 우수한 성능을 나타냄을 시뮬레이션을 통해 입증하였다.

  • PDF

Deep Compression의 프루닝 문턱값 동적 조정 (Dynamic Adjustment of the Pruning Threshold in Deep Compression)

  • 이여진;박한훈
    • 융합신호처리학회논문지
    • /
    • 제22권3호
    • /
    • pp.99-103
    • /
    • 2021
  • 최근 CNN(Convolutional Neural Network)이 다양한 컴퓨터 비전 분야에서 우수한 성능으로 널리 사용되고 있다. 그러나 CNN은 계산 집약적이고 많은 메모리가 요구되어 한정적인 하드웨어 자원을 가지는 모바일이나 IoT(Internet of Things) 기기에 적용하기 어렵다. 이런 한계를 해결하기 위해, 기존의 학습된 모델의 성능을 최대한 유지하며 네트워크의 크기를 줄이는 인공신경망 경량화 연구가 진행되고 있다. 본 논문은 신경망 압축 기술 중 하나인 프루닝(Pruning)의 문턱값을 동적으로 조정하는 CNN 압축 기법을 제안한다. 프루닝될 가중치를 결정하는 문턱값을 실험적, 경험적으로 정하는 기존의 기술과 달리 정확도의 저하를 방지하는 최적의 문턱값을 동적으로 찾을 수 있으며, 경량화된 신경망을 얻는 시간을 단축할 수 있다. 제안 기법의 성능 검증을 위해 MNIST 데이터 셋을 사용하여 LeNet을 훈련시켰으며, 정확도 손실 없이 약 1.3 ~ 3배의 시간을 단축하여 경량화된 LeNet을 얻을 수 있었다.

Structure Minimization using Impact Factor in Neural Networks

  • Seo, Kap-Ho;Song, Jae-Su;Lee, Ju-Jang
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2000년도 제15차 학술회의논문집
    • /
    • pp.484-484
    • /
    • 2000
  • The problem of determining the proper size of an neural network is recognized to be crucial, especially for its practical implications in such important issues as learning and generalization. Unfortunately, it usually is not obvious what size is best: a system that is too snail will not be able to learn the data while one that is just big enough may learn the slowly and be very sensitive to initial conditions and learning parameters. One popular technique is commonly known as pruning and consists of training a larger than necessary network and then removing unnecessary weights/nodes. In this paper, a new pruning method is developed, based on the penalty-term methods. This method makes the neural network good for the generalization and reduces the retraining time after pruning weights/nodes.

  • PDF