• Title/Summary/Keyword: 압축모델

Search Result 1,639, Processing Time 0.029 seconds

Inter-Layer Kernel Prediction: Weight Sharing and Model Compression of Convolutional Neural Networks Motivated by Inter-frame Prediction (Inter-Layer Kernel Prediction: 프레임 간 Prediction에 기반한 컨볼루션 신경망 가중치 공유 및 모델 압축 방법)

  • Lee, Kang-Ho;Bae, Sung-Ho
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.136-139
    • /
    • 2020
  • 본 논문에서는 최근 대두되고 있는 심층신경망 압축 연구에서 가중치 공유와 관련하여 심층신경망 모델 압축방법 Inter-Layer Kernel Prediction을 제안한다. 제안 방법은 영상 압축에서 사용되는 프레임 간 prediction 방법을 응용한 컨볼루션 신경망 가중치 공유 및 모델 압축 방법이다. 본 논문은 레이어 간 유사한 kernel들이 존재한다는 것을 발견하고 이를 기반으로 Inter-Layer Kernel Prediction을 사용하여 기존 모델 가중치를 보다 더 적은 비트로 표현하여 저장하는 방법을 제안한다. 제안 방법은 CIFAR10/100으로 학습된 ResNet에서 약 4.1 배의 압축률을 달성했으며 CIFAR10으로 학습된 ResNet110에서는 오히려 기존 Baseline 모델에 비해 0.04%의 성능 향상을 기록했다.

  • PDF

3D Mesh Compression Based on Layer of Mesh and Operation Code (메쉬의 계층 및 연산코드 기반 3차원 메쉬 압축)

  • 이민정;권용무;김창헌
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10d
    • /
    • pp.415-417
    • /
    • 2002
  • 날로 커져가는 3D 모델을 효율적으로 사용하기 위한 노력으로 압축처리 방법들이 연구되고 있다. 본 논문에서는 3D 모델의 메쉬를 Layer로 분할하여 Vertex Layer와 Triangle Layer를 생성 후, 삼각형들을 몇가지 연산코드로 분류하여 압축(compression)하는 방법을 제안한다. Triangle Layer는 기본 정점으로부터 연결된 선분의 정점들로 이루어진 Vertex Layer의 쌍을 이용하여 만들어진다. 이 Triangle Layer에 해당 되는 삼각형들의 연결 정보를 제안한 연산코드로 분류하고, 이것을 엔트로피 코딩하여 3D 모델을 압축한다. 이 기법은 삼각형의 형태를 기준으로 한 개나 두 개의 삼각형을 하나의 연산코드로 분류하거나 삼각형의 연결 상황에 따라 하나의 연산코드로 분류하여 연결정보를 표현한다. 복원(decompression)시에는 연산 코드를 이용하여 삼각형의 연결정보를 뽑아내면 원 상태의 3D 모델을 획득할 수 있다. 이 방법은 연결 정보를 무손실 압축하는 방법으로, 지금까지 제안된 압축기법과 비교할 때, 간단하면서도 월등한 압축 효과를 볼 수 있다.

  • PDF

Sentence Compression based on Sentence Scoring Reflecting Linguistic Information (언어 정보를 반영한 문장 점수 측정 기반의 문장 압축)

  • Lee, Jun-Beom;Kim, So-Eon;Park, Seong-Bae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.05a
    • /
    • pp.389-392
    • /
    • 2021
  • 문장 압축은 원본 문장의 중요한 의미를 보존하는 짧은 길이의 압축 문장을 생성하는 자연어처리 태스크이다. 문장 압축은 사용자가 텍스트로부터 필요한 정보를 빠르게 획득할 수 있도록 도울 수 있어 활발히 연구되고 있지만, 기존 연구들은 사람이 직접 정의한 압축 규칙이 필요하거나, 모델 학습을 위해 대량의 데이터셋이 필요하다는 문제점이 존재한다. 사전 학습된 언어 모델을 통한 perplexity 기반의 문장 점수 측정을 통해 문장을 압축하여 압축 규칙과 모델 학습을 위한 데이터셋이 필요하지 않은 연구 또한 존재하지만, 문장 점수 측정에 문장에 속한 단어들의 의미적 중요도를 반영하지 못하여 중요한 단어가 삭제되는 문제점이 존재한다. 본 논문은 언어 정보 중 품사 정보, 의존관계 정보, 개체명 정보의 중요도를 수치화하여 perplexity 기반의 문장 점수 측정에 반영하는 방법을 제안한다. 또한 제안한 문장 점수 측정 방법을 활용하였을 때 문장 점수 측정 기반 문장 압축 모델의 문장 압축 성능이 향상됨을 확인하였으며, 이를 통해 문장에 속한 단어의 언어 정보를 문장 점수 측정에 반영하는 것이 의미적으로 적절한 압축 문장을 생성하는 데 도움이 될 수 있음을 보였다.

Calculating the Uniaxial Compressive Strength of Granite from Gangwon Province using Linear Regression Analysis (선형회귀분석을 적용한 강원도 지역 화강암의 일축압축강도 산정)

  • Lee, Moon-Se;Kim, Man-Il;Baek, Jong-Nam;Han, Bong-Koo
    • The Journal of Engineering Geology
    • /
    • v.21 no.4
    • /
    • pp.361-367
    • /
    • 2011
  • The uniaxial compressive strength (UCS) is an important factor in the design and construction of surface and underground structures. However, the method employed to measure UCS is time consuming and expensive to apply in the field. Therefore, we developed a model to estimate UCS based on a few properties using linear regression analysis, which is a statistical method. To develop the model, valid factors from the test results were selected from a correlation analysis using a statistical program, and the model was formulated by linear regression based on the relationships among factors. UCS estimates derived from the model were compared with the results of UCS tests, to assess the reliability of the model. The relationship between rock properties and UCS indicates that the factors with the greatest influence on UCS are point load strength and shape facto r. The UCS values obtained using the model are in good agreement with the results of the UCS test. Therefore, the developed model may be used to estimate the UCS of rocks in regions with similar conditions to those of the present study area.

Unified Method for Nonlinear Finite Element Analysis of RC Planar Members (통합방법을 이용한 철근콘크리트부재의 비선형 유한요소해석)

  • 박홍근
    • Magazine of the Korea Concrete Institute
    • /
    • v.9 no.2
    • /
    • pp.133-144
    • /
    • 1997
  • Concrete plasticity models fol the analysis of reinforced concrete members in plane stress are studied. The proposed plasticity model for reinforced concrete provides a unified approach combining plasticity theory and damage models. It addresses strength mhancement under rnultiaxial compression. and tensile cracking damage. The model uses multiple failure criteria for compressive crushing and tensile cracking. For tensile cracking behavior. rotating-crack and fixed-crack plasticity models are compared. As crushing failure criterion, the Drucker-Prager and the von Mises models are used for comparison. The model uses now and existing damnge models fbr tension softening, tension stiffening. and compression softening dup to tensilt. cracking. Finite element analyses using the unified method are compatxd with existing rxpcrimcntal r.esults. To vei.ify the proposcd crushing and cracking plasticity models, the experiments have load capacities govc11.nc.d either by compressive crushing of'concrete or by yi~lding of' reinforcing steel.

Compression of DNN Integer Weight using Video Encoder (비디오 인코더를 통한 딥러닝 모델의 정수 가중치 압축)

  • Kim, Seunghwan;Ryu, Eun-Seok
    • Journal of Broadcast Engineering
    • /
    • v.26 no.6
    • /
    • pp.778-789
    • /
    • 2021
  • Recently, various lightweight methods for using Convolutional Neural Network(CNN) models in mobile devices have emerged. Weight quantization, which lowers bit precision of weights, is a lightweight method that enables a model to be used through integer calculation in a mobile environment where GPU acceleration is unable. Weight quantization has already been used in various models as a lightweight method to reduce computational complexity and model size with a small loss of accuracy. Considering the size of memory and computing speed as well as the storage size of the device and the limited network environment, this paper proposes a method of compressing integer weights after quantization using a video codec as a method. To verify the performance of the proposed method, experiments were conducted on VGG16, Resnet50, and Resnet18 models trained with ImageNet and Places365 datasets. As a result, loss of accuracy less than 2% and high compression efficiency were achieved in various models. In addition, as a result of comparison with similar compression methods, it was verified that the compression efficiency was more than doubled.

Deletion-Based Sentence Compression Using Sentence Scoring Reflecting Linguistic Information (언어 정보가 반영된 문장 점수를 활용하는 삭제 기반 문장 압축)

  • Lee, Jun-Beom;Kim, So-Eon;Park, Seong-Bae
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.3
    • /
    • pp.125-132
    • /
    • 2022
  • Sentence compression is a natural language processing task that generates concise sentences that preserves the important meaning of the original sentence. For grammatically appropriate sentence compression, early studies utilized human-defined linguistic rules. Furthermore, while the sequence-to-sequence models perform well on various natural language processing tasks, such as machine translation, there have been studies that utilize it for sentence compression. However, for the linguistic rule-based studies, all rules have to be defined by human, and for the sequence-to-sequence model based studies require a large amount of parallel data for model training. In order to address these challenges, Deleter, a sentence compression model that leverages a pre-trained language model BERT, is proposed. Because the Deleter utilizes perplexity based score computed over BERT to compress sentences, any linguistic rules and parallel dataset is not required for sentence compression. However, because Deleter compresses sentences only considering perplexity, it does not compress sentences by reflecting the linguistic information of the words in the sentences. Furthermore, since the dataset used for pre-learning BERT are far from compressed sentences, there is a problem that this can lad to incorrect sentence compression. In order to address these problems, this paper proposes a method to quantify the importance of linguistic information and reflect it in perplexity-based sentence scoring. Furthermore, by fine-tuning BERT with a corpus of news articles that often contain proper nouns and often omit the unnecessary modifiers, we allow BERT to measure the perplexity appropriate for sentence compression. The evaluations on the English and Korean dataset confirm that the sentence compression performance of sentence-scoring based models can be improved by utilizing the proposed method.

Compressibility Correction Effects of Two-equation Turbulence Models for a Supersonic Through-type Pintle Nozzle with Large Scale Separation Flow (큰 박리유동을 동반한 초음속 관통형 핀틀노즐 유동에 적합한 2-방정식 난류모델의 압축성계수 보정 영향)

  • Heo, Junyoung;Jung, Junyoung;Sung, Hong-Gye;Yang, June-Seo;Lee, Ji-Hyung
    • Journal of the Korean Society of Propulsion Engineers
    • /
    • v.17 no.1
    • /
    • pp.61-69
    • /
    • 2013
  • Numerical simulations have been performed for assessment of compressibility correction of two-equation turbulent models suitable for large scale separation flows perturbed by a pintle strokes. Two-equation turbulence models, the low Reynolds k-${\varepsilon}$ and the k-${\omega}$ SST models with or without compressibility correction proposed by Wilcox and Sarkar are evaluated. The detail flow structures are observed and static pressures along nozzle wall are compared with experimental results. Mach disk location and pressure recovery profiles in flow separation region are noticeably distinct between turbulent models of k-${\varepsilon}$ and k-${\omega}$ SST. The compressible effect corrections to those models improve resolving of separation flow behaviors. The compressibility corrections to k-${\varepsilon}$ model have provided very comparable results with test data.

Compression of CNN Using Local Nonlinear Quantization in MPEG-NNR (MPEG-NNR 의 지역 비선형 양자화를 이용한 CNN 압축)

  • Lee, Jeong-Yeon;Moon, Hyeon-Cheol;Kim, Sue-Jeong;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.662-663
    • /
    • 2020
  • 최근 MPEG 에서는 인공신경망 모델을 다양한 딥러닝 프레임워크에서 상호운용 가능한 포맷으로 압축 표현할 수 있는 NNR(Compression of Neural Network for Multimedia Content Description and Analysis) 표준화를 진행하고 있다. 본 논문에서는 MPEG-NNR 에서 CNN 모델을 압축하기 위한 지역 비선형 양자화(Local Non-linear Quantization: LNQ) 기법을 제시한다. 제안하는 LNQ 는 균일 양자화된 CNN 모델의 각 계층의 가중치 행렬 블록 단위로 추가적인 비선형 양자화를 적용한다. 또한, 제안된 LNQ 는 가지치기(pruning)된 모델의 경우 블록내의 영(zero) 값의 가중치들은 그대로 전송하고 영이 아닌 가중치만을 이진 군집화를 적용한다. 제안 기법은 음성 분류를 위한 CNN 모델(DCASE Task)의 압축 실험에서 기존 균일 양자화를 대비 동일한 분류 성능에서 약 1.78 배 압축 성능 향상이 있음을 확인하였다.

  • PDF

DNN-based Audio Compression Model Optimization Utilizing Entropy Model (엔트로피 모델을 활용한 심층 신경망 기반 오디오 압축 모델 최적화)

  • Lim, Hyungseob;Kang, Hong-Goo;Jang, Inseon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.54-57
    • /
    • 2022
  • 본 논문에서는 심층 신경망 기반 점진적 다계층 오디오 코덱의 비트 전송률 효율 향상을 위한 엔트로피 모델 기반 양자화 방식을 제안한다. 최근 심층 신경망을 이용하여 전통적인 신호 처리 이론 기반의 상용 오디오 코덱들을 대체하기 위한 오디오 압축 및 복원 시스템에 관한 연구가 활발하게 이루어지고 있다. 그러나 아직은 기존 상용 코덱의 성능에 도달하지 못하고 있으며 특히 종단 간 오디오 압축 모델의 경우, 적은 정보량으로 높은 품질을 얻기 위해서는 부호화기의 양자화 구조를 개선하는 것이 필수적이다. 본 연구에서는 기존에 제안된 종단 간 오디오 압축 모델 중 하나인 점진적 다계층 오디오 코덱의 벡터 양자화기를 엔트로피 모델 기반 양자화기로 대체하고 전송률-왜곡 트레이드오프 관계를 활용하여 전송률을 다양한 형태로 조절할 수 있음을 보임으로써 엔트로피 모델 기반 양자화기 도입의 타당성을 검증한다.

  • PDF