• 제목/요약/키워드: Knowledge Distillation

검색결과 49건 처리시간 0.027초

변형 가능한 컨볼루션 네트워크와 지식증류 기반 위성 영상 빌딩 분할 (Satellite Building Segmentation using Deformable Convolution and Knowledge Distillation)

  • 최근훈;이응빈;최병인;이태영;안종식;손광훈
    • 한국멀티미디어학회논문지
    • /
    • 제25권7호
    • /
    • pp.895-902
    • /
    • 2022
  • Building segmentation using satellite imagery such as EO (Electro-Optical) and SAR (Synthetic-Aperture Radar) images are widely used due to their various uses. EO images have the advantage of having color information, and they are noise-free. In contrast, SAR images can identify the physical characteristics and geometrical information that the EO image cannot capture. This paper proposes a learning framework for efficient building segmentation that consists of a teacher-student-based privileged knowledge distillation and deformable convolution block. The teacher network utilizes EO and SAR images simultaneously to produce richer features and provide them to the student network, while the student network only uses EO images. To do this, we present objective functions that consist of Kullback-Leibler divergence loss and knowledge distillation loss. Furthermore, we introduce deformable convolution to avoid pixel-level noise and efficiently capture hard samples such as small and thin buildings at the global level. Experimental result shows that our method outperforms other methods and efficiently captures complex samples such as a small or narrow building. Moreover, Since our method can be applied to various methods.

보행자 경로 예측 기법을 이용한 위험구역 진입 여부 결정과 Knowledge Distillation을 이용한 작은 모델 학습 개선 (Determining Whether to Enter a Hazardous Area Using Pedestrian Trajectory Prediction Techniques and Improving the Training of Small Models with Knowledge Distillation)

  • 최인규;이영한;송혁
    • 한국정보통신학회논문지
    • /
    • 제25권9호
    • /
    • pp.1244-1253
    • /
    • 2021
  • 본 논문에서는 보행자 경로 예측 기법을 이용하여 보행자들이 현재 시점 이후로 위험구역으로 진입하는지 사전에 예측하는 방법과 경로 예측 네트워크의 효율적인 간소화 방법을 제안한다. 그리고 임베디드 환경에서 실시간 운용을 위해 작은 네트워크에 대하여 KD(Knowledge Distillation)을 적용하는 방법을 제안한다. 예측된 미래 경로와 위험구역 간의 상관관계를 이용하여 진입 여부를 판단하였으며 작은 네트워크를 학습할 때 효율적인 KD를 적용하여 성능저하를 최소화하였다. 실험을 통하여, 제안하는 간소화 기법을 적용한 모델이 기존 모델과 비교하여 37.49%의 속도향상 대비 미미한 정확도 저하를 이끌어 내는 것을 보여 주었다. 또한, 91.43%의 정확도를 가진 작은 네트워크를 KD를 이용하여 학습한 결과 94.76%의 향상된 정확도를 보임을 확인하였다.

임베디드 시스템에서의 객체 분류를 위한 인공 신경망 경량화 연구 (Neural Network Model Compression Algorithms for Image Classification in Embedded Systems)

  • 신희중;오현동
    • 로봇학회논문지
    • /
    • 제17권2호
    • /
    • pp.133-141
    • /
    • 2022
  • This paper introduces model compression algorithms which make a deep neural network smaller and faster for embedded systems. The model compression algorithms can be largely categorized into pruning, quantization and knowledge distillation. In this study, gradual pruning, quantization aware training, and knowledge distillation which learns the activation boundary in the hidden layer of the teacher neural network are integrated. As a large deep neural network is compressed and accelerated by these algorithms, embedded computing boards can run the deep neural network much faster with less memory usage while preserving the reasonable accuracy. To evaluate the performance of the compressed neural networks, we evaluate the size, latency and accuracy of the deep neural network, DenseNet201, for image classification with CIFAR-10 dataset on the NVIDIA Jetson Xavier.

비지도학습 기반의 뎁스 추정을 위한 지식 증류 기법 (Knowledge Distillation for Unsupervised Depth Estimation)

  • 송지민;이상준
    • 대한임베디드공학회논문지
    • /
    • 제17권4호
    • /
    • pp.209-215
    • /
    • 2022
  • This paper proposes a novel approach for training an unsupervised depth estimation algorithm. The objective of unsupervised depth estimation is to estimate pixel-wise distances from camera without external supervision. While most previous works focus on model architectures, loss functions, and masking methods for considering dynamic objects, this paper focuses on the training framework to effectively use depth cue. The main loss function of unsupervised depth estimation algorithms is known as the photometric error. In this paper, we claim that direct depth cue is more effective than the photometric error. To obtain the direct depth cue, we adopt the technique of knowledge distillation which is a teacher-student learning framework. We train a teacher network based on a previous unsupervised method, and its depth predictions are utilized as pseudo labels. The pseudo labels are employed to train a student network. In experiments, our proposed algorithm shows a comparable performance with the state-of-the-art algorithm, and we demonstrate that our teacher-student framework is effective in the problem of unsupervised depth estimation.

Area-wise relational knowledge distillation

  • Sungchul Cho;Sangje Park;Changwon Lim
    • Communications for Statistical Applications and Methods
    • /
    • 제30권5호
    • /
    • pp.501-516
    • /
    • 2023
  • Knowledge distillation (KD) refers to extracting knowledge from a large and complex model (teacher) and transferring it to a relatively small model (student). This can be done by training the teacher model to obtain the activation function values of the hidden or the output layers and then retraining the student model using the same training data with the obtained values. Recently, relational KD (RKD) has been proposed to extract knowledge about relative differences in training data. This method improved the performance of the student model compared to conventional KDs. In this paper, we propose a new method for RKD by introducing a new loss function for RKD. The proposed loss function is defined using the area difference between the teacher model and the student model in a specific hidden layer, and it is shown that the model can be successfully compressed, and the generalization performance of the model can be improved. We demonstrate that the accuracy of the model applying the method proposed in the study of model compression of audio data is up to 1.8% higher than that of the existing method. For the study of model generalization, we demonstrate that the model has up to 0.5% better performance in accuracy when introducing the RKD method to self-KD using image data.

얼굴인식 성능 향상을 위한 얼굴 전역 및 지역 특징 기반 앙상블 압축 심층합성곱신경망 모델 제안 (Compressed Ensemble of Deep Convolutional Neural Networks with Global and Local Facial Features for Improved Face Recognition)

  • 윤경신;최재영
    • 한국멀티미디어학회논문지
    • /
    • 제23권8호
    • /
    • pp.1019-1029
    • /
    • 2020
  • In this paper, we propose a novel knowledge distillation algorithm to create an compressed deep ensemble network coupled with the combined use of local and global features of face images. In order to transfer the capability of high-level recognition performances of the ensemble deep networks to a single deep network, the probability for class prediction, which is the softmax output of the ensemble network, is used as soft target for training a single deep network. By applying the knowledge distillation algorithm, the local feature informations obtained by training the deep ensemble network using facial subregions of the face image as input are transmitted to a single deep network to create a so-called compressed ensemble DCNN. The experimental results demonstrate that our proposed compressed ensemble deep network can maintain the recognition performance of the complex ensemble deep networks and is superior to the recognition performance of a single deep network. In addition, our proposed method can significantly reduce the storage(memory) space and execution time, compared to the conventional ensemble deep networks developed for face recognition.

다중 스케일 얼굴 영역 딕셔너리의 적대적 증류를 이용한 얼굴 초해상화 (Face Super-Resolution using Adversarial Distillation of Multi-Scale Facial Region Dictionary)

  • 조병호;박인규;홍성은
    • 방송공학회논문지
    • /
    • 제26권5호
    • /
    • pp.608-620
    • /
    • 2021
  • 최근 딥러닝 기반의 얼굴 초해상화 연구는 일반적인 영상에 대한 초해상화 연구와 달리 인간의 얼굴이 가지는 구조적 혹은 의미론적인 특성을 반영한 안면 랜드마크 정보, 주요 영역 딕셔너리와 같은 사전 및 참조 정보를 사용하여 우수한 초해상화 결과를 보였다. 그러나 얼굴에 특화된 사전 정보를 사용할 시 추가적인 처리 소요 시간과 메모리를 요구하는 단점이 존재한다. 본 논문은 앞서 언급한 한계점을 극복하고자 지식 증류 기법을 활용한 효율적인 초해상화 모델을 제안한다. 주요 얼굴 영역 기반의 딕셔너리 정보를 사용하는 선생 모델에 지식 증류 기법을 적용하여 추론 시 랜드마크 정보와 부가적인 딕셔너리 사용이 필요 없는 학생 모델을 구축하였다. 제안하는 학생 모델은 특징맵 기반의 적대적 지식 증류를 통해 얼굴 주요 영역 딕셔너리를 가지고 있는 선생 모델로부터 학습을 진행하였다. 본 논문은 제안하는 학생 모델의 실험 결과를 통해 정량 및 정성적으로 우수함을 보이며 선생 모델의 연산량에 비해 90% 이상 절감되는 효율성을 증명한다.

Optimizing SR-GAN for Resource-Efficient Single-Image Super-Resolution via Knowledge Distillation

  • Sajid Hussain;Jung-Hun Shin;Kum-Won Cho
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.479-481
    • /
    • 2023
  • Generative Adversarial Networks (GANs) have facilitated substantial improvement in single-image super-resolution (SR) by enabling the generation of photo-realistic images. However, the high memory requirements of GAN-based SRs (mainly generators) lead to reduced performance and increased energy consumption, making it difficult to implement them onto resource-constricted devices. In this study, we propose an efficient and compressed architecture for the SR-GAN (generator) model using the model compression technique Knowledge Distillation. Our approach involves the transmission of knowledge from a heavy network to a lightweight one, which reduces the storage requirement of the model by 58% with also an increase in their performance. Experimental results on various benchmarks indicate that our proposed compressed model enhances performance with an increase in PSNR, SSIM, and image quality respectively for x4 super-resolution tasks.

초해상화 모델 경량화를 위한 지식 증류 방법의 비교 연구 (A Comparative Study of Knowledge Distillation Methods in Lightening a Super-Resolution Model)

  • 이여진;박한훈
    • 융합신호처리학회논문지
    • /
    • 제24권1호
    • /
    • pp.21-26
    • /
    • 2023
  • 지식 증류는 깊은 모델의 지식을 가벼운 모델로 전달하는 모델 경량화 기술이다. 대부분의 지식 증류 방법들은 분류 모델을 위해 개발되었으며, 초해상화를 위한 지식 증류 연구는 거의 없었다. 본 논문에서는 다양한 지식 증류 방법들을 초해상화 모델에 적용하고 성능을 비교한다. 구체적으로, 초해상화 모델에 각 지식 증류 방법을 적용하기 위해 손실 함수를 수정하고, 각 지식 증류 방법을 사용하여 교사 모델을 약 27배 경량화한 학생 모델을 학습하여 2배 초해상화하는 실험을 진행하였다. 실험을 통해, 일부 지식 증류 방법은 초해상화 모델에 적용할 경우 유효하지 않음을 알 수 있었으며, 관계 기반 지식 증류 방법과 전통적인 지식 증류 방법을 결합했을 때 성능이 가장 높은 것을 확인하였다.

익스플리싯 피드백 환경에서 추천 시스템을 위한 최신 지식증류기법들에 대한 성능 및 정확도 평가 (State-of-the-Art Knowledge Distillation for Recommender Systems in Explicit Feedback Settings: Methods and Evaluation)

  • 배홍균;김지연;김상욱
    • 스마트미디어저널
    • /
    • 제12권9호
    • /
    • pp.89-94
    • /
    • 2023
  • 추천 시스템은 사용자가 아이템에 남긴 익스플리싯 또는 임플리싯 피드백을 바탕으로 각 사용자가 선호할 법한 아이템들을 추천하는 기술이다. 최근, 추천 시스템에 사용되는 딥 러닝 기반 모델의 사이즈가 커짐에 따라, 높은 추천 정확도를 유지하며 추론 시간은 줄이기 위한 목적의 연구가 활발히 진행되고 있다. 대표적으로 지식증류기법을 이용한 추천 시스템에 관한 연구가 있으며, 지식증류기법이란 큰 사이즈의 모델(즉, 교사)로부터 추출된 지식을 통해 작은 사이즈의 모델(즉, 학생)을 학습시킨 뒤, 학습이 끝난 작은 사이즈의 모델을 추천 모델로서 이용하는 방법이다. 추천 시스템을 위한 지식증류기법들에 관한 기존의 연구들은 주로 임플리싯 피드백 환경만을 대상으로 수행되어 왔었으며, 본 논문에서 우리는 이들을 익스플리싯 피드백 환경에 적용할 경우의 성능 및 정확도를 관찰하고자 한다. 실험을 위해 우리는 총 5개의 최신 지식증류기법들과 3개의 실세계 데이터셋을 사용하였다.