• 제목/요약/키워드: Knowledge Distillation

검색결과 53건 처리시간 0.177초

얼굴 영상 기반의 심박수 추정을 위한 딥러닝 모델의 경량화 기법 (Lightweight Deep Learning Model for Heart Rate Estimation from Facial Videos)

  • 황규태;박명근;이상준
    • 대한임베디드공학회논문지
    • /
    • 제18권2호
    • /
    • pp.51-58
    • /
    • 2023
  • This paper proposes a deep learning method for estimating the heart rate from facial videos. Our proposed method estimates remote photoplethysmography (rPPG) signals to predict the heart rate. Although there have been proposed several methods for estimating rPPG signals, most previous methods can not be utilized in low-power single board computers due to their computational complexity. To address this problem, we construct a lightweight student model and employ a knowledge distillation technique to reduce the performance degradation of a deeper network model. The teacher model consists of 795k parameters, whereas the student model only contains 24k parameters, and therefore, the inference time was reduced with the factor of 10. By distilling the knowledge of the intermediate feature maps of the teacher model, we improved the accuracy of the student model for estimating the heart rate. Experiments were conducted on the UBFC-rPPG dataset to demonstrate the effectiveness of the proposed method. Moreover, we collected our own dataset to verify the accuracy and processing time of the proposed method on a real-world dataset. Experimental results on a NVIDIA Jetson Nano board demonstrate that our proposed method can infer the heart rate in real time with the mean absolute error of 2.5183 bpm.

Cooperative Multi-agent Reinforcement Learning on Sparse Reward Battlefield Environment using QMIX and RND in Ray RLlib

  • Minkyoung Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권1호
    • /
    • pp.11-19
    • /
    • 2024
  • 멀티에이전트는 전장 교전 상황, 무인 운송 차량 등 다양한 실제 협동 환경에 사용될 수 있다. 전장 교전 상황에서는 도메인 정보의 제한으로 즉각적인 보상(Dense Reward) 설계의 어려움이 있어 명백한 희소 보상(Sparse Reward)으로 학습되는 상황을 고려해야 한다. 본 논문에서는 전장 교전 상황에서의 아군 에이전트 간 협업 가능성을 확인하며, 희소 보상 환경인 Multi-Robot Warehouse Environment(RWARE)를 활용하여 유사한 문제와 평가 기준을 정의하고, 강화학습 라이브러리인 Ray RLlib의 QMIX 알고리즘을 사용하여 학습 환경을 구성한다. 정의한 문제에 대해 QMIX의 Agent Network를 개선하고 Random Network Distillation(RND)을 적용한다. 이를 통해 에이전트의 부분 관측값에 대한 패턴과 시간 특징을 추출하고, 에이전트의 내적 보상(Intrinsic Reward)을 통해 희소 보상 경험 획득 개선이 가능함을 실험을 통해 확인한다.

경량 딥러닝 기술 동향 (Recent R&D Trends for Lightweight Deep Learning)

  • 이용주;문용혁;박준용;민옥기
    • 전자통신동향분석
    • /
    • 제34권2호
    • /
    • pp.40-50
    • /
    • 2019
  • Considerable accuracy improvements in deep learning have recently been achieved in many applications that require large amounts of computation and expensive memory. However, recent advanced techniques for compacting and accelerating the deep learning model have been developed for deployment in lightweight devices with constrained resources. Lightweight deep learning techniques can be categorized into two schemes: lightweight deep learning algorithms (model simplification and efficient convolutional filters) in nature and transferring models into compact/small ones (model compression and knowledge distillation). In this report, we briefly summarize various lightweight deep learning techniques and possible research directions.

다중 클래스 환경의 추천 시스템을 위한 지식 증류 기법들의 비교 분석 (Knowledge Distillation for Recommender Systems in Multi-Class Settings: Methods and Evaluation)

  • 김지연;배홍균;김상욱
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.356-358
    • /
    • 2022
  • 추천 시스템에서 사용되는 피드백은 단일 클래스와 다중 클래스 피드백으로 구분할 수 있다. 추천 시스템을 위한 지식 증류 기법들은 단일 클래스 환경에서 주로 연구되어 왔다. 우리는 다중 클래스 환경에서 또한 추천 시스템을 위한 최신 지식 증류 기법들이 효과적인지에 대해 알아보고자 하며, 해당 방법들 간의 추천 정확도를 비교해보고자 한다. 추천 시스템에서 보편적으로 사용되는 데이터 셋들을 기반으로 한 실험들을 통해 추천 시스템을 위한 지식 증류 기법들은 같은 조건의 기본적인 추천 시스템에 비해 정확도가 최대 193%까지 개선되는 것을 확인했다.

수치 모델을 활용한 지식 증류 기반 기상 예측 딥러닝 모델 (Deep Learning Model for Weather Forecast based on Knowledge Distillation using Numerical Simulation Model)

  • 유선희;정은성
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.530-531
    • /
    • 2023
  • 딥러닝에서 지식 증류 기법은 큰 모델의 지식을 작은 모델로 전달하여 작은 모델의 성능을 개선하는 방식이다. 지식 증류 기법은 모델 경량화, 학습 속도 향상, 학습 정확도 향상 등에 활용될 수 있는데, 교사 모델이라 불리는 큰 모델은 일반적으로 학습된 딥러닝 모델을 사용한다. 본 연구에서는 학습된 딥러닝 모델 대신에 수치 기반 시뮬레이션 모델을 사용함으로써 어떠한 효과가 있는지 검증하였으며, 수치 모델을 활용한 기상 예측 모델에서의 지식 증류는 기존 단독 딥러닝 모델 학습 대비 더 작은 학습 횟수(epoch)에서도 동일한 에러 수준(RMSE)까지 도달하여, 학습 속도 측면에서 이득이 있음을 확인하였다.

글로벌 최적 솔루션을 위한 설명 가능한 심층 강화 학습 지식 증류 (Explainable Deep Reinforcement Learning Knowledge Distillation for Global Optimal Solutions)

  • 이봉준 ;조인휘
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.524-525
    • /
    • 2023
  • 설명 가능한 심층 강화 학습 지식 증류 방법(ERL-KD)이 제안하였다. 이 방법은 모든 하위 에이전트로부터 점수를 수집하며, 메인 에이전트는 주 교사 네트워크 역할을 하고 하위 에이전트는 보조 교사 네트워크 역할을 한다. 글로벌 최적 솔루션은 샤플리 값과 같은 해석 가능한 방법을 통해 얻어진다. 또한 유사도 제약이라는 개념을 도입하여 교사 네트워크와 학생 네트워크 간의 유사도를 조정함으로써 학생 네트워크가 자유롭게 탐색할 수 있도록 유도한다. 실험 결과, 학생 네트워크는 아타리 2600 환경에서 대규모 교사 네트워크와 비슷한 성능을 달성하는 것으로 나타났다.

이미지 분류 문제를 위한 focal calibration loss 기반의 지식증류 기법 (Focal Calibration Loss-Based Knowledge Distillation for Image Classification)

  • 강지연 ;이재원 ;이상민
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.695-697
    • /
    • 2023
  • 최근 몇 년 간 딥러닝 기반 모델의 규모와 복잡성이 증가하면서 강력하고, 높은 정확도가 확보되지만 많은 양의 계산 자원과 메모리가 필요하기 때문에 모바일 장치나 임베디드 시스템과 같은 리소스가 제한된 환경에서의 배포에 제약사항이 생긴다. 복잡한 딥러닝 모델의 배포 및 운영 시 요구되는 고성능 컴퓨터 자원의 문제점을 해결하고자 사전 학습된 대규모 모델로부터 가벼운 모델을 학습시키는 지식증류 기법이 제안되었다. 하지만 현대 딥러닝 기반 모델은 높은 정확도 대비 훈련 데이터에 과적합 되는 과잉 확신(overconfidence) 문제에 대한 대책이 필요하다. 본 논문은 효율적인 경량화를 위한 미리 학습된 모델의 과잉 확신을 방지하고자 초점 손실(focal loss)을 이용한 모델 보정 기법을 언급하며, 다양한 손실 함수 변형에 따라서 지식증류의 성능이 어떻게 변화하는지에 대해 탐구하고자 한다.

다중 신경망으로부터 해석 중심의 적응적 지식 증류 (Explanation-focused Adaptive Multi-teacher Knowledge Distillation)

  • 이자윤;조인휘
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.592-595
    • /
    • 2024
  • 엄청난 성능에도 불구하고, 심층 신경망은 예측결과에 대한 설명이 없는 블랙 박스로 작동한다는 비판을 받고 있다. 이러한 불투명한 표현은 신뢰성을 제한하고 모델의 대한 과학적 이해를 방해한다. 본 연구는 여러 개의 교사 신경망으로부터 설명 중심의 학생 신경망으로 지식 증류를 통해 해석 가능성을 향상시키는 것을 제안한다. 구체적으로, 인간이 정의한 개념 활성화 벡터 (CAV)를 통해 교사 모델의 개념 민감도를 방향성 도함수를 사용하여 계량화한다. 목표 개념에 대한 민감도 점수에 비례하여 교사 지식 융합을 가중치를 부여함으로써 증류된 학생 모델은 양호한 성능을 달성하면서 네트워크 논리를 해석으로 집중시킨다. 실험 결과, ResNet50, DenseNet201 및 EfficientNetV2-S 앙상블을 7 배 작은 아키텍처로 압축하여 정확도가 6% 향상되었다. 이 방법은 모델 용량, 예측 능력 및 해석 가능성 사이의 트레이드오프를 조화하고자 한다. 이는 모바일 플랫폼부터 안정성이 중요한 도메인에 걸쳐 믿을 수 있는 AI 의 미래를 여는 데 도움이 될 것이다.

석탄 유분에 대한 물성예측식 개발 및 공정에 대한 연구 (Thermodynamic Correlations for Predicting the Properties of Coal-Tar Fractions and Process Analysys)

  • 오준성;이의수;박상진
    • Korean Chemical Engineering Research
    • /
    • 제43권4호
    • /
    • pp.458-466
    • /
    • 2005
  • 회분식 증류 공정을 모델링하기 위해서는 평형상수와 엔탈피값이 필요하며 이 값들은 열역학적인 계산 방법에 의해 계산된다. 석탄 유분인 coal tar의 경우에는 성분이 다양하고 coal tar내의 성분을 대부분 알 수 없으므로 가상성분으로 만들어 적절한 물성예측식을 사용하여 물성값을 계산해 주어야 한다. 본 연구에서는 기존의 물성예측식에 의해 계산된 값과 이미 알려진 coal tar 유분의 실제물성값의 차이를 기 개발된 물성예측식에 대해 비교하였고 물성예측식에 필요한 2개의 parameter(NBP, SG)대신 1개의 변수(NBP)를 사용하여 간단한 물성예측식을 도출하였다. 또한 이상 기체 열용량 예측식의 경우에도 같은 방법을 적용하였다. 개발된 물성 예측식 및 회분식 증류공정프로그램은 coal tar계에 적용하여 coal tar 중 유효성분 분리를 위해 효율적으로 적용할 수 있다 하겠다.

Dietary Guidelines for the Elderly

  • Kim, Cho-Il
    • Journal of Community Nutrition
    • /
    • 제2권1호
    • /
    • pp.52-61
    • /
    • 2000
  • Dietary guidelines are a distillation of dietary advice from health professionals to the general public. They are based upon current scientific knowledge about the relationships between diet and disease, nutrients available in the food supply of a country, and the profile of morbidity and mortality in that country. With two different sets of dietary guidelines used for more than an decade in Korea. the necessity of revising dietary guidelines has been raised continuously from academia and research. Funded by a grant from the Health Technology Planing and Evaluation Board. Dietary guidelines for each age group were drafted as a research project and the one for the Korean elderly is as follows: Dietary Guidelines for the korean elderly(draft) - Have a variety of easily digestible foods on time; at least 3 meals a day and some snakes. - Be physically active to maintain appetite and/or ideal body weight. ; maintain a balance between activity and what you eat. -Increase consumption of bean-and dairy-and dairy-products. - Consume enough amounts of fresh dark-green and yellow vegetables and fresh fruits. - Consume adequate amounts of assorted kind of animal foods including fish, meat and poultry. - If you drink alcoholic beverages, limit your intake and, drink enough water and other averages; alcohol may interact with your medication and affect your appetite. Aforementioned draft and related contents are expected to be utilized as a neat base in formulating(or revising) dietary guidelines for Korean by the Government in near future.

  • PDF