• Title/Summary/Keyword: 손실함수

Search Result 716, Processing Time 0.031 seconds

Optimization of Multi-time Scale Loss Function Suitable for DNN-based Audio Coder (심층신경망 기반 오디오 부호화기를 위한 Multi-time Scale 손실함수의 최적화)

  • Shin, Seung-Min;Byun, Joon;Park, Young-Cheol;Beack, Seung-kwon;Sung, Jong-mo
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.1315-1317
    • /
    • 2022
  • 최근, 심층신경망 기반 오디오 부호화기가 활발히 연구되고 있다. 심층신경망 기반 오디오 부호화기는 기존의 전통적인 오디오 부호화기보다 구조적으로 간단하지만, 네트워크의 복잡도를 증가시키지 않고 인지적 성능향상을 기대하는 것은 어렵다. 이 문제를 해결하기 위하여 인간의 청각적 특성을 활용한 심리음향모델 기반 손실함수를 사용한 기법들이 소개되었다. 심리음향 모델 기반 손실함수를 사용한 오디오 부호화기는 양자화 잡음을 잘 제어하였지만, 여전히 지각적인 향상이 필요하다. 본 논문에서는 심층신경망 기반 오디오 부호화기를 위한 Multi-time Scale 손실함수의 지역 손실함수 윈도우 크기의 최적화 제안한다. Multi-time Scale 손실함수의 지역 손실함수 계산을 위한 윈도우 크기를 조절하며, 이를 통하여 오디오 부호화에 적합한 윈도우 사이즈를 결정한다. 실험을 통해 얻은 최적의 Multi-time Scale 손실함수를 사용하여 네트워크를 훈련하였고, 주관적 평가를 통해 기존의 심리음향모델 기반 손실함수보다 좋은 음성 품질을 보여주는 것을 확인하였다.

  • PDF

A study on loss combination in time and frequency for effective speech enhancement based on complex-valued spectrum (효과적인 복소 스펙트럼 기반 음성 향상을 위한 시간과 주파수 영역 손실함수 조합에 관한 연구)

  • Jung, Jaehee;Kim, Wooil
    • The Journal of the Acoustical Society of Korea
    • /
    • v.41 no.1
    • /
    • pp.38-44
    • /
    • 2022
  • Speech enhancement is performed to improve intelligibility and quality of the noise-corrupted speech. In this paper, speech enhancement performance was compared using different loss functions in time and frequency domains. This study proposes a combination of loss functions to utilize advantage of each domain by considering both the details of spectrum and the speech waveform. In our study, Scale Invariant-Source to Noise Ratio (SI-SNR) is used for the time domain loss function, and Mean Squared Error (MSE) is used for the frequency domain, which is calculated over the complex-valued spectrum and magnitude spectrum. The phase loss is obtained using the sin function. Speech enhancement result is evaluated using Source-to-Distortion Ratio (SDR), Perceptual Evaluation of Speech Quality (PESQ), and Short-Time Objective Intelligibility (STOI). In order to confirm the result of speech enhancement, resulting spectrograms are also compared. The experimental results over the TIMIT database show the highest performance when using combination of SI-SNR and magnitude loss functions.

Development of Loss Function for Estimation of Flood Damage Cost in Main Public Facilities - Road·Water and Sewerage Facilities - (주요 공공시설물의 홍수피해액 추정을 위한 손실함수 개발 - 도로 및 상·하수도시설물 -)

  • Hwang, Shin Bum;Kim, Sang Ho
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.49-49
    • /
    • 2021
  • 홍수 발생 시 제내지에 존재하는 도로 및 상·하수도시설물은 저지대를 중심으로 생성되는 침수지역이 아닌 대부분 집중호우, 태풍으로 인해 발생한 유출량이 지표면 유출로 이어져 지면 경사를 따라 유하하면서 흐름을 방해하거나 노후된 시설물 등에서 피해가 발생한다. 이러한 피해발생 특성을 고려하여 홍수피해액을 추정하기에는 침수면적과 시설물 현황 등을 활용하는 기존의 손실 함수 개발 방법으로는 부족한 부분이 존재하며, 유수 흐름의 주요 인자인 침수심, 유속 등과 같은 수리특성을 고려하여 시설물에 대한 홍수피해액을 추정하는 방안이 필요하다. 본 연구에서는 수리특성을 고려한 시설물의 홍수피해액을 추정하기 위한 손실함수를 개발하고자 국가재난정보관리시스템(NDMS) DB에서 해당 시설물의 상세주소를 이용하여 피해 발생위치와 피해액을 파악하였으며, 2차원 수리해석 모형인 FLO-2D를 활용하여 시설물의 피해위치에서 발생된 수리특성 인자인 침수심과 유속을 분석하였다. 시설물의 단위면적 당 피해액을 종속변수로, 분석된 평균 침수심과 평균 유속을 독립변수로 선정한 후 변수 자료들의 신뢰성과 함수의 설명력을 향상시키기 위하여 이상자료들을 제거한 후 손실함수를 개발하였다. 본 연구에서 개발된 손실함수는 수리특성 인자인 침수심과 유속에 의하여 홍수피해액을 직접적으로 추정하는 방법으로 향후 홍수재해에 대한 사전 재산피해 추정을 통하여 합리적인 선제적 예방조치 등의 홍수재해 예방 활동 등에 활용될 수 있을 것으로 기대한다.

  • PDF

Effects of the Loss Function for Korean Left-To-Right Dependency Parser (의존 구문 분석에 손실 함수가 미치는 영향: 한국어 Left-To-Right Parser를 중심으로)

  • Lee, Jinu;Choi, Maengsik;Lee, Chunghee;Lee, Yeonsoo
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.93-97
    • /
    • 2020
  • 본 연구는 딥 러닝 기반 의존 구문 분석에서, 학습에 적용하는 손실 함수에 따른 성능을 평가하였다. Pointer Network를 이용한 Left-To-Right 모델을 총 세 가지의 손실 함수(Maximize Golden Probability, Cross Entropy, Local Hinge)를 이용하여 학습시켰다. 그 결과 LH 손실 함수로 학습한 모델이 선행 연구와 같이 MGP 손실 함수로 학습한 것에 비해 UAS/LAS가 각각 0.86%p/0.87%p 상승하였으며, 특히 의존 거리가 먼 경우에 대하여 분석 성능이 크게 향상됨을 확인하였다. 딥러닝 의존 구문 분석기를 구현할 때 학습모델과 입력 표상뿐만 아니라 손실 함수 역시 중요하게 고려되어야 함을 보였다.

  • PDF

Development of Loss Functions for River Facilities (하천시설물에 대한 손실함수의 개발)

  • Kim, Sang Ho;Hwang, Shin Bum;Kim, Yeon Su;Hee, Chang
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2017.05a
    • /
    • pp.122-122
    • /
    • 2017
  • 재해로부터 국민의 인명과 재산을 보호하기 위해서는 재해 발생의 빈도 증가와 대형화 추세에 따라 예상되어지는 피해규모의 분석과 예측을 통한 대책 마련이 필요하다. 한국의 경우 피해지역 조사를 통하여 획득한 피해일시, 피해시설물, 피해내역, 피해액과 같은 피해액 정보를 관리하는 국가재난관리시스템(National Disaster Management System, NDMS)이 운영되고 있다. 그러나 공공시설물 중 가장 많은 피해액을 나타내고 있는 하천시설물에 대한 피해규모의 예측에 대한 연구는 전무한 실정이다. 본 연구에서는 국가재난관리시스템의 과거 하천 피해정보를 이용하여 하천의 구간별 평균유속과 피해연장으로부터 하천의 피해액을 추정할 수 있는 하천 손실함수를 개발하였으며, 시범 대상지역에 적용하여 검증하였다. 하천 손실함수는 향후 피해액 추정에 따른 피해규모 분석을 통하여 재해저감대책을 마련하는데 필요한 유용한 정보로 활용될 수 있을 것이다.

  • PDF

A Study on the Loss Functions of GAN Models (GAN 모델에서 손실함수 분석)

  • Lee, Cho-Youn;Park, JiSu;Shon, Jin Gon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.942-945
    • /
    • 2019
  • 현재 딥러닝은 컴퓨터 분야에서 이미지 처리 방법으로 활용도가 높아지면서 딥러닝 모델 개발 연구가 활발히 진행되고 있다. 딥러닝 모델 중에서 이미지 생성모델은 대표적으로 GAN(Generative Adversarial Network, 생성적 적대 신경망) 모델을 활용하고 있다. GAN은 생성기 네트워크와 판별기 네트워크를 이용하여 진짜 같은 이미지를 생성한다. 생성된 이미지는 실제 이미지와의 오차를 최소화해야 하며 이때 사용하는 함수를 손실함수라고 한다. GAN에서 손실함수는 이미지를 생성하는 학습이 불안정하여 이미지 품질이 떨어지는 문제가 있다. 개선된 GAN 관련 연구가 진행되고 있지만 완전한 문제 해결에는 부족하다. 본 논문은 7개의 GAN 모델에서 사용하는 손실함수를 분류하고 특징을 분석한다.

Development of Loss Functions for Public Facilities Damage - by Heavy Rain and Typhoon - (호우·태풍 피해에 따른 공공시설물 손실함수 개발에 관한 연구 - 도로 및 상·하수도 시설물 -)

  • Hwang, Shin Bum;Kim, Sang Ho;Lee, Chang Hee
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2019.05a
    • /
    • pp.25-25
    • /
    • 2019
  • 자연재해에 따른 피해로부터 국민의 재산과 인명 등을 보호하기 위해서는 예상되는 재해로부터 발생하는 피해규모에 대한 분석과 예측을 통한 대책 마련이 필요하다. 본 연구에서는 최근 10년간 발생되어진 자연재해 원인과 시설물별 분류 결과를 통하여 가장 많은 피해가 발생되어진 호우 태풍에 따른 공공시설물 피해에 대한 피해규모를 예측할 수 있는 손상 손실함수를 개발하고자 하였다. 공공시설물 중에서도 제외지에서 대부분의 피해가 발생하는 하천시설물 외에 국민의 생활영역인 제내지에서 피해규모가 크게 발생하였으며, 국가재난관리시스템(NDMS)의 피해내역 시설물 분류가 명확한 도로 시설물과 상 하수도 시설물을 함수 개발 대상물로 선정하였다. 도로와 상 하수도 시설물에 대한 국가재난관리시스템(NDMS)의 과거 피해내역과 호우 태풍에 의한 피해발생 규모로서 일반적으로 활용되고 있는 침수예상도 범람도 등을 활용하기 위하여 피해액을 종속변수로 침수면적을 독립변수로 이용하여 도로와 상 하수도 시설물의 피해액을 추정할 수 있는 손실함수를 개발하였다. 개발되어진 도로 시설물 및 상 하수도 시설물에 대한 손실함수는 향후 재해에 따라 발생 가능한 추정 피해액 규모 분석 등을 통하여 재해저감 대책을 위한 기초자료로 활용될 것으로 기대한다.

  • PDF

Comparison of Deep Learning Loss Function Performance for Medical Video Biomarker Extraction (의료 영상 바이오마커 추출을 위한 딥러닝 손실함수 성능 비교)

  • Seo, Jin-beom;Cho, Young-bok
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2021.05a
    • /
    • pp.72-74
    • /
    • 2021
  • The deep learning process currently utilized in various fields consists of data preparation, data preprocessing, model generation, model learning, and model evaluation. In the process of model learning, the loss function compares the value of the model with the actual value and outputs the difference. In this paper, we analyze various loss functions used in the deep learning model for biomarker extraction, which measure the degree of loss of neural network output values, and try to find the best loss function through experiments.

  • PDF

Performance comparison evaluation of speech enhancement using various loss functions (다양한 손실 함수를 이용한 음성 향상 성능 비교 평가)

  • Hwang, Seo-Rim;Byun, Joon;Park, Young-Cheol
    • The Journal of the Acoustical Society of Korea
    • /
    • v.40 no.2
    • /
    • pp.176-182
    • /
    • 2021
  • This paper evaluates and compares the performance of the Deep Nerual Network (DNN)-based speech enhancement models according to various loss functions. We used a complex network that can consider the phase information of speech as a baseline model. As the loss function, we consider two types of basic loss functions; the Mean Squared Error (MSE) and the Scale-Invariant Source-to-Noise Ratio (SI-SNR), and two types of perceptual-based loss functions, including the Perceptual Metric for Speech Quality Evaluation (PMSQE) and the Log Mel Spectra (LMS). The performance comparison was performed through objective evaluation and listening tests with outputs obtained using various combinations of the loss functions. Test results show that when a perceptual-based loss function was combined with MSE or SI-SNR, the overall performance is improved, and the perceptual-based loss functions, even exhibiting lower objective scores showed better performance in the listening test.

Performance Improvement Method of Deep Neural Network Using Parametric Activation Functions (파라메트릭 활성함수를 이용한 심층신경망의 성능향상 방법)

  • Kong, Nayoung;Ko, Sunwoo
    • The Journal of the Korea Contents Association
    • /
    • v.21 no.3
    • /
    • pp.616-625
    • /
    • 2021
  • Deep neural networks are an approximation method that approximates an arbitrary function to a linear model and then repeats additional approximation using a nonlinear active function. In this process, the method of evaluating the performance of approximation uses the loss function. Existing in-depth learning methods implement approximation that takes into account loss functions in the linear approximation process, but non-linear approximation phases that use active functions use non-linear transformation that is not related to reduction of loss functions of loss. This study proposes parametric activation functions that introduce scale parameters that can change the scale of activation functions and location parameters that can change the location of activation functions. By introducing parametric activation functions based on scale and location parameters, the performance of nonlinear approximation using activation functions can be improved. The scale and location parameters in each hidden layer can improve the performance of the deep neural network by determining parameters that minimize the loss function value through the learning process using the primary differential coefficient of the loss function for the parameters in the backpropagation. Through MNIST classification problems and XOR problems, parametric activation functions have been found to have superior performance over existing activation functions.