• Title/Summary/Keyword: 함수화

Search Result 3,055, Processing Time 0.04 seconds

Weight Function on the Fuzzy Set membership and its Application to the Defuzzification (퍼지 집합의 소속함수에 대한 가중치 함수와 비퍼지화에서의 적용)

  • 정성원;이광형
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.331-333
    • /
    • 2001
  • 본 논문에서는 퍼지집합의 소속함수에 대한 가중치 함수를 제안한다. 제안하는 가중치 함수는 퍼지집합의 소속함수에 곱해지는 형태로서 적용되어지며, 이것은 소속함수에 대한 사용자의 선호도를 의미한다. 제안하는 가중치 함수의 개념은 기본적으로 소속함수를 사용하는 어떤 퍼지 집합의 응용에서도 적용될 수 있을 것으로 보이나, 본 논문에서는 그 중 한가지 경우로 비퍼지화 방법을 적용 대상으로 선택하였다. 제안하는 가중치 함수가 비퍼지화 방법에 있어서 가지는 의미를 보이며, 기존의 비퍼지화 방법들에서 이러한 가중치 함수의 개념이 어떻게 적용되어 왔는지를 보인다. 또한 기존의 비퍼지화 방법들이 개녀멩 적용되지 않은 형태의 가중치 함수를 선택하여, 비퍼지화 방법에 특정 가중치 함수를 적용하였을 때의 특성 변화를 보인다. 이러한 일반적인 형태의 가중치 함수를 퍼지집합의 소속함수에 적용함으로서, 다양한 형태의 선호도를 퍼지집합의 형태에 반영할 수 있을 것으로 보인다.

  • PDF

Analysis of D2D Utility: Relative Interference and Interference Majorization (D2D 유틸리티 분석: 상대간섭과 간섭 주요화)

  • Oh, Changyoon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.81-82
    • /
    • 2020
  • Non-convex 최적화 문제의 복잡도를 완화하도록 해주는 오목함수 결정규칙을 제안한다. 전송용량을 나타내는 유틸리티 함수는 신호와 간섭의 함수이며, non-convex이다. 유틸리티 함수를 간섭관점에서 분석한다. '상대간섭'과 '간섭주요화'를 정의한다. 상대간섭은 D2D 수신단에서의 간섭레벨을 나타낸다. 간섭주요화는 간섭을 주요간섭으로 간략화한다. 간섭주요화를 기반으로 하는 오목함수 결정규칙을 제안한다. 실험결과를 통하여 유틸리티 함수는 상대간섭 0.1 이하에서는 오목함수임을 확인하였다.

  • PDF

A Hybrid Randomizing Function Based on Elias and Peres Method (일라이어스와 페레즈의 방식에 기반한 하이브리드 무작위화 함수)

  • Pae, Sung-Il;Kim, Min-Su
    • Journal of the Korea Society of Computer and Information
    • /
    • v.17 no.12
    • /
    • pp.149-158
    • /
    • 2012
  • Proposed is a hybrid randomizing function using two asymptotically optimal randomizing functions: Elias function and Peres function. Randomizing function is an mathematical abstraction of producing a uniform random bits from a source of randomness with bias. It is known that the output rate of Elias function and Peres function approaches to the information-theoretic upper bound. Especially, for each fixed input length, Elias function is optimal. However, its computation is relatively complicated and depends on input lengths. On the contrary, Peres function is defined by a simple recursion. So its computation is much simpler, uniform over the input lengths, and runs on a small footprint. In view of this tradeoff between computational complexity and output efficiency, we propose a hybrid randomizing function that has strengths of the two randomizing functions and analyze it.

A Study of the discrete for Numerical Approximation Functions by Fourier transform (Fourier 변환을 이용한 수치 근사 함수의 이산화에 관한 연구)

  • Song, Eun-Jee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2003.05a
    • /
    • pp.367-370
    • /
    • 2003
  • 과학자나 공학자들은 빛이나 소리와 같이 주기적인 특성을 갖는 현상을 연구하는 경우가 많다. Fourier 변환은 이러한 주기함수의 근사 함수를 구할 때 유용하게 이용되고 있다. 본 논문에서는 극좌표 표현되는 함수의 근사 함수를 구하는 문제를 다룬다 일반적으로 컴퓨터 상에 구현하기 위해서는 이산형 Fourier 급수전개를 이용하는데 지금까지는 근사 함수를 컴퓨터 상에서 구할 때 이산화 표본수를 경험에 의해 임의로 결정하여 이용하였으나 본 연구에서는 Fourier 변환의 성질을 이용하여 주어진 함수에 따라 필요한 이산화 표본 수를 자동적으로 결정하는 알고리즘을 제안한다.

  • PDF

Performance Improvement Method of Deep Neural Network Using Parametric Activation Functions (파라메트릭 활성함수를 이용한 심층신경망의 성능향상 방법)

  • Kong, Nayoung;Ko, Sunwoo
    • The Journal of the Korea Contents Association
    • /
    • v.21 no.3
    • /
    • pp.616-625
    • /
    • 2021
  • Deep neural networks are an approximation method that approximates an arbitrary function to a linear model and then repeats additional approximation using a nonlinear active function. In this process, the method of evaluating the performance of approximation uses the loss function. Existing in-depth learning methods implement approximation that takes into account loss functions in the linear approximation process, but non-linear approximation phases that use active functions use non-linear transformation that is not related to reduction of loss functions of loss. This study proposes parametric activation functions that introduce scale parameters that can change the scale of activation functions and location parameters that can change the location of activation functions. By introducing parametric activation functions based on scale and location parameters, the performance of nonlinear approximation using activation functions can be improved. The scale and location parameters in each hidden layer can improve the performance of the deep neural network by determining parameters that minimize the loss function value through the learning process using the primary differential coefficient of the loss function for the parameters in the backpropagation. Through MNIST classification problems and XOR problems, parametric activation functions have been found to have superior performance over existing activation functions.

A Local Alignment Algorithm using Normalization by Functions (함수에 의한 정규화를 이용한 local alignment 알고리즘)

  • Lee, Sun-Ho;Park, Kun-Soo
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.34 no.5_6
    • /
    • pp.187-194
    • /
    • 2007
  • A local alignment algorithm does comparing two strings and finding a substring pair with size l and similarity s. To find a pair with both sufficient size and high similarity, existing normalization approaches maximize the ratio of the similarity to the size. In this paper, we introduce normalization by functions that maximizes f(s)/g(l), where f and g are non-decreasing functions. These functions, f and g, are determined by experiments comparing DNA sequences. In the experiments, our normalization by functions finds appropriate local alignments. For the previous algorithm, which evaluates the similarity by using the longest common subsequence, we show that the algorithm can also maximize the score normalized by functions, f(s)/g(l) without loss of time.

Selection of Personalized Head Related Transfer Function Using a Binary Search tree (이진 탐색 트리를 이용한 개인화된 머리 전달 함수의 탐색)

  • Lee, Ki-Seung;Lee, Seok-Pil
    • The Journal of the Acoustical Society of Korea
    • /
    • v.28 no.5
    • /
    • pp.409-415
    • /
    • 2009
  • The head-related transfer function (HRTF), which has an important role in virtual sound localization has different characteristics across the subjects. Measuring HRTF is very time-consuming and requires a set of specific apparatus. Accordingly, HRTF customization is often employed. In this paper, we propose a method to search an adequate HRTF from a set of the HRTFs. To achieve rapid and reliable customization of HRTF, all HRTFs in the database are partitioned, where a binary search tree was employed. The distortion measurement adopted in HRTF partitioning was determined in a heuristic way, which predicts the differences in perceived sound location well. The DC-Davis CIPIC HRTF database set was used to evaluate the effectiveness of the proposed method. In the listening test, where 10 subjects were participated, the stimuli filtered by the HRTF obtained by the proposed method were closer to those by the personalized HRTF in terms of sound localization. Moreover, performance of the proposed method was shown to be superior to the previous customization method, where the HRFT is selected by using anthropometric data.

A Mixed Norm Image Restoration Algorithm Using Multi Regularization Parameters (다중 정규화 매개 변수를 이용한 혼합 norm 영상 복원 방식)

  • Choi, Kwon-Yul;Kim, Myoung-Jin;Hong, Min-Cheol
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.32 no.11C
    • /
    • pp.1073-1078
    • /
    • 2007
  • In this paper, we propose an iterative mixed norm image restoration algorithm using multi regularization parameters. A functional which combines the regularized $l_2$ norm functional and the regularized $l_4$ norm functional is proposed to efficiently remove arbitrary noise. The smoothness of each functional is determined by the regularization parameters. Also, a regularization parameter is used to determine the relative importance between the regularized $l_2$ norm functional and the regularized $l_4$ norm functional using kurtosis. An iterative algorithm is utilized for obtaining a solution and its convergence is analyzed. Experimental results demonstrate the capability of the proposed algorithm.

Privacy Preserving Clustering (프라이버시를 보존하는 군집화)

  • Yoo Hyun-Jin;Kim Min-Ho;Ramakrishna R.S.
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2004.11a
    • /
    • pp.473-476
    • /
    • 2004
  • 본 논문에서는 프라이버시를 침해 하지 않는 데이터 마이닝에 대해 다룬다. 방대한 데이터에서 유용한 정보를 추출하는 데이터 마이닝분야에서 데이터로부터 프라이버시 보존의 중요성이 부각되고 있다. 그래서 프라이버시의 침해를 막기 위한 방법으로 실제 데이터를 사용하지 않고 잡음이 들어간 데이터를 사용한다. 그리고 프라이버시를 침해하지 않기 위해 잡음이 들어간 데이터로부터 데이터의 확률 밀도 함수(PDF)만을 복원한다. 이렇게 복원된 확률 밀도 함수만을 이용하여 데이터 마이닝기술, 예를 들면 분류화에 곧바로 적용함으로써 프라이버시를 보존하는 것이다. 하지만 분류화에 사용되는 데이터의 1차원적인 확률 밀도 함수만 가지고는 군집화에 사용하기가 부적절하다. 따라서 본 논문에서는 군집화를 하기 위해 잡음이 들어간 데이터로부터 결합 확률 밀도 함수(Joint PDF)를 복원하고, 복원된 결합 확률 밀도 함수만 가지고 군집화를 할 수 있는 방법을 다룬다.

  • PDF

Compression and Acceleration of Face Detector using L1 Loss and Channel Pruning (L1 목적 함수와 채널 프루닝을 이용한 얼굴 검출기 경량화)

  • Lee, Seok Hee;Jang, Young Kyun;Cho, Nam Ik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.40-42
    • /
    • 2020
  • 본 논문에서는 합성곱 기반의 얼굴 검출기 Dual Shot Face Detector (DSFD)에 대하여, 특징점 맵의 희소화와 채널 프루닝 목적 함수를 사용하여 네트웍 경량화를 수행하였다. 특징점 맵을 희소화하기 위해 L1 목적 함수를 사용했고, 특징점 맵의 채널 프루닝을 하기 위해 채널 최대값이 가장 낮은 채널들의 합을 최소화 시키는 목적함수를 적용했다. 기존의 신경망은 특징점 맵 희소화 비율이 45%였고 두 목적 함수를 적용했을 때 69.67% 로 희소화 비율이 높아진 것을 확인했다. 얼굴 검출 성능을 다양한 조명, 크기, 환경, 각도, 표정의 얼굴들을 포함하는 영상들로 이뤄진 Wider Face 데이터 셋으로 실험한 결과, average precision은 하락 했고 easy validation set에서 0.9257, hard validation set에서 0.8363 였다.

  • PDF