• Title/Summary/Keyword: equivalent network

Search Result 473, Processing Time 0.021 seconds

수급사업자의 기업가정신이 관계몰입을 유도하는 경로 (The roles of Subcontractors' Entrepreneurship on the Relationship Commitment towards the Parent Companies)

  • 최낙환;변철섭;이용균
    • Asia Marketing Journal
    • /
    • 제13권1호
    • /
    • pp.51-84
    • /
    • 2011
  • 이 연구는 기업가정신이 유발하는 시장지향성이 성과를 유도한다는 기존연구를 확장하여 시장지향성을 매개변수로 하고 성과와 신뢰 요인을 도입하여, 수급사업자의 기업가정신이 원사업자와의 관계를 견인하고 협업적 네트워크를 구축하는데 필요한 수급사업자의 관계몰입을 유도하는 경로를 탐색하고 실증 분석하였다. 시장지향성이 구조적 결합요인인 거래특유자산의 투자를 촉진할 수 있고, 또 사회적 결합요인인 커뮤니케이션에 긍정적 영향을 미칠 수 있음을 식별하고, 기업가정신-시장지향성-커뮤니케이션-신뢰-관계몰입의 경로, 기업가정신-시장지향성-성과-관계몰입의 경로, 기업가정신-시장지향성-거래특유자산투자-신뢰-관계몰입의 경로를 식별하였다. 그런데 기업가정신이 원사업자의 거래특유자산투자에 대한 효과가 없는 것으로 분석되었다. 즉 수급사업자의 기업가정신은 시장지향성을 통해 관계몰입에 영향을 미치는 것으로 탐색되었다. 따라서 원사업자는 수급사업자에게 거래특유자산을 투자하고 커뮤니케이션을 통하여 신뢰를 확보해야 한다. 그리고 수급사업자는 투철한 기업가정신으로 시장지향성을 실현하고 원사업자의 거래특유자산투자와 커뮤니케이션을 유도하고, 또 이익을 실현해야 한다. 이러한 수급사업자의 이익성과와 신뢰, 그리고 원사업자의 거래특유자산투자가 B2B시장에서 원사업자에 대한 수급사업자의 관계몰입을 유도하고 유기적인 기업계열화를 촉진하는 요인이기 때문에 정부도 원사업자의 거래특유자산투자를 유도하여 원사업자와 수급사업자의 신뢰를 촉진하는 정책이 필요하다.

  • PDF

Memory Organization for a Fuzzy Controller.

  • Jee, K.D.S.;Poluzzi, R.;Russo, B.
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.1041-1043
    • /
    • 1993
  • Fuzzy logic based Control Theory has gained much interest in the industrial world, thanks to its ability to formalize and solve in a very natural way many problems that are very difficult to quantify at an analytical level. This paper shows a solution for treating membership function inside hardware circuits. The proposed hardware structure optimizes the memoried size by using particular form of the vectorial representation. The process of memorizing fuzzy sets, i.e. their membership function, has always been one of the more problematic issues for the hardware implementation, due to the quite large memory space that is needed. To simplify such an implementation, it is commonly [1,2,8,9,10,11] used to limit the membership functions either to those having triangular or trapezoidal shape, or pre-definite shape. These kinds of functions are able to cover a large spectrum of applications with a limited usage of memory, since they can be memorized by specifying very few parameters ( ight, base, critical points, etc.). This however results in a loss of computational power due to computation on the medium points. A solution to this problem is obtained by discretizing the universe of discourse U, i.e. by fixing a finite number of points and memorizing the value of the membership functions on such points [3,10,14,15]. Such a solution provides a satisfying computational speed, a very high precision of definitions and gives the users the opportunity to choose membership functions of any shape. However, a significant memory waste can as well be registered. It is indeed possible that for each of the given fuzzy sets many elements of the universe of discourse have a membership value equal to zero. It has also been noticed that almost in all cases common points among fuzzy sets, i.e. points with non null membership values are very few. More specifically, in many applications, for each element u of U, there exists at most three fuzzy sets for which the membership value is ot null [3,5,6,7,12,13]. Our proposal is based on such hypotheses. Moreover, we use a technique that even though it does not restrict the shapes of membership functions, it reduces strongly the computational time for the membership values and optimizes the function memorization. In figure 1 it is represented a term set whose characteristics are common for fuzzy controllers and to which we will refer in the following. The above term set has a universe of discourse with 128 elements (so to have a good resolution), 8 fuzzy sets that describe the term set, 32 levels of discretization for the membership values. Clearly, the number of bits necessary for the given specifications are 5 for 32 truth levels, 3 for 8 membership functions and 7 for 128 levels of resolution. The memory depth is given by the dimension of the universe of the discourse (128 in our case) and it will be represented by the memory rows. The length of a world of memory is defined by: Length = nem (dm(m)+dm(fm) Where: fm is the maximum number of non null values in every element of the universe of the discourse, dm(m) is the dimension of the values of the membership function m, dm(fm) is the dimension of the word to represent the index of the highest membership function. In our case then Length=24. The memory dimension is therefore 128*24 bits. If we had chosen to memorize all values of the membership functions we would have needed to memorize on each memory row the membership value of each element. Fuzzy sets word dimension is 8*5 bits. Therefore, the dimension of the memory would have been 128*40 bits. Coherently with our hypothesis, in fig. 1 each element of universe of the discourse has a non null membership value on at most three fuzzy sets. Focusing on the elements 32,64,96 of the universe of discourse, they will be memorized as follows: The computation of the rule weights is done by comparing those bits that represent the index of the membership function, with the word of the program memor . The output bus of the Program Memory (μCOD), is given as input a comparator (Combinatory Net). If the index is equal to the bus value then one of the non null weight derives from the rule and it is produced as output, otherwise the output is zero (fig. 2). It is clear, that the memory dimension of the antecedent is in this way reduced since only non null values are memorized. Moreover, the time performance of the system is equivalent to the performance of a system using vectorial memorization of all weights. The dimensioning of the word is influenced by some parameters of the input variable. The most important parameter is the maximum number membership functions (nfm) having a non null value in each element of the universe of discourse. From our study in the field of fuzzy system, we see that typically nfm 3 and there are at most 16 membership function. At any rate, such a value can be increased up to the physical dimensional limit of the antecedent memory. A less important role n the optimization process of the word dimension is played by the number of membership functions defined for each linguistic term. The table below shows the request word dimension as a function of such parameters and compares our proposed method with the method of vectorial memorization[10]. Summing up, the characteristics of our method are: Users are not restricted to membership functions with specific shapes. The number of the fuzzy sets and the resolution of the vertical axis have a very small influence in increasing memory space. Weight computations are done by combinatorial network and therefore the time performance of the system is equivalent to the one of the vectorial method. The number of non null membership values on any element of the universe of discourse is limited. Such a constraint is usually non very restrictive since many controllers obtain a good precision with only three non null weights. The method here briefly described has been adopted by our group in the design of an optimized version of the coprocessor described in [10].

  • PDF

분류 및 회귀문제에서의 분류 성능과 정확도를 동시에 향상시키기 위한 새로운 바이어스 스케줄링 방법 (A New Bias Scheduling Method for Improving Both Classification Performance and Precision on the Classification and Regression Problems)

  • 김은미;박성미;김광희;이배호
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권11호
    • /
    • pp.1021-1028
    • /
    • 2005
  • 분류 및 회계문제에서의 일반적인 해법은, 현실 세계에서 얻은 정보를 행렬로 사상하거나, 이진정보로 변형하는 등 주어진 데이타의 가공과 이를 이용한 학습에서 찾을 수 있다. 본 논문은 현실세계에 존재하는 순수한 데이타를 근원공간이라 칭하며, 근원 데이타가 커널에 의해 사상된 행렬을 이원공간이라 한다. 근원공간 혹은 이원공간에서의 분류문제는 그 역이 존재하는 문제 즉, 완전해가 존재하는 문제와, 그 역이 존재하지 않거나, 역의 원소 값들이 무한히 커지는 불량조건 흑은 특이조건인 두 가지 형태로 존재한다. 특히, 실제 문제에 있어서 완전 해를 가진 문제이기 보다는 후자에 가까운 형태로 나타나게 된다. 결론적으로 근원데이타나 이원데이타를 이용한 문제를 해결하기 위해서는 많은 경우에 완전 해를 갖는 문제로 변형시키는 정규화과정이 필요하다. 본 논문에서는 이러한 정규화 인수를 찾는 문제를 기존의 GCV, L-Curve, 그리고 이원공간에서의 데이타를 RBF 신경회로망에 적용시킨 커널 학습법에 대한 각각의 성능을 비교실험을 통해 고찰한다. GCV와 L-Curve는 정규화 인수를 찾는 대표적인 방법으로 두 방법 모두 성능면에서 동등하며 문제의 조건에 따라 다소 차이를 보인다. 그러나 이러한 두 방법은 문제해를 구하기 위해서는 정규화 인수를 구한후 문제를 재정의하는 이원적인 문제해결이라는 취약점을 갖는다. 반면, RBF 신경회로망을 이용한 방법은 정규화 인수와 해를 동시에 학습하는 단일화된 방법이 된다. 이때 커널을 이용한 학습법의 성능을 향상하기 위해, 전체학습과 성능의 제한적 비례관계라는 설정아래, 각각의 학습에 따라 능동적으로 변화하는 동적모멘텀의 도입을 제안한다. 동적모멘트는 바이어스 학습을 포함한 방법과 포함하지 않은 방법에 각각 적용분석하였다. 끝으로 제안된 동적모멘텀이 분류문제의 표준인 Iris 데이터, Singular 시스템의 대표적 모델인 가우시안 데이타, 그리고 마지막으로 1차원 이미지 복구문제인 Shaw데이타를 이용한 각각의 실험에서 분류문제와 회계문제 양쪽 모두에 있어 기존의 GCV, L-Curve와 동등하거나 우수한 성능이 있음을 보인다.