• 제목/요약/키워드: Three-dimensional theory

검색결과 650건 처리시간 0.033초

3차원정보지적도 모형 구축을 위한 건물등록 방법 선정 (A Selection of Building Registration Method to Construct the Three Dimensional Information Cadastral Map)

  • 양인태;오이균;유영걸;천기선
    • 한국측량학회지
    • /
    • 제22권3호
    • /
    • pp.245-251
    • /
    • 2004
  • 최근 지형공간정보 분야의 눈부신 발전과 함께 지적 분야에서도 지적도면 전산화 사업이 진행되고 있으며 다양한 토지관련 정보의 통합관리 및 활용을 위하여 토지정보 및 건물정보의 통합에 관한 요구가 증가하고 있지만 3차원지적제도 구축에 있어 기본이 되는 건물의 지적도 등록 시 전국에 산재되어 있는 수많은 건물을 일일이 지상측량방법을 통하여 지적도에 등록하는 것은 많은 어려움이 뒤따르는 실정이다. 이 연구에서는 유럽을 중심으로 활발히 연구되고 있는 3차원지적제도의 이론을 고찰하고 실험대상지역을 선정하여 지적기준점에서 토탈스테이션을 이용하여 건물위치를 직접 측량하였고, 수치지형도와 수치정사영상을 제작하여 건물위치를 측량한 후 건물좌표들을 비교 분석하여 지적도에 건물등록 시 가장 효율적인 측량 방법을 제시하고 지적도에 건물을 등록한 후 등록된 건물에 기존 토지지번과는 별도로 새로운 건물번호를 식별자로 부여하여 지적도를 제작하였고, 건축물관리대장과 건물등기부 및 관련 속성정보와 건물사진 등을 연계하여 토지와 건물관리를 통합 관리할 수 있는 새로운 3차원정보지적도 모델을 구축 하였다.

모빌의 디지털 재현 (Digital Reproduction of Mobiles)

  • 이동춘;이남경;정대현;김창태;이동규;배희정;백낙훈;이종원;유관우
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제28권9호
    • /
    • pp.415-423
    • /
    • 2001
  • 최근에는 회화과 같은 미술 작품들을 디지털 형태로 재현하려는 시도들이 활발해지고 있다. 디지털 형태로 재현된 회화 작품들은 저장하거나 전송하기에 편리한 장점을 가진다. 반면에 알렉산터 칼더(Alexander Calder)가 창시한 모빌, 즉 움직이는 조각은 그 특성상 기존의 방법으로는 컴퓨터에서 재현하기가 까다롭다. 모빌은 바람과 같은 외부의 힘에 의해 각각의 조각이 움직이도록 제작되어 있으므로, 사진이나, 정지 영상과 같은 고정된 형태로는 작가의 제작 의도를 충분히 전달하기에 미흡하다. 본 논문에서는 컴퓨터상에서 재현된 모빌을 사용자들이 사실적으로 감상할 수 있는 물리 기반의 가상 모빌 시스템을 제안한다. 실세계의 모빌을 3차원 모델로 구성한 후, 가상의 바람을 생성하여 그 모빌이 움직일 수 있도록 하였다. 모빌의 움직임을 운동학 방법들을 사용하여 사실적으로 표현한다. 기존의 제약조건을 가지는 동역학(Donstraint dynamics)방법과 충격역학(impulse dynamics)방법들을 모빌의 구조에 적합하도록 개선하여, 모빌의 움직임을 PC 환경에서 대화형으로 재현하였다. 본 논문에서는 제안하는 속도 향상 방법들을 모빌과 유사한 위상 구조를 가지는 3차원 모델에서도 적용 될 수 있다.

  • PDF

BET 기법을 이용한 멀티콥터 프로펠러의 정지비행시 추력 및 토크 계산 (Thrust and torque prediction of multicopter propeller in hovering based on BET method)

  • 이범식;우희승;이도경;장경식;이동진;김민우
    • 항공우주시스템공학회지
    • /
    • 제12권6호
    • /
    • pp.23-31
    • /
    • 2018
  • 본 연구는 BET 기법을 이용하여 멀티콥터에 사용되는 프로펠러 두 종류의 정지 비행 시 추력과 토크를 계산하였다. 3차원 형상 측정 장비로 프로펠러의 형상 정보를 추출하였으며 CATIA를 이용하여 에어포일의 단면 형상 데이터를 획득하였다. 추출된 에어포일 형상과 RPM 변화를 고려한 유동조건에 따른 양력 및 항력을 EDISON CFD를 활용하여 구한 다음 BET 기법을 이용하여 추력을 예측하였다. 이때 층류와 난류 두 조건에 대해 계산하여 그 결과를 비교하였다. 계산된 추력 결과를 제작사에서 제공하는 성능 데이터와 JavaProp 프로펠러 성능 예측 소프트웨어의 결과와 비교하였다. 추력의 경우, 9인치 프로펠러의 경우 제작사에서 제공하는 성능은 완전 난류 조건의 결과와 층류 조건 결과의 중간 값에 해당되었으며, 16인치 프로펠러의 경우 난류유동 조건 결과와 근사한 결과를 얻을 수 있었다. 토크는 두 모델 모두 예측값과 제작사의 성능 데이터와 큰 차이를 보였다.

다분류 SVM을 이용한 DEA기반 벤처기업 효율성등급 예측모형 (The Prediction of DEA based Efficiency Rating for Venture Business Using Multi-class SVM)

  • 박지영;홍태호
    • Asia pacific journal of information systems
    • /
    • 제19권2호
    • /
    • pp.139-155
    • /
    • 2009
  • For the last few decades, many studies have tried to explore and unveil venture companies' success factors and unique features in order to identify the sources of such companies' competitive advantages over their rivals. Such venture companies have shown tendency to give high returns for investors generally making the best use of information technology. For this reason, many venture companies are keen on attracting avid investors' attention. Investors generally make their investment decisions by carefully examining the evaluation criteria of the alternatives. To them, credit rating information provided by international rating agencies, such as Standard and Poor's, Moody's and Fitch is crucial source as to such pivotal concerns as companies stability, growth, and risk status. But these types of information are generated only for the companies issuing corporate bonds, not venture companies. Therefore, this study proposes a method for evaluating venture businesses by presenting our recent empirical results using financial data of Korean venture companies listed on KOSDAQ in Korea exchange. In addition, this paper used multi-class SVM for the prediction of DEA-based efficiency rating for venture businesses, which was derived from our proposed method. Our approach sheds light on ways to locate efficient companies generating high level of profits. Above all, in determining effective ways to evaluate a venture firm's efficiency, it is important to understand the major contributing factors of such efficiency. Therefore, this paper is constructed on the basis of following two ideas to classify which companies are more efficient venture companies: i) making DEA based multi-class rating for sample companies and ii) developing multi-class SVM-based efficiency prediction model for classifying all companies. First, the Data Envelopment Analysis(DEA) is a non-parametric multiple input-output efficiency technique that measures the relative efficiency of decision making units(DMUs) using a linear programming based model. It is non-parametric because it requires no assumption on the shape or parameters of the underlying production function. DEA has been already widely applied for evaluating the relative efficiency of DMUs. Recently, a number of DEA based studies have evaluated the efficiency of various types of companies, such as internet companies and venture companies. It has been also applied to corporate credit ratings. In this study we utilized DEA for sorting venture companies by efficiency based ratings. The Support Vector Machine(SVM), on the other hand, is a popular technique for solving data classification problems. In this paper, we employed SVM to classify the efficiency ratings in IT venture companies according to the results of DEA. The SVM method was first developed by Vapnik (1995). As one of many machine learning techniques, SVM is based on a statistical theory. Thus far, the method has shown good performances especially in generalizing capacity in classification tasks, resulting in numerous applications in many areas of business, SVM is basically the algorithm that finds the maximum margin hyperplane, which is the maximum separation between classes. According to this method, support vectors are the closest to the maximum margin hyperplane. If it is impossible to classify, we can use the kernel function. In the case of nonlinear class boundaries, we can transform the inputs into a high-dimensional feature space, This is the original input space and is mapped into a high-dimensional dot-product space. Many studies applied SVM to the prediction of bankruptcy, the forecast a financial time series, and the problem of estimating credit rating, In this study we employed SVM for developing data mining-based efficiency prediction model. We used the Gaussian radial function as a kernel function of SVM. In multi-class SVM, we adopted one-against-one approach between binary classification method and two all-together methods, proposed by Weston and Watkins(1999) and Crammer and Singer(2000), respectively. In this research, we used corporate information of 154 companies listed on KOSDAQ market in Korea exchange. We obtained companies' financial information of 2005 from the KIS(Korea Information Service, Inc.). Using this data, we made multi-class rating with DEA efficiency and built multi-class prediction model based data mining. Among three manners of multi-classification, the hit ratio of the Weston and Watkins method is the best in the test data set. In multi classification problems as efficiency ratings of venture business, it is very useful for investors to know the class with errors, one class difference, when it is difficult to find out the accurate class in the actual market. So we presented accuracy results within 1-class errors, and the Weston and Watkins method showed 85.7% accuracy in our test samples. We conclude that the DEA based multi-class approach in venture business generates more information than the binary classification problem, notwithstanding its efficiency level. We believe this model can help investors in decision making as it provides a reliably tool to evaluate venture companies in the financial domain. For the future research, we perceive the need to enhance such areas as the variable selection process, the parameter selection of kernel function, the generalization, and the sample size of multi-class.

리아프노프 지수를 이용한 알쯔하이머형 치매 환자 뇌파의 비선형 역동 분석을 위한 예비연구 (A Preliminary Study for Nonlinear Dynamic Analysis of EEG in Patients with Dementia of Alzheimer's Type Using Lyapunov Exponent)

  • 채정호;김대진;최성빈;박원명;이정태;김광수;정재승;김수용
    • 생물정신의학
    • /
    • 제5권1호
    • /
    • pp.95-101
    • /
    • 1998
  • 치매에서의 뇌파 연구는 주로 주파수 분석과 지형화 분석을 이용하여 정량화하는 것을 위주로 진행되어 왔으나, 이러한 선형적 분석은 뇌파와 같이 복잡한 신호를 분석하는 것에는 한계가 있었다. 최근 새로운 패러다임인 카오스 이론에 근거를 두고 뇌파를 비선형적으로 측정하는 방법이 소개되고 있다. 본 연구는 알쯔하이머형 치매 환자의 뇌파 신호를 최대 양수 리아프노프 지수를 이용하여 비선형적으로 분석하는 것이 가능한 가를 알아보고 그 결과를 대조군과 비교해보기 위하여 시도되었다. 3명의 알쯔하이머형 치매 환자와 3명의 대조군에서 뇌파 신호를 받아 디지털화한 후에 비선형 분석법 중 하나인 최대 양수 리아프노프 지수를 산출하였다. 알쯔하이머형 치매군은 전체 15개의 전극 부위 중 8곳의 전극 부위에서 대조군에 비하여 유의하게 낮은 최대 양수 리아프노프 지수를 나타내었다. 각 두뇌 영역별 및 반구별 분석에서도 알쯔하이머형 치매군이 대조군에 비하여 전 두뇌 영역에서 최대 양수 리아프노프 지수가 유의하게 낮았다. 이에 따라 알쯔하이머형 치매 환자의 뇌파를 비선형적 분석하여 조사한 이들 두뇌의 카오스적 성상이 감소되어 있다는 것을 확인할 수 있었다. 이 결과는 향후 뇌파의 비선형적 분석인 리아프노프 지수 산출이 두뇌 기능을 조사하는 데에 유용한 새로운 방법이 될 가능성이 있다는 것을 시사한다.

  • PDF

Memory Organization for a Fuzzy Controller.

  • Jee, K.D.S.;Poluzzi, R.;Russo, B.
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.1041-1043
    • /
    • 1993
  • Fuzzy logic based Control Theory has gained much interest in the industrial world, thanks to its ability to formalize and solve in a very natural way many problems that are very difficult to quantify at an analytical level. This paper shows a solution for treating membership function inside hardware circuits. The proposed hardware structure optimizes the memoried size by using particular form of the vectorial representation. The process of memorizing fuzzy sets, i.e. their membership function, has always been one of the more problematic issues for the hardware implementation, due to the quite large memory space that is needed. To simplify such an implementation, it is commonly [1,2,8,9,10,11] used to limit the membership functions either to those having triangular or trapezoidal shape, or pre-definite shape. These kinds of functions are able to cover a large spectrum of applications with a limited usage of memory, since they can be memorized by specifying very few parameters ( ight, base, critical points, etc.). This however results in a loss of computational power due to computation on the medium points. A solution to this problem is obtained by discretizing the universe of discourse U, i.e. by fixing a finite number of points and memorizing the value of the membership functions on such points [3,10,14,15]. Such a solution provides a satisfying computational speed, a very high precision of definitions and gives the users the opportunity to choose membership functions of any shape. However, a significant memory waste can as well be registered. It is indeed possible that for each of the given fuzzy sets many elements of the universe of discourse have a membership value equal to zero. It has also been noticed that almost in all cases common points among fuzzy sets, i.e. points with non null membership values are very few. More specifically, in many applications, for each element u of U, there exists at most three fuzzy sets for which the membership value is ot null [3,5,6,7,12,13]. Our proposal is based on such hypotheses. Moreover, we use a technique that even though it does not restrict the shapes of membership functions, it reduces strongly the computational time for the membership values and optimizes the function memorization. In figure 1 it is represented a term set whose characteristics are common for fuzzy controllers and to which we will refer in the following. The above term set has a universe of discourse with 128 elements (so to have a good resolution), 8 fuzzy sets that describe the term set, 32 levels of discretization for the membership values. Clearly, the number of bits necessary for the given specifications are 5 for 32 truth levels, 3 for 8 membership functions and 7 for 128 levels of resolution. The memory depth is given by the dimension of the universe of the discourse (128 in our case) and it will be represented by the memory rows. The length of a world of memory is defined by: Length = nem (dm(m)+dm(fm) Where: fm is the maximum number of non null values in every element of the universe of the discourse, dm(m) is the dimension of the values of the membership function m, dm(fm) is the dimension of the word to represent the index of the highest membership function. In our case then Length=24. The memory dimension is therefore 128*24 bits. If we had chosen to memorize all values of the membership functions we would have needed to memorize on each memory row the membership value of each element. Fuzzy sets word dimension is 8*5 bits. Therefore, the dimension of the memory would have been 128*40 bits. Coherently with our hypothesis, in fig. 1 each element of universe of the discourse has a non null membership value on at most three fuzzy sets. Focusing on the elements 32,64,96 of the universe of discourse, they will be memorized as follows: The computation of the rule weights is done by comparing those bits that represent the index of the membership function, with the word of the program memor . The output bus of the Program Memory (μCOD), is given as input a comparator (Combinatory Net). If the index is equal to the bus value then one of the non null weight derives from the rule and it is produced as output, otherwise the output is zero (fig. 2). It is clear, that the memory dimension of the antecedent is in this way reduced since only non null values are memorized. Moreover, the time performance of the system is equivalent to the performance of a system using vectorial memorization of all weights. The dimensioning of the word is influenced by some parameters of the input variable. The most important parameter is the maximum number membership functions (nfm) having a non null value in each element of the universe of discourse. From our study in the field of fuzzy system, we see that typically nfm 3 and there are at most 16 membership function. At any rate, such a value can be increased up to the physical dimensional limit of the antecedent memory. A less important role n the optimization process of the word dimension is played by the number of membership functions defined for each linguistic term. The table below shows the request word dimension as a function of such parameters and compares our proposed method with the method of vectorial memorization[10]. Summing up, the characteristics of our method are: Users are not restricted to membership functions with specific shapes. The number of the fuzzy sets and the resolution of the vertical axis have a very small influence in increasing memory space. Weight computations are done by combinatorial network and therefore the time performance of the system is equivalent to the one of the vectorial method. The number of non null membership values on any element of the universe of discourse is limited. Such a constraint is usually non very restrictive since many controllers obtain a good precision with only three non null weights. The method here briefly described has been adopted by our group in the design of an optimized version of the coprocessor described in [10].

  • PDF

역할 창조를 위한 '몸틀(body schema)' 형성 연구 (A Study on Forming 'Body Schema' for Role Creating)

  • 송효숙
    • 한국연극학
    • /
    • 제52호
    • /
    • pp.319-357
    • /
    • 2014
  • Formation of 'body schema' is the start for actor to create role and becomes the root and the foundation of existing as a role on the stage. For this, an actor needs to form 'scheme of role' with escaping from own 'body schema.' 'Schema of role' is formed by acquiring through synthesizing daily basic actions, namely, walking, standing, sitting, hand stretching, bending, and touching. The body schema, which was made with simple and usual actions, has fundamental significance in a sense of becoming the body in which the past traces in a role are habituated while energy as a role flows. As for the process of forming body schema, an actor first needs to obtain the visualized materials like photo, magazine, picture and image available for seeing a role specifically and clearly based on what analyzed a character. An actor needs to have three-dimensional image available for always recalling it in the head during acting. To do this, image data available for fundamentally capturing routine actions along with body structure are still more useful. Next, the body schema is formed by interaction with environment. Thus, there is a need of passing through the two-time process of forming body schema. Firstly, the body schema is made on routine actions in a role as physical condition of a role in actor's own everyday life. Secondly, the body schema is made on routine actions available for moving efficiently and economically in line with the environment of performance. A theatrical stage is the temporal space of rhythm and rule different from routine space. What forms body schema immediately in the second phase without body schema in the first phase ultimately becomes what exists as actor's own body, not the body of a role. The body schema, which was formed as the second process, is what truly has identity as a role in the ontological aspect, comes to experience the oppositional force in muscle, a qualitative change in energy, and emotional agitation in the physical aspect, and experiences perception, thinking, volition, and even consciousness with the entire body in the cognitive dimension. Thus, the formation of body schema can be known to be just a method of changing even spiritual and emotional layer. Body schema cannot be made if there is no process of embodiment and habit. Embodiment and habit are not simply the repeated, empty and mechanical action in the body. But, habit itself has very important meanings for forming body schema for role creating. First, habit allows the body itself to learn and understand a meaning. Second, habit relies upon environment, thereby allowing an actor of making the habituated body schema to recognize environment. Third, habit makes the mind. The habituated body schema is just the mind and the ego of a person who possesses the body schema. Fourth, habit comes to experience the expansion in energy and the expansion in existence. It may be experienced through interrelation among actor's body, tool, and environment. Fifth, habit makes identity of the body. Hence, this just becomes what secures identity of a role. These implications of habit are the formation of body schema, which is maintained with the body of being remembered firmly through being closely connected with the process of neural adaptation. Finally, it sought for possibility of practice as one method of forming body schema for role creating through Deleuze's '-becoming' theory. As 'actual animal-becoming' is real '-becoming' of forming structural transformation in the physical dimension, it meets with what the formation of body schema pursues actuality and reality. This was explained with a concept as saying of 'all '-becoming' molecular' by Deleuze/Guattari. 'Animal of having imitated animal's characteristic- becoming' is formed by which the body schema relies upon environment. In this way, relationship among the body, tool and environment has influence even upon a change in consciousness, thinking, and emotion, thereby being able to be useful for forming body schema in a sense of possibly experiencing ultimately expansion in role, namely, expansion in existence.

중국의 '원상회복 혹은 현상보존' 수리원칙에 관한 연구 - 양사성의 수리원칙을 중심으로 - (A Study on the Principles of "Restoration of Historic Condition or Preservation of Existing Condition" in China - Focused on Liangsicheng's Conservation Theory -)

  • 이정아
    • 헤리티지:역사와 과학
    • /
    • 제50권2호
    • /
    • pp.62-79
    • /
    • 2017
  • 중국에서 건축유산의 수리원칙은 1930년대 중국영조학사의 양사성이 처음으로 제시하였다. 이후 수리현황은 1950년대 새로운 사회적, 정치적 배경아래 다양한 건축 수리 경험을 토대로 1961년 "문물보호관리잠행조례"에 '원상회복 혹은 현상보존'으로 명시되었다. '원상회복 혹은 현상보존'에서 원상회복은 대체로 창건기 모습으로의 복원을 의미하는데, 20세기 초 중기에 한국과 일본에서도 당초모습으로 복원하는 원칙에 근거해 문화유산을 수리하는 경우가 많았기 때문에, 이 시기 동북아지역의 건축유산 수리에서 창건기 모습으로의 복원은 보편적이며 주도적인 원칙이었다고 볼 수 있다. 하지만 중국의 경우 원상회복과 함께 현상보존도 대등하게 명시되어 있는데, 당시의 주도적인 흐름을 생각할 때 이는 다소 의외로 보이기 때문에 그 형성과정과 의미에 궁금함이 생긴다. 처음으로 수리원칙을 제시하였던 양사성에 대한 연구는 매우 중요하지만, 중국에서 원칙과 관련된 국제이론에 대한 활발한 연구에 비해 양사성의 수리원칙에 대한 입체적 분석은 부족하다. 중국 수리원칙의 형성과정과 그 정확한 의미를 알려면 먼저 양사성이 제시한 보호원칙을 중점적으로 분석해야 하고, 그리고 그것이 중화인민공화국 건국 후 문화유산 보호를 둘러싼 사회적 배경속에서 어떻게 변화되었는지를 종합적으로 살펴보아야 한다. 이 글에서는 먼저 양사성이 문물의 원상에 중요한 가치를 둔 원상회복 위주의 수리원칙을 제시하고, 동시에 가치판단의 결과 혹은 현실적인 이유로 인한 현상보존의 가능성도 열어두었음을 살펴본다. 그리고 건국 이후 소련 건축유산 보호제도의 영향, 경제개발 위주의 정책으로 인해 현상보존이 하나의 현실적인 원칙으로서 원상회복과 대등하게 등장하는 과정을 살펴본다.

직물의 세부 구조 및 굴곡이 웨어러블 광섬유의 발광 효과에 미치는 영향 (Influence of Detailed Structure and Curvature of Woven Fabric on the Luminescence Effect of Wearable Optical Fiber Fabric)

  • 양진희;조현승;곽휘권;오윤중;이주현
    • 감성과학
    • /
    • 제21권4호
    • /
    • pp.55-62
    • /
    • 2018
  • 웨어러블 광섬유 직물의 주요 요건은 의류에 적용하기 위해 높은 유연성을 전제로 해야 한다는 점과 인체의 평평한 부위뿐만 아니라 굴곡이 있는 구간에서도 발광 효과, 즉 휘도를 유지해야 한다는 점이다. 따라서 본 연구에서는 위 조건을 충족하는 웨어러블 광섬유 직물의 세부 구조를 직조(weaving) 타입과 자수(computer embroidery) 타입의 2가지로 제작하였고, 이를 토대로 다음의 두 가지 조건에서 실험을 실시하였다. 첫째, 굴곡이 없는 평평한 상태에서의 웨어러블 광섬유 직물을 1cm간격으로 총 10개의 측정점을 좌표화하여 그 휘도를 측정하였다. 둘째, 인체 부위 중 입체적 굴곡이 발생하는 팔뚝 부위에 가로 방향으로 웨어러블 광섬유 직물을 배치하고 1cm 간격으로 총 10개의 측정점을 좌표화하여 그 휘도값을 측정하였다. 그 결과 직조(weaving) 타입의 경우, 평평한 상태에서의 휘도값은 최대 $5.23cd/m^2$, 최소 $2.74cd/m^2$, 평균 $3.56cd/m^2$, 표준편차 $1.11cd/m^2$로 나타났고, 팔뚝 부위에서의 휘도값은 최대 $7.92cd/m^2$, 최소 $2.37cd/m^2$, 평균 $4.42cd/m^2$, 표준편차 $2.16cd/m^2$로 나타났다. 또한 자수(computer embroidery) 타입의 경우, 평평한 상태에서의 휘도값은 최대 $7.56cd/m^2$, 최소 $3.84cd/m^2$, 평균 $5.13cd/m^2$, 표준편차 $1.04cd/m^2$로 나타났고, 팔뚝 부위에서의 휘도값은 최대 $9.62cd/m^2$, 최소 $3.63cd/m^2$, 평균 $6.13cd/m^2$ 표준편차 $2.26cd/m^2$ 나타났다. 즉, 자수(computer embroidery) 타입의 경우가 직조(weaving) 타입의 경우에 비해 더 높은 발광 효과를 보였는데 이는 자수(computer embroidery) 타입의 세부 구조가 배면 소재로 인해 빛의 손실을 줄일 수 있었기 때문으로 사료된다. 또한 두 타입 모두에서 팔뚝부위의 휘도가 평평한 상태에 비해 각각 124%, 119%로 나타나, 인체의 굴곡에도 본 웨어러블 광섬유 직물의 발광효과가 우수하게 나타남을 알 수 있었다. 이는 빛의 파동설을 정의한 호이겐스의 원리(Huygens' principle), 빛 파면의 진행 방향과 이루는 각도(${\theta}$)의 크기에 커지면 이와 비례하여 빛의 세기도 커진다는 호이겐스-프레넬-키르히호프 원리(Huygens-Fresnel-Kirchhoff principle)와 일치하는 결과이다.

경영분석지표와 의사결정나무기법을 이용한 유상증자 예측모형 개발 (Development of Predictive Models for Rights Issues Using Financial Analysis Indices and Decision Tree Technique)

  • 김명균;조윤호
    • 지능정보연구
    • /
    • 제18권4호
    • /
    • pp.59-77
    • /
    • 2012
  • 기업의 성장성, 수익성, 안정성, 활동성, 생산성 등에 대한 다양한 분석이 은행, 신용평가기관, 투자자 등 많은 이해관계자에 의해 실시되고 있고, 이에 대한 다양한 경영분석 지표들 또한 정기적으로 발표되고 있다. 본 연구에서는 이러한 경영분석 지표를 이용하여 어떤 기업이 가까운 미래에 유상증자를 실시하는지를 데이터마이닝을 통해 예측하고자 한다. 본 연구를 통해 어떠한 지표가 유상증자 여부를 예측하는데 도움이 되는가를 살펴 볼 것이며, 그 지표들을 이용하여 예측할 경우 그 예측의 정확도가 어느 정도인지를 분석하고자 한다. 특히 1997년 IMF 금융위기 전후로 유상증자를 결정하는 변수들이 변화하는지, 그리고 예측의 정확성에 분명한 차이가 존재하는지 분석한다. 또한 유상증자 실시 시기를 경영분석 지표 발표 후 1년 내, 1~2년 내, 2~3년 내로 나누어 예측 시기에 따라 예측의 정확성과 결정 변수들의 차이가 존재하는지도 분석한다. 658개의 유가증권상장법인의 경영분석 데이터를 이용하여 실증 분석한 결과, IMF 이후의 유상증자 예측모형이 IMF 이전의 예측모형에 비해 예측 정확도가 높았고, 학습용 데이터의 예측 정확도와 검증용 데이터의 예측 정확도 차이도 IMF 이후가 낮게 나타났다. 이러한 결과는 IMF 이후 재무자료의 정확도가 높아졌고, 기업에게 유상증자의 목적이 더욱 명확해졌다고 해석될 수 있다. 또한 예측기간이 단기인 경우 경영분석 지표 중 안전성에 관련된 지표들의 중요성이 부각되었고, 장기인 경우에는 수익성과 안전성뿐만 아니라 활동성과 생산성 관련지표도 유상증자를 예측하는 데 중요한 것으로 파악되었다. 그리고 모든 예측모형에서 산업코드가 유상증자를 예측하는 중요변수로 포함되었는데 이는 산업별로 서로 다른 유상증자 유형이 존재한다는 점을 시사한다. 본 연구는 투자자나 재무담당자가 유상증자 여부를 장단기 시점에서 예측하고자 할 때 어떠한 경영분석지표를 고려하여 분석하는 것이 바람직한지에 대한 지침을 제공하는데 그 의의가 있다.