• 제목/요약/키워드: input parameter

검색결과 1,639건 처리시간 0.03초

다분류 SVM을 이용한 DEA기반 벤처기업 효율성등급 예측모형 (The Prediction of DEA based Efficiency Rating for Venture Business Using Multi-class SVM)

  • 박지영;홍태호
    • Asia pacific journal of information systems
    • /
    • 제19권2호
    • /
    • pp.139-155
    • /
    • 2009
  • For the last few decades, many studies have tried to explore and unveil venture companies' success factors and unique features in order to identify the sources of such companies' competitive advantages over their rivals. Such venture companies have shown tendency to give high returns for investors generally making the best use of information technology. For this reason, many venture companies are keen on attracting avid investors' attention. Investors generally make their investment decisions by carefully examining the evaluation criteria of the alternatives. To them, credit rating information provided by international rating agencies, such as Standard and Poor's, Moody's and Fitch is crucial source as to such pivotal concerns as companies stability, growth, and risk status. But these types of information are generated only for the companies issuing corporate bonds, not venture companies. Therefore, this study proposes a method for evaluating venture businesses by presenting our recent empirical results using financial data of Korean venture companies listed on KOSDAQ in Korea exchange. In addition, this paper used multi-class SVM for the prediction of DEA-based efficiency rating for venture businesses, which was derived from our proposed method. Our approach sheds light on ways to locate efficient companies generating high level of profits. Above all, in determining effective ways to evaluate a venture firm's efficiency, it is important to understand the major contributing factors of such efficiency. Therefore, this paper is constructed on the basis of following two ideas to classify which companies are more efficient venture companies: i) making DEA based multi-class rating for sample companies and ii) developing multi-class SVM-based efficiency prediction model for classifying all companies. First, the Data Envelopment Analysis(DEA) is a non-parametric multiple input-output efficiency technique that measures the relative efficiency of decision making units(DMUs) using a linear programming based model. It is non-parametric because it requires no assumption on the shape or parameters of the underlying production function. DEA has been already widely applied for evaluating the relative efficiency of DMUs. Recently, a number of DEA based studies have evaluated the efficiency of various types of companies, such as internet companies and venture companies. It has been also applied to corporate credit ratings. In this study we utilized DEA for sorting venture companies by efficiency based ratings. The Support Vector Machine(SVM), on the other hand, is a popular technique for solving data classification problems. In this paper, we employed SVM to classify the efficiency ratings in IT venture companies according to the results of DEA. The SVM method was first developed by Vapnik (1995). As one of many machine learning techniques, SVM is based on a statistical theory. Thus far, the method has shown good performances especially in generalizing capacity in classification tasks, resulting in numerous applications in many areas of business, SVM is basically the algorithm that finds the maximum margin hyperplane, which is the maximum separation between classes. According to this method, support vectors are the closest to the maximum margin hyperplane. If it is impossible to classify, we can use the kernel function. In the case of nonlinear class boundaries, we can transform the inputs into a high-dimensional feature space, This is the original input space and is mapped into a high-dimensional dot-product space. Many studies applied SVM to the prediction of bankruptcy, the forecast a financial time series, and the problem of estimating credit rating, In this study we employed SVM for developing data mining-based efficiency prediction model. We used the Gaussian radial function as a kernel function of SVM. In multi-class SVM, we adopted one-against-one approach between binary classification method and two all-together methods, proposed by Weston and Watkins(1999) and Crammer and Singer(2000), respectively. In this research, we used corporate information of 154 companies listed on KOSDAQ market in Korea exchange. We obtained companies' financial information of 2005 from the KIS(Korea Information Service, Inc.). Using this data, we made multi-class rating with DEA efficiency and built multi-class prediction model based data mining. Among three manners of multi-classification, the hit ratio of the Weston and Watkins method is the best in the test data set. In multi classification problems as efficiency ratings of venture business, it is very useful for investors to know the class with errors, one class difference, when it is difficult to find out the accurate class in the actual market. So we presented accuracy results within 1-class errors, and the Weston and Watkins method showed 85.7% accuracy in our test samples. We conclude that the DEA based multi-class approach in venture business generates more information than the binary classification problem, notwithstanding its efficiency level. We believe this model can help investors in decision making as it provides a reliably tool to evaluate venture companies in the financial domain. For the future research, we perceive the need to enhance such areas as the variable selection process, the parameter selection of kernel function, the generalization, and the sample size of multi-class.

다이아튜림 내에 부존한 녹동 비소-아연광상의 광석광물, 유체포유물, 유황-탄소-산소 동위원소 : 광화용액의 특성과 진화 (Ore Minerals, Fluid Inclusions, and Isotopic(S.C.O) Compositions in the Diatreme-Hosted Nokdong As-Zn Deposit, Southeastern Korea: The Character and Evolution of the Hydrothermal Fluids)

  • 박기화;박희인;;최석원
    • 자원환경지질
    • /
    • 제24권2호
    • /
    • pp.131-150
    • /
    • 1991
  • 시간적-공간적으로 가대리 화강암과 관련되어 형성된 월성 다이아튜림은 천수에서 유래된 용액에 의해 광화되어 있다. 이 광상에서 광석광물은 황철석, 유비철석, 섬아연석이 대부분이고 극소량의 자철석, 자류철석, 황동석, 석석과 Pb-Sb-Bi-Ag 계의 광문이 있다. 유체포유물, 유비철석에서의 비소함량과 섬아연석의 철 함량에 의해 계산된 비소-아연 광화 온도는 약 $350^{\circ}C$에 이르며, 염농도는 0.8에서 4.1 equ. wt % NaCl이다. 공생을 이루는 황철석-자류철석-유비철석은 $H_2S$ 주요 환원황으로 작용했으며, $300^{\circ}C$에서 산출한 광황용액은 $10^{34.5}$ < ${alpha}_{O_2}$ < $10^{-3}$, $10^{-11}$ < $f_{S_2}$ < $10^{-8}$, $10^{-2.4}$ < ${alpha}_{H_2S}$ < $10^{-1.6}$이고 pH는 견운모 안정범위인 5.2이하이다. 유화광물의 유황동위 원소비는 1.8에서 5.5%로서 유황은 마그마에서 기원되었다. 광화대에서의 탄산염 광물의 탄소 동위 원소비는 -7.8에서 -11.6%이고 산소 동위원소 값은 천수의 유입이 있었음을 의미한다. 지화학적 자료로 보아 광화용액은 마그마에 천수가 유입되어 마그마 열원의 영향하에 지하 심부 순환관정을 거쳐 형성된 것으로 해석된다.

  • PDF

한국의 두 주요 생태계에 대한 JULES 지면 모형의 민감도 분석: 일차생산량과 생태계 호흡의 모사에 미치는 생물리모수의 영향 (A Sensitivity Analysis of JULES Land Surface Model for Two Major Ecosystems in Korea: Influence of Biophysical Parameters on the Simulation of Gross Primary Productivity and Ecosystem Respiration)

  • 장지현;홍진규;변영화;권효정;채남이;임종환;김준
    • 한국농림기상학회지
    • /
    • 제12권2호
    • /
    • pp.107-121
    • /
    • 2010
  • 본 연구에서는 한반도의 주요 생태계인 활엽수림과 농경지에서 지면 모형 JULES(Joint UK Land Environment Simulator)으로 모의한 총일차생산량 (Gross Primary Productivity: GPP)과 생태계 호흡량 (ecosystem respiration: RE)의 수치 모사 결과에 영향을 미치는 주요 모수를 파악하였으며, 민감한 모수에 대해 실측자료를 사용함에 따른 모형 예측력의 개선 정도를 평가하였다. 민감도 실험의 결과, 활엽수림과 농경지에서 모두 JULES로 모의한 GPP는 잎 내부의 질소농도와 리불로오스이인산(RuBP) 카르복실화의 최대 속도에 가장 민감하였다. RE는 활엽수림에서는 목질부 탄소량과 엽면적지수를 연결시켜주는 상수에 가장 민감하였다. 반면에 농경지에서 수치모사된 RE는 GPP와 같이 각각 잎 내부의 질소 농도와 RuBP 카르복실화의 최대 속도에 가장 민감하였다. JULES로부터 제공된 모수의 값으로 모의된 두 지역의 GPP와 RE는 모두 관측값에 비해 과대평가되었다. 특히 활엽수림에서 GPP가 가장 민감하게 반응했던 잎 질소 농도의 실제 관측값이 모형에서 사용하는 기존 설정값의 50% 이하임을 고려할 때 모형에서 설정된 모수의 값으로 탄소 순환을 수치 모사할 경우에 모수의 기존 설정값과 실제값의 차이가 모형의 과다모의에 상당한 영향을 미침을 확인할 수 있었다. 따라서 한반도 탄소순환의 현실적인 모의를 위해서는 모형에서 요구되는 생물리학적 정보가 한반도 다양한 식생 기능 형태를 현실적으로 잘 반영하는지를 확인해야 할 뿐 아니라 지속적인 현장 관측을 통해서 생물리학적 정보와 관련된 자료기반을 마련하는 것이 중요하다.

몬테칼로 전산모사를 이용한 셋업오차가 임상표적체적에 전달되는 선량과 셋업마진에 대하여 미치는 영향 평가 (Evaluation of Setup Uncertainty on the CTV Dose and Setup Margin Using Monte Carlo Simulation)

  • 조일성;곽정원;조병철;김종훈;안승도;박성호
    • 한국의학물리학회지:의학물리
    • /
    • 제23권2호
    • /
    • pp.81-90
    • /
    • 2012
  • 방사선 치료에서 부정확한 환자 셋업이 표적에 전달되는 선량에 미치는 영향과 치료 마진과의 연관성을 몬테칼로 기법을 사용한 전산모사를 통하여 분석하였다. 실제 방사선 치료를 받은 직장암 환자에 대한 임상표적체적(CTV: Clinical Target Volume) 및 주요장기의 구조와 치료계획 시스템(Eclipse 8.9, USA)을 이용하여 수립된 세기조절 방사선치료계획에서의 선량분포에 대한 데이터를 전산모사에서 사용하였다. 전산모사 프로그램은 리눅스환경에서 오픈소스인 ROOT 라이브러리와 GCC를 기반으로 본 연구를 위하여 개발되었다. 환자셋업오차의 확률분포를 정규분포로 가정한 것에 따라 무작위로 생성된 크기만큼 셋업이 부정확한 경우를 모사하여 임상표적체적에서의 선량분포의 변화와 오차크기에 따른 마진크기를 3차원입체조형 방사선치료에 사용되는 마진공식과 비교분석 하였다. 셋업오차 생성에 사용된 정규분포의 표준편차 크기는 1 mm부터 10 mm까지 1 mm간격으로 두었으며 계통오차와 통계오차별로 2,000번 전산모사했다. 계통오차의 경우 전산모사에 사용된 표준편차가 커질수록 임상표적체적에 조사되는 최소선량 $D_{min}^{stat{\cdot}}$은 100.4%에서 72.50%로 감소하였고 평균선량 $\bar{D}_{syst{\cdot}}$도 100.45%에서 97.88%로 감소한 반면에 표준편차${\Delta}D_{sys}$는 0.02%에서 3.33%로 증가하였다. 통계오차의 경우 최소선량 $D_{min}^{rand{\cdot}}$은 100.45%에서 94.80%감소하였고 평균선량 $\bar{D}_{syst{\cdot}}$도 100.46%에서 97.87%로 감소하였으며 표준편차 ${\Delta}D_{rand}$는 0.01%에서 0.63%로 증가하였다. 그리고 마진공식으로부터 전산모사에 사용된 셋업오차에 해당되는 마진크기를 구하고 모집단비율(population ratio)을 정의하여 기존 마진공식의 목적이 세기조절방사선치료에 만족함을 확인했다. 개발된 전산모사 프로그램은 해당 환자의 치료계획 정보를 직접 사용하므로 직장암만 아니라 두경부암, 전립선암 등 여러 환부에 적용 가능하며 셋업오차 및 선량변화에 연관된 연구에도 사용할 수 있을 것으로 사료된다.

Memory Organization for a Fuzzy Controller.

  • Jee, K.D.S.;Poluzzi, R.;Russo, B.
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.1041-1043
    • /
    • 1993
  • Fuzzy logic based Control Theory has gained much interest in the industrial world, thanks to its ability to formalize and solve in a very natural way many problems that are very difficult to quantify at an analytical level. This paper shows a solution for treating membership function inside hardware circuits. The proposed hardware structure optimizes the memoried size by using particular form of the vectorial representation. The process of memorizing fuzzy sets, i.e. their membership function, has always been one of the more problematic issues for the hardware implementation, due to the quite large memory space that is needed. To simplify such an implementation, it is commonly [1,2,8,9,10,11] used to limit the membership functions either to those having triangular or trapezoidal shape, or pre-definite shape. These kinds of functions are able to cover a large spectrum of applications with a limited usage of memory, since they can be memorized by specifying very few parameters ( ight, base, critical points, etc.). This however results in a loss of computational power due to computation on the medium points. A solution to this problem is obtained by discretizing the universe of discourse U, i.e. by fixing a finite number of points and memorizing the value of the membership functions on such points [3,10,14,15]. Such a solution provides a satisfying computational speed, a very high precision of definitions and gives the users the opportunity to choose membership functions of any shape. However, a significant memory waste can as well be registered. It is indeed possible that for each of the given fuzzy sets many elements of the universe of discourse have a membership value equal to zero. It has also been noticed that almost in all cases common points among fuzzy sets, i.e. points with non null membership values are very few. More specifically, in many applications, for each element u of U, there exists at most three fuzzy sets for which the membership value is ot null [3,5,6,7,12,13]. Our proposal is based on such hypotheses. Moreover, we use a technique that even though it does not restrict the shapes of membership functions, it reduces strongly the computational time for the membership values and optimizes the function memorization. In figure 1 it is represented a term set whose characteristics are common for fuzzy controllers and to which we will refer in the following. The above term set has a universe of discourse with 128 elements (so to have a good resolution), 8 fuzzy sets that describe the term set, 32 levels of discretization for the membership values. Clearly, the number of bits necessary for the given specifications are 5 for 32 truth levels, 3 for 8 membership functions and 7 for 128 levels of resolution. The memory depth is given by the dimension of the universe of the discourse (128 in our case) and it will be represented by the memory rows. The length of a world of memory is defined by: Length = nem (dm(m)+dm(fm) Where: fm is the maximum number of non null values in every element of the universe of the discourse, dm(m) is the dimension of the values of the membership function m, dm(fm) is the dimension of the word to represent the index of the highest membership function. In our case then Length=24. The memory dimension is therefore 128*24 bits. If we had chosen to memorize all values of the membership functions we would have needed to memorize on each memory row the membership value of each element. Fuzzy sets word dimension is 8*5 bits. Therefore, the dimension of the memory would have been 128*40 bits. Coherently with our hypothesis, in fig. 1 each element of universe of the discourse has a non null membership value on at most three fuzzy sets. Focusing on the elements 32,64,96 of the universe of discourse, they will be memorized as follows: The computation of the rule weights is done by comparing those bits that represent the index of the membership function, with the word of the program memor . The output bus of the Program Memory (μCOD), is given as input a comparator (Combinatory Net). If the index is equal to the bus value then one of the non null weight derives from the rule and it is produced as output, otherwise the output is zero (fig. 2). It is clear, that the memory dimension of the antecedent is in this way reduced since only non null values are memorized. Moreover, the time performance of the system is equivalent to the performance of a system using vectorial memorization of all weights. The dimensioning of the word is influenced by some parameters of the input variable. The most important parameter is the maximum number membership functions (nfm) having a non null value in each element of the universe of discourse. From our study in the field of fuzzy system, we see that typically nfm 3 and there are at most 16 membership function. At any rate, such a value can be increased up to the physical dimensional limit of the antecedent memory. A less important role n the optimization process of the word dimension is played by the number of membership functions defined for each linguistic term. The table below shows the request word dimension as a function of such parameters and compares our proposed method with the method of vectorial memorization[10]. Summing up, the characteristics of our method are: Users are not restricted to membership functions with specific shapes. The number of the fuzzy sets and the resolution of the vertical axis have a very small influence in increasing memory space. Weight computations are done by combinatorial network and therefore the time performance of the system is equivalent to the one of the vectorial method. The number of non null membership values on any element of the universe of discourse is limited. Such a constraint is usually non very restrictive since many controllers obtain a good precision with only three non null weights. The method here briefly described has been adopted by our group in the design of an optimized version of the coprocessor described in [10].

  • PDF

이동형 차량탑재 라이다 시스템을 활용한 경계층고도 산출 및 분석 (Estimate and Analysis of Planetary Boundary Layer Height (PBLH) using a Mobile Lidar Vehicle system)

  • 남형구;최원;김유준;심재관;최병철;김병곤
    • 대한원격탐사학회지
    • /
    • 제32권3호
    • /
    • pp.307-321
    • /
    • 2016
  • 대기경계층고도 (Planetary Boundary Layer Height, PBLH)는 기상예측모델과 대기확산모델에 중요한 예측 인자이다. PBLH는 지역의 특성에 따라 시공간 빠르게 변화하기 때문에 이를 분석하기 위하여 시공간 고해상도로 관측된 자료가 필요하다. 본 연구에서 국립기상과학원 재해기상연구센터에서 운영중인 차량에 탑재된 라이다 시스템(Lidar observation Vehicle, LIVE)을 소개하고 이것으로 관측된 PBLH의 분석결과를 제시하였다. 분석기간 (2014년 6월 26일~30일) LIVE에서 산출된 PBLH는 WRF와 라디오존데에서 산출된 값과 비교하여 결정계수가 각각 0.68, 0.72로 높은 상관도를 나타내었다. 하지만, 라이다로 산출된 PBLH는 WRF, 라디오존데와 비교하여 값을 과대모의 하는 경향을 보였다. 이는 라이다가 중첩고도 이하 (< 300m)에서 나타나는 PBLH를 찾아내지 못하고 중첩고도 이상에서 나타나는 잔류층 (Residual Layer, RL)을 PBLH로 산출한 결과라 생각된다. 라이다를 활용하여 10분 시간 해상도로 산출된 PBLH는 일출 뒤 성장하다 태양의 남중이 최고가 되는 시점의 2시간 이후 서서히 감소하는 전형적인 일변화 경향을 보여주었다. 분석기간 평균 PBLH의 성장률은 1.79 (-2.9 ~ 5.7) m $min^{-1}$ 였다. 또한, 이동 중 관측된 라이다 신호를 고정관측 기반자료와 비교한 결과 잡음이 적은 것으로 나타났다. 이동 중 관측된 PBLH의 평균은 1065 m 였으며 인근 속초에서 비양된 라디오존데 (1150 m)와 유사한 값을 보였다. 본 연구에서 LIVE가 고해상도의 시공간 자료를 안정적으로 산출 할 수 있음을 제시하였다. 이 같은 LIVE의 장점은 에어로졸 및 대기구조에 대한 새로운 관측 패러다임 제시와 관측기술선진화에 기여도가 클 것으로 기대된다.

LSTM 모형과 로지스틱 회귀를 통한 도시 침수 범위의 예측 (Prediction of Urban Flood Extent by LSTM Model and Logistic Regression)

  • 김현일;한건연;이재영
    • 대한토목학회논문집
    • /
    • 제40권3호
    • /
    • pp.273-283
    • /
    • 2020
  • 기후변화의 영향으로 국지성 및 집중호우에 대한 발생 가능성이 높아지는 시점에서 과거에 침수피해를 입은 도시 유역에 대하여 실제 호우에 대한 침수 양상을 예측하는 것은 중요하다. 이에 수치해석 기반 프로그램과 함께 기계학습을 이용한 홍수 분석에 대한 연구가 증가하고 있다. 본 연구에서 적용한 LSTM 신경망은 일련의 자료를 분석하는데 유용하지만, 딥 러닝을 수행하기 위하여 충분한 양의 자료를 필요로 한다. 그러나 단일 도시유역에 홍수를 일으킬 강우가 매년 일어나지 않기에 많은 홍수 자료를 수집하기에는 어려움이 있다. 이에 본 연구에서는 대상 유역에서 관측되는 강우 외에 전국 단위의 실제 호우를 예측 모형에 반영하였다. LSTM (Long Short-Term Memory) 신경망은 강우에 대한 총 월류량을 예측하기 위하여 사용되었으며, 목표값으로 SWMM (Storm Water Management Model)의 유출 모의 결과를 사용하였다. 침수 범위 예측을 위해서는 로지스틱 회귀를 사용하였으며, 로지스틱 회귀 모형의 독립 변수는 총 월류량이며 종속 변수는 격자 별 침수 발생 유무이다. 침수 범위 자료는 SWMM의 유출 결과를 바탕으로 수행된 2차원 침수해석 모의 결과를 통해 수집하였다. LSTM의 매개변수 조건에 따라 총 월류량 예측 결과를 비교하였다. 매개변수 설정에 따른 4가지의 LSTM 모형을 사용하였는데, 검증과 테스트 단계에 대한 평균 RMSE (Root Mean Square Error)는 1.4279 ㎥/s, 1.0079 ㎥/s으로 산정되었다. 최소 RMSE는 검증과 테스트에 대하여 각각 1.1656 ㎥/s, 0.8797㎥/s 으로 산정되었으며, SWMM모의 결과를 적절히 재현할 수 있음을 확인하였다. LSTM 신경망의 결과와 로지스틱 회귀를 연계하여 침수 범위 예측을 수행하였으며, 침수심 0.5m 이상을 고려하였을 때에 최대 침수면적 적합도가 97.33 %으로 나타났다. 본 연구에서 제시된 방법론은 딥 러닝에 기반하여 도시 홍수 대응능력을 향상 시키는데 도움이 될 것으로 판단된다.

다파장 라만 라이다 시스템을 이용한 발원지 및 이동 경로에 따른 황사의 광학적 특성 변화 연구 (Study on the Variation of Optical Properties of Asian Dust Plumes according to their Transport Routes and Source Regions using Multi-wavelength Raman LIDAR System)

  • 신성균;노영민;이권호;신동호;김관철;김영준
    • 대한원격탐사학회지
    • /
    • 제30권2호
    • /
    • pp.241-249
    • /
    • 2014
  • 본 연구에서는 광주과학기술원의 다파장 라만 라이다 시스템을 이용하여 2009년부터 2011년, 3년동안 광주에서 대기 에어로졸의 관측을 실시하였다. 관측된 라이다 신호의 분석으로부터 산출된 편광소멸도를 이용하여 황사의 층을 구분해 내었다. 구분 된 황사의 층의 고도에 따른 정보들은 Hybrid Single Particle Lagrangian Integrated Trajectory(HYSPLIT) 모델을 이용한 황사 층의 역궤적 분석에 이용되었고, 그 정보들을 통하여, 황사 층의 발원지 및 유입경로를 규명할 수 있었다. 한반도로 유입되는 황사는 고비사막을 기원으로 하는 경우가 가장 많은 것으로 나타났으며, 또한, 황사의 이동경로에 따른 광학적 특성 변화를 규명하기 위해, 중국 공업지역을 통과하여 유입된 황사 층과 발원지로부터 한반도로 직접적으로 유입된 황사의 구분하여 경로에 따른 입자 편광소멸도의 통계 분석을 실시하였다. 중국 공업지역을 통과하여 한반도로 유입된 황사의 편광소멸도는 0.07-0.1의 값을 보인 반면, 발원지로부터 공업지역을 경유하지 않고 직접 유입된 황사의 편광소멸도는 0.11-0.15로 상대적으로 높은 값을 보였다. 이는 발원지에서 발생한 순수 황사입자가 이동 중에 공업지역에서 발생한 오염입자와 혼합하여 황사층의 편광소멸도를 감소시킨 것으로 사료된다.

생산모형(生産模型)을 이용(利用)한 수출(輸出)·수입함수(輸入函數)의 가격탄성치(價格彈性値) 추정(推定) (An Estimation of Price Elasticities of Import Demand and Export Supply Functions Derived from an Integrated Production Model)

  • 이홍구
    • KDI Journal of Economic Policy
    • /
    • 제12권4호
    • /
    • pp.47-69
    • /
    • 1990
  • 수출(輸出) 수입량(輸入量)이 여러 변수(變數)들에 의해서 동시적(同時的)으로 결정(決定)되는 경우 수출(輸出) 수입함수(輸入函數)를 독립적(獨立的)으로 추정(推定)하는 것보다는 이들을 다른 경제활동수준과 함께 동시적(同時的)으로 추정(推定)하는 것이 보다 바람직하다. 본고(本稿)에서는 이에 착안하여 생산모형(生産模型)에 근거한 수출(輸出) 수입함수(輸入函數)의 가격탄성치(價格彈性値)를 추정(推定)하였다. 생산모형(生産模型)에서 수출재(輸出財)는 생산부문(生産部門)의 산출물(産出物)로, 수입재(輸入財)는 투입물(投入物)로 상정(想定)되며 이러한 생산부문(生産部門)을 분석(分析)하고 모형화(模型化)하는 데 GNP함수(函數)가 사용된다. GNP함수(函數)에 약분리성(弱分離性) 제약(制約)이 가해지면 생산모형(生産模型)의 공급(供給) 수요체계(需要體系)에 관한 미시적 정보를 사용하여 이로부터 보다 세분(細分)된 수출(輸出) 수입항목별(輸入項目別) 가격탄성치(價格彈性値)를 도출할 수 있다. 본고(本稿)는 GNP함수(函數)가 약분리성(弱分離性)을 가질 때, 이단계극대화(二段階極大化) 과정(過程)을 통해서 얻을 수 있는 수출공급(輸出供給) 수입수요(輸入需要) 국내공급(國內供給) 노동수요(勞動需要)의 가격탄성치(價格彈性値)와 세분된 수출(輸出) 수입항목(輸入項目)의 가격탄성치(價格彈性値)를 추정하였다. 상부모형(上部模型)의 추정(推定)에서는 국내공급(國內供給)과 수출공급(輸出供給)은 서로 대체관계(代替關係), 수입수요(輸入需要)와 노동수요(勞動需要)는 보완관계(補完關係)에 있으며, 투입요소(投入要素)로서 노동(勞動)과 수입재(輸入財)는 각각 국내공급(國內供給) 및 수출공급(輸出供給)과 서로 보완관계(補完關係)에 있는 것으로 나타났다. 하부모형(下部模型)에서는 세분(細分)된 수출(輸出) 수입항목(輸入項目) 상호간에는 대체(代替) 보완관계(補完關係)가 동시에 나타나는 것으로 추정되었다.

  • PDF

Virtual Digital Test Pattern Method를 이용한 CR 시스템의 영상처리 특성 분석 (Analysis of Image Processing Characteristics in Computed Radiography System by Virtual Digital Test Pattern Method)

  • 최인석;김정민;오혜경;김유현;이기성;정회원;최석윤
    • 대한방사선기술학회지:방사선기술과학
    • /
    • 제33권2호
    • /
    • pp.97-107
    • /
    • 2010
  • 연구 목적은 virtual digital test pattern method을 이용하여 REGIUS 150 CR 시스템의 각 LUT별 프로세싱 커브를 도출하고, Dry Imager의 특성을 파악하여 CR의 영상처리 방법을 분석하는 것이다. 실험은 먼저, CR의 화상데이터에 맞게 virtual digital test pattern 파일을 만들고, 인위적으로 입력하여 virtual digital test pattern step의 변화를 통해 각 LUT(THX, ST, STM, LUM, BONE, LIN)별 프로세싱 커브를 구한다. 그리고 하드카피 이미지를 통해 Dry Imager의 프로세싱 커브도 도출한다. 마지막으로, CR 본체의 영상처리 파라미터들을 변화시켜 각각의 특성을 알아낸다. 실험 결과를 살펴보면, 입 출력 값을 통해 CR 시스템의 입력 다이나믹 레인지의 LUT별 프로세싱 커브를 구하였다. 프로세싱 커브는 모두 곡선으로 이어져 있었으며(LIN mode 제외), 각 커브마다 조금씩 차이를 보였다. 또한 Dry Imager의 프로세싱 커브는 중간부분에만 선형성이 나타났다. 그리고 프로세싱 파라미터의 G value는 기울기와, S value는 감도의 shift량과 관련된다는 것을 알 수 있었고, 선량에 따라 S value가 비례하여 변화한다는 것 또한 유추해 낼 수 있었다. 결론적으로 CR 시스템은 각 회사별로 내부 처리가 다르고, 구조 또한 복잡하기 때문에 내부 영상처리의 파악이 어렵다. 하지만 본 연구에서 사용한 virtual digital test pattern method는 CR 시스템의 내부처리 구조와 영상 파라미터의 변화에 따른 특성을 추정할 수 있으므로, 이 방법을 통해 타 장비의 CR 시스템과 Dry Imager의 전체적인 영상처리 특성을 비교, 분석 가능할 것이다.