• 제목/요약/키워드: process optimization

검색결과 4,770건 처리시간 0.045초

XGBoost를 활용한 리스크패리티 자산배분 모형에 관한 연구 (A Study on Risk Parity Asset Allocation Model with XGBoos)

  • 김영훈;최흥식;김선웅
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.135-149
    • /
    • 2020
  • 인공지능을 기반으로 한 다양한 연구들이 현대사회에 많은 변화를 불러일으키고 있다. 금융시장 역시 예외는 아니다. 로보어드바이저 개발이 활발하게 진행되고 있으며 전통적 방식의 단점을 보완하고 사람이 분석하기 어려운 부분을 대체하고 있다. 로보어드바이저는 인공지능 알고리즘으로 자동화된 투자 결정을 내려 다양한 자산배분 모형과 함께 활용되고 있다. 자산배분 모형 중 리스크패리티는 대표적인 위험 기반 자산배분 모형의 하나로 큰 자산을 운용하는 데 있어 안정성을 나타내고 현업에서 역시 널리 쓰이고 있다. 그리고 XGBoost 모형은 병렬화된 트리 부스팅 기법으로 제한된 메모리 환경에서도 수십억 가지의 예제로 확장이 가능할 뿐만 아니라 기존의 부스팅에 비해 학습속도가 매우 빨라 많은 분야에서 널리 활용되고 있다. 이에 본 연구에서 리스크패리티와 XGBoost를 장점을 결합한 모형을 제안하고자 한다. 기존에 널리 사용되는 최적화 자산배분 모형은 과거 데이터를 기반으로 투자 비중을 추정하기 때문에 과거와 실투자 기간 사이의 추정 오차가 발생하게 된다. 최적화 자산배분 모형은 추정 오차로 인해 포트폴리오 성과에서 악영향을 받게 된다. 본 연구는 XGBoost를 통해 실투자 기간의 변동성을 예측하여 최적화 자산배분 모형의 추정 오차를 줄여 모형의 안정성과 포트폴리오 성과를 개선하고자 한다. 본 연구에서 제시한 모형의 실증 검증을 위해 한국 주식시장의 10개 업종 지수 데이터를 활용하여 2003년부터 2019년까지 총 17년간 주가 자료를 활용하였으며 in-sample 1,000개, out-of-sample 20개씩 Moving-window 방식으로 예측 결과값을 누적하여 총 154회의 리밸런싱이 이루어진 백테스팅 결과를 도출하였다. 본 연구에서 제안한 자산배분 모형은 기계학습을 사용하지 않은 기존의 리스크패리티와 비교하였을 때 누적수익률 및 추정 오차에서 모두 개선된 성과를 보여주었다. 총 누적수익률은 45.748%로 리스크패리티 대비 약 5% 높은 결과를 보였고 추정오차 역시 10개 업종 중 9개에서 감소한 결과를 보였다. 실험 결과를 통해 최적화 자산배분 모형의 추정 오차를 감소시킴으로써 포트폴리오 성과를 개선하였다. 포트폴리오의 추정 오차를 줄이기 위해 모수 추정 방법에 관한 다양한 연구 사례들이 존재한다. 본 연구는 추정 오차를 줄이기 위한 새로운 추정방법으로 기계학습을 제시하여 최근 빠른 속도로 발전하는 금융시장에 맞는 진보된 인공지능형 자산배분 모형을 제시한 점에서 의의가 있다.

Support Vector Regression을 이용한 GARCH 모형의 추정과 투자전략의 성과분석 (Estimation of GARCH Models and Performance Analysis of Volatility Trading System using Support Vector Regression)

  • 김선웅;최흥식
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.107-122
    • /
    • 2017
  • 주식시장의 주가 수익률에 나타나는 변동성은 투자 위험의 척도로서 재무관리의 이론적 모형에서뿐만 아니라 포트폴리오 최적화, 증권의 가격 평가 및 위험관리 등 투자 실무 영역에서도 매우 중요한 역할을 하고 있다. 변동성은 주가 수익률이 평균을 중심으로 얼마나 큰 폭의 움직임을 보이는가를 판단하는 지표로서 보통 수익률의 표준편차로 측정한다. 관찰 가능한 표준편차는 과거의 주가 움직임에서 측정되는 역사적 변동성(historical volatility)이다. 역사적 변동성이 미래의 주가 수익률의 변동성을 예측하려면 변동성이 시간 불변적(time-invariant)이어야 한다. 그러나 대부분의 변동성 연구들은 변동성이 시간 가변적(time-variant)임을 보여주고 있다. 이에 따라 시간 가변적 변동성을 예측하기 위한 여러 계량 모형들이 제안되었다. Engle(1982)은 변동성의 시간 가변적 특성을 잘 반영하는 변동성 모형인 Autoregressive Conditional Heteroscedasticity(ARCH)를 제안하였으며, Bollerslev(1986) 등은 일반화된 ARCH(GARCH) 모형으로 발전시켰다. GARCH 모형의 실증 분석 연구들은 실제 증권 수익률에 나타나는 두터운 꼬리 분포 특성과 변동성의 군집현상(clustering)을 잘 설명하고 있다. 일반적으로 GARCH 모형의 모수는 가우스분포로부터 추출된 자료에서 최적의 성과를 보이는 로그우도함수에 대한 최우도추정법에 의하여 추정되고 있다. 그러나 1987년 소위 블랙먼데이 이후 주식 시장은 점점 더 복잡해지고 시장 변수들이 많은 잡음(noise)을 띠게 됨에 따라 변수의 분포에 대한 엄격한 가정을 요구하는 최우도추정법의 대안으로 인공지능모형에 대한 관심이 커지고 있다. 본 연구에서는 주식 시장의 주가 수익률에 나타나는 변동성의 예측 모형인 GARCH 모형의 모수추정방법으로 지능형 시스템인 Support Vector Regression 방법을 제안한다. SVR은 Vapnik에 의해 제안된 Support Vector Machines와 같은 원리를 회귀분석으로 확장한 모형으로서 Vapnik의 e-insensitive loss function을 이용하여 비선형 회귀식의 추정이 가능해졌다. SVM을 이용한 회귀식 SVR은 두터운 꼬리 분포를 보이는 주식시장의 변동성과 같은 관찰치에서도 우수한 추정 성능을 보인다. 2차 손실함수를 사용하는 기존의 최소자승법은 부최적해로서 추정 오차가 확대될 수 있다. Vapnik의 손실함수에서는 입실론 범위내의 예측 오차는 무시하고 큰 예측 오차만 손실로 처리하기 때문에 구조적 위험의 최소화를 추구하게 된다. 금융 시계열 자료를 분석한 많은 연구들은 SVR의 우수성을 보여주고 있다. 본 연구에서는 주가 변동성의 분석 대상으로서 KOSPI 200 주가지수를 사용한다. KOSPI 200 주가지수는 한국거래소에 상장된 우량주 중 거래가 활발하고 업종을 대표하는 200 종목으로 구성된 업종 대표주들의 포트폴리오이다. 분석 기간은 2010년부터 2015년까지의 6년 동안이며, 거래일의 일별 주가지수 종가 자료를 사용하였고 수익률 계산은 주가지수의 로그 차분값으로 정의하였다. KOSPI 200 주가지수의 일별 수익률 자료의 실증분석을 통해 기존의 Maximum Likelihood Estimation 방법과 본 논문이 제안하는 지능형 변동성 예측 모형의 예측성과를 비교하였다. 주가지수 수익률의 일별 자료 중 학습구간에서 대칭 GARCH 모형과 E-GARCH, GJR-GARCH와 같은 비대칭 GARCH 모형에 대하여 모수를 추정하고, 검증 구간 데이터에서 변동성 예측의 성과를 비교하였다. 전체 분석기간 1,487일 중 학습 기간은 1,187일, 검증 기간은 300일 이다. MLE 추정 방법의 실증분석 결과는 기존의 많은 연구들과 비슷한 결과를 보여주고 있다. 잔차의 분포는 정규분포보다는 Student t분포의 경우 더 우수한 모형 추정 성과를 보여주고 있어, 주가 수익률의 비정규성이 잘 반영되고 있다고 할 수 있다. MSE 기준으로, SVR 추정의 변동성 예측에서는 polynomial 커널함수를 제외하고 linear, radial 커널함수에서 MLE 보다 우수한 예측 성과를 보여주었다. DA 지표에서는 radial 커널함수를 사용한 SVR 기반의 지능형 GARCH 모형이 가장 우수한 변동성의 변화 방향에 대한 방향성 예측력을 보여주었다. 추정된 지능형 변동성 모형을 이용하여 예측된 주식 시장의 변동성 정보가 경제적 의미를 갖는지를 검토하기 위하여 지능형 변동성 거래 전략을 도출하였다. 지능형 변동성 거래 전략 IVTS의 진입규칙은 내일의 변동성이 증가할 것으로 예측되면 변동성을 매수하고 반대로 변동성의 감소가 예상되면 변동성을 매도하는 전략이다. 만약 변동성의 변화 방향이 전일과 동일하다면 기존의 변동성 매수/매도 포지션을 유지한다. 전체적으로 SVR 기반의 GARCH 모형의 투자 성과가 MLE 기반의 GARCH 모형의 투자 성과보다 높게 나타나고 있다. E-GARCH, GJR-GARCH 모형의 경우는 MLE 기반의 GARCH 모형을 이용한 IVTS 전략은 손실이 나지만 SVR 기반의 GARCH 모형을 이용한 IVTS 전략은 수익으로 나타나고 있다. SVR 커널함수에서는 선형 커널함수가 더 좋은 투자 성과를 보여주고 있다. 선형 커널함수의 경우 투자 수익률이 +526.4%를 기록하고 있다. SVR 기반의 GARCH 모형을 이용하는 IVTS 전략의 경우 승률도 51.88%부터 59.7% 사이로 높게 나타나고 있다. 옵션을 이용하는 변동성 매도전략은 방향성 거래전략과 달리 하락할 것으로 예측된 변동성의 예측 방향이 틀려 변동성이 소폭 상승하거나 변동성이 하락하지 않고 제자리에 있더라도 옵션의 시간가치 요인 때문에 전체적으로 수익이 실현될 수도 있다. 정확한 변동성의 예측은 자산의 가격 결정뿐만 아니라 실제 투자에서도 높은 수익률을 얻을 수 있기 때문에 다양한 형태의 인공신경망을 활용하여 더 나은 예측성과를 보이는 변동성 예측 모형을 개발한다면 주식시장의 투자자들에게 좋은 투자 정보를 제공하게 될 것이다.

Memory Organization for a Fuzzy Controller.

  • Jee, K.D.S.;Poluzzi, R.;Russo, B.
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.1041-1043
    • /
    • 1993
  • Fuzzy logic based Control Theory has gained much interest in the industrial world, thanks to its ability to formalize and solve in a very natural way many problems that are very difficult to quantify at an analytical level. This paper shows a solution for treating membership function inside hardware circuits. The proposed hardware structure optimizes the memoried size by using particular form of the vectorial representation. The process of memorizing fuzzy sets, i.e. their membership function, has always been one of the more problematic issues for the hardware implementation, due to the quite large memory space that is needed. To simplify such an implementation, it is commonly [1,2,8,9,10,11] used to limit the membership functions either to those having triangular or trapezoidal shape, or pre-definite shape. These kinds of functions are able to cover a large spectrum of applications with a limited usage of memory, since they can be memorized by specifying very few parameters ( ight, base, critical points, etc.). This however results in a loss of computational power due to computation on the medium points. A solution to this problem is obtained by discretizing the universe of discourse U, i.e. by fixing a finite number of points and memorizing the value of the membership functions on such points [3,10,14,15]. Such a solution provides a satisfying computational speed, a very high precision of definitions and gives the users the opportunity to choose membership functions of any shape. However, a significant memory waste can as well be registered. It is indeed possible that for each of the given fuzzy sets many elements of the universe of discourse have a membership value equal to zero. It has also been noticed that almost in all cases common points among fuzzy sets, i.e. points with non null membership values are very few. More specifically, in many applications, for each element u of U, there exists at most three fuzzy sets for which the membership value is ot null [3,5,6,7,12,13]. Our proposal is based on such hypotheses. Moreover, we use a technique that even though it does not restrict the shapes of membership functions, it reduces strongly the computational time for the membership values and optimizes the function memorization. In figure 1 it is represented a term set whose characteristics are common for fuzzy controllers and to which we will refer in the following. The above term set has a universe of discourse with 128 elements (so to have a good resolution), 8 fuzzy sets that describe the term set, 32 levels of discretization for the membership values. Clearly, the number of bits necessary for the given specifications are 5 for 32 truth levels, 3 for 8 membership functions and 7 for 128 levels of resolution. The memory depth is given by the dimension of the universe of the discourse (128 in our case) and it will be represented by the memory rows. The length of a world of memory is defined by: Length = nem (dm(m)+dm(fm) Where: fm is the maximum number of non null values in every element of the universe of the discourse, dm(m) is the dimension of the values of the membership function m, dm(fm) is the dimension of the word to represent the index of the highest membership function. In our case then Length=24. The memory dimension is therefore 128*24 bits. If we had chosen to memorize all values of the membership functions we would have needed to memorize on each memory row the membership value of each element. Fuzzy sets word dimension is 8*5 bits. Therefore, the dimension of the memory would have been 128*40 bits. Coherently with our hypothesis, in fig. 1 each element of universe of the discourse has a non null membership value on at most three fuzzy sets. Focusing on the elements 32,64,96 of the universe of discourse, they will be memorized as follows: The computation of the rule weights is done by comparing those bits that represent the index of the membership function, with the word of the program memor . The output bus of the Program Memory (μCOD), is given as input a comparator (Combinatory Net). If the index is equal to the bus value then one of the non null weight derives from the rule and it is produced as output, otherwise the output is zero (fig. 2). It is clear, that the memory dimension of the antecedent is in this way reduced since only non null values are memorized. Moreover, the time performance of the system is equivalent to the performance of a system using vectorial memorization of all weights. The dimensioning of the word is influenced by some parameters of the input variable. The most important parameter is the maximum number membership functions (nfm) having a non null value in each element of the universe of discourse. From our study in the field of fuzzy system, we see that typically nfm 3 and there are at most 16 membership function. At any rate, such a value can be increased up to the physical dimensional limit of the antecedent memory. A less important role n the optimization process of the word dimension is played by the number of membership functions defined for each linguistic term. The table below shows the request word dimension as a function of such parameters and compares our proposed method with the method of vectorial memorization[10]. Summing up, the characteristics of our method are: Users are not restricted to membership functions with specific shapes. The number of the fuzzy sets and the resolution of the vertical axis have a very small influence in increasing memory space. Weight computations are done by combinatorial network and therefore the time performance of the system is equivalent to the one of the vectorial method. The number of non null membership values on any element of the universe of discourse is limited. Such a constraint is usually non very restrictive since many controllers obtain a good precision with only three non null weights. The method here briefly described has been adopted by our group in the design of an optimized version of the coprocessor described in [10].

  • PDF

공공 서비스 수출 플랫폼을 위한 온톨로지 모형 (An Ontology Model for Public Service Export Platform)

  • 이광원;박세권;류승완;신동천
    • 지능정보연구
    • /
    • 제20권1호
    • /
    • pp.149-161
    • /
    • 2014
  • 공공 서비스의 수출의 경우 수출 절차와 대상 선정에 따른 다양한 문제가 발생하며, 공공 서비스 수출 플랫폼은 이러한 문제점들을 해결하기 위하여 사용자 중심의 유연하고, 개방형 구조의 디지털 생태계를 조성할 수 있도록 구현되어야 한다. 또한 공공서비스의 수출은 다수의 이해당사자가 참여하고 여러 단계의 과정을 거쳐야 하므로 사용자의 이해 종류와 탐색 컨설팅 협상 계약 등 수출 프로세스 단계별로 맞춤형 플랫폼 서비스 제공이 필수적이다. 이를 위해서 플랫폼 구조는 도메인과 정보의 정의 및 공유는 물론 지식화를 지원할 수 있어야 한다. 본 논문에서는 공공서비스 수출을 지원하는 플랫폼을 위한 온톨로지 모형을 제안한다. 서비스 플랫폼의 핵심 엔진은 시뮬레이터 모듈이며 시뮬레이터 모듈에서는 온톨로지를 사용하여 수출 비즈니스의 여러 컨텍스트들을 파악하고 정의하여 다른 모듈들과 공유하게 된다. 온톨로지는 공유 어휘를 통하여 개념들과 그들 간의 관계를 표현할 수 있으므로 특정 영역에서 구조적인 틀을 개발하기 위한 메타 정보를 구성하는 효과적인 도구로 잘 알려져 있다. 공공서비스 수출 플랫폼을 위한 온톨로지는 서비스, 요구사항, 환경, 기업, 국가 등 5가지 카테고리로 구성되며 각각의 온톨로지는 요구분석과 사례 분석을 통하여 용어를 추출하고 온톨로지의 식별과 개념적 특성을 반영하는 구조로 설계한다. 서비스 온톨로지는 목적효과, 요구조건, 활동, 서비스 분류 등으로 구성되며, 요구사항 온톨로지는 비즈니스, 기술, 제약으로 구성 된다. 환경 온톨로지는 사용자, 요구조건, 활동으로, 기업 온톨로지는 활동, 조직, 전략, 마케팅, 시간으로 구성되며, 국가 온톨로지는 경제, 사회기반시설, 법, 제도, 관습, 인프라, 인구, 위치, 국가전략 등으로 구성된다. 수출 대상 서비스와 국가의 우선순위 리스트가 생성되면 갭(gap) 분석과 매칭 알고리즘 등의 시뮬레이터를 통하여 수출기업과 수출지원 프로그램과의 시스템적 연계가 이루어진다. 제안하는 온톨로지 모형 기반의 공공서비스 수출지원 플랫폼이 구현되면 이해당사자 모두에게 도움이 되며 특히 정보 인프라와 수출경험이 부족한 중소기업에게 상대적으로 더 큰 도움이 될 것이다. 또한 개방형 디지털 생태계를 통하여 이해당사자들이 정보교환, 협업, 신사업 기획 등의 기회를 만들 수 있을 것으로 기대한다.

세기조절방사선치료 시 치료 부위에 따른 치료계획 시스템 간 선량평가 (Dose Evaluation of TPS according to Treatment Sites in IMRT)

  • 김진만;김종식;홍채선;박주영;박수연;주상규
    • 대한방사선치료학회지
    • /
    • 제25권2호
    • /
    • pp.181-186
    • /
    • 2013
  • 목 적: 본 연구는 치료계획 시스템인 $Pinnacle^3$ (version 9.2, Philips Medical Systems, USA)과 Eclipse (version 10.0, Varian Medical Systems, USA)을 이용하여 전립선암과 폐암의 세기조절방사선 치료계획시 불균질 부위의 선량 계산 차이를 알고리즘별로 알아보고자 한다. 대상 및 방법: 각 5명의 전립선암 및 폐암 환자를 대상으로, 본원 Protocol에 따른 동일한 조건으로 최적화 계산을 진행하였다. 전립선암 환자의 치료계획은 10 MV, 7Beam을 사용하였으며 2.5 Gy씩 28 fx, 총 70 Gy를 동일 처방하였고, 폐암 환자의 치료계획은 6 MV, 6Beam을 사용하였으며 2 Gy씩 33 fx, 총 66 Gy를 동일 처방하였다. 두 치료계획시스템을 통해 CTV, PTV 및 종양주위의 OAR의 최대선량, 평균선량, 최소선량을 비교하였다. 결 과: 전립선암에서 두 치료계획시스템 모두 CTV와 PTV의 선량변화가 2%이내였으며 종양주변 정상 장기(방광, 대퇴골, 직장)도 선량제약조건을 충족하였다. 폐암에서도 CTV와 PTV는 2%이내의 선량변화를 보였고, 정상 장기(식도, 척수, 양측 폐)도 선량제약 조건을 충족하였다. 하지만, Eclipse 치료계획의 최소선량은 CTV에서 1.9%, PTV에서 3.5% 높았고 양측 폐의 경우 V5 Gy에서 3.0% 높은 차이를 보였다. 결 론: 치료부위에 따른 각각의 치료계획시스템은 본원의 선량제한 조건을 모두 만족하여 임상적 정확성을 확인할 수 있었다. 향후 다양한 부위의 치료계획 연구와 치료계획시스템의 적용은 보다 정확한 치료계획을 위한 방법을 제시할 것이라 사료된다.

  • PDF

N- and P-doping of Transition Metal Dichalcogenide (TMD) using Artificially Designed DNA with Lanthanide and Metal Ions

  • Kang, Dong-Ho;Park, Jin-Hong
    • 한국진공학회:학술대회논문집
    • /
    • 한국진공학회 2016년도 제50회 동계 정기학술대회 초록집
    • /
    • pp.292-292
    • /
    • 2016
  • Transition metal dichalcogenides (TMDs) with a two-dimensional layered structure have been considered highly promising materials for next-generation flexible, wearable, stretchable and transparent devices due to their unique physical, electrical and optical properties. Recent studies on TMD devices have focused on developing a suitable doping technique because precise control of the threshold voltage ($V_{TH}$) and the number of tightly-bound trions are required to achieve high performance electronic and optoelectronic devices, respectively. In particular, it is critical to develop an ultra-low level doping technique for the proper design and optimization of TMD-based devices because high level doping (about $10^{12}cm^{-2}$) causes TMD to act as a near-metallic layer. However, it is difficult to apply an ion implantation technique to TMD materials due to crystal damage that occurs during the implantation process. Although safe doping techniques have recently been developed, most of the previous TMD doping techniques presented very high doping levels of ${\sim}10^{12}cm^{-2}$. Recently, low-level n- and p-doping of TMD materials was achieved using cesium carbonate ($Cs_2CO_3$), octadecyltrichlorosilane (OTS), and M-DNA, but further studies are needed to reduce the doping level down to an intrinsic level. Here, we propose a novel DNA-based doping method on $MoS_2$ and $WSe_2$ films, which enables ultra-low n- and p-doping control and allows for proper adjustments in device performance. This is achieved by selecting and/or combining different types of divalent metal and trivalent lanthanide (Ln) ions on DNA nanostructures. The available n-doping range (${\Delta}n$) on the $MoS_2$ by Ln-DNA (DNA functionalized by trivalent Ln ions) is between $6{\times}10^9cm^{-2}$ and $2.6{\times}10^{10}cm^{-2}$, which is even lower than that provided by pristine DNA (${\sim}6.4{\times}10^{10}cm^{-2}$). The p-doping change (${\Delta}p$) on $WSe_2$ by Ln-DNA is adjusted between $-1.0{\times}10^{10}cm^{-2}$ and $-2.4{\times}10^{10}cm^{-2}$. In the case of Co-DNA (DNA functionalized by both divalent metal and trivalent Ln ions) doping where $Eu^{3+}$ or $Gd^{3+}$ ions were incorporated, a light p-doping phenomenon is observed on $MoS_2$ and $WSe_2$ (respectively, negative ${\Delta}n$ below $-9{\times}10^9cm^{-2}$ and positive ${\Delta}p$ above $1.4{\times}10^{10}cm^{-2}$) because the added $Cu^{2+}$ ions probably reduce the strength of negative charges in Ln-DNA. However, a light n-doping phenomenon (positive ${\Delta}n$ above $10^{10}cm^{-2}$ and negative ${\Delta}p$ below $-1.1{\times}10^{10}cm^{-2}$) occurs in the TMD devices doped by Co-DNA with $Tb^{3+}$ or $Er^{3+}$ ions. A significant (factor of ~5) increase in field-effect mobility is also observed on the $MoS_2$ and $WSe_2$ devices, which are, respectively, doped by $Tb^{3+}$-based Co-DNA (n-doping) and $Gd^{3+}$-based Co-DNA (p-doping), due to the reduction of effective electron and hole barrier heights after the doping. In terms of optoelectronic device performance (photoresponsivity and detectivity), the $Tb^{3+}$ or $Er^{3+}$-Co-DNA (n-doping) and the $Eu^{3+}$ or $Gd^{3+}$-Co-DNA (p-doping) improve the $MoS_2$ and $WSe_2$ photodetectors, respectively.

  • PDF

김치로부터 분리된 Leuconostoc sp. strain YSK 균주에 의한 덱스트란 생산 조건의 최적화 (Process Optimization of Dextran Production by Leuconostoc sp. strain YSK. Isolated from Fermented Kimchi)

  • 황승균;홍준택;정경환;장병철;황경숙;신정희;임성팔;유선균
    • 생명과학회지
    • /
    • 제18권10호
    • /
    • pp.1377-1383
    • /
    • 2008
  • 본 연구는 발효 김치 액으로부터 덱스트란 생산 균주를 분리하고 생산 최적 생산 조건을 정하기 위하여 반응표면 분석법을 이용하였다. 발효 조건의 독립변수들은 배양 온도,pH, 효모 추출물의 농도, 온도, 기질의 농도로 정하고 Box- Benken 디자인를 이용하여 실험을 설계하였다. 최종 분리된 균주는 Leuconostoc sp. strain SKY로 잠정적으로 명하였다. 연구 결과 덱스트란 생산은 3.90 - 22.40 g/l이고, 균체량 생산은 0.69-2.85 g/l, 수율은 0.10-0.64, 생산 속도 0.16-0.85 g/l-hr의 범위에서 분석이 되었다. 표면반응분석 결과 덱스트란 생산에 가장 영향을 미치는 것은 배양 pH이고 다음에 효모 추출물의 농도 그리고 온도의 순으로 나타났다. 균체량 생산에 가장 영향을 미치는 것은 배양 pH이고 다음에 효모 추출물의 농도 그리고 온도의 순으로 나타났다. 생산 수율에 가장 영향을 미치는 것은 배양 pH 이고 다음에 효모 추출물의 농도 그리고 온도의 순으로 나타났다. 덱스트란 생산 속도에 가장 영향을 미치는 것은 배양 pH이고 다음에 효모 추출물의 농도 그리고 온도의 순으로 나타났다. 결론적으로 최적 생산 조건은 온도는 $27-28^{\circ}C$이고, pH는 7.0이며, 효묘 추출물은 6-7%의 범위에서 결정이 되었다. 이러한 조건에서 생산된 덱스트란 양은 22g/l이고, 생산 수율은 약 60%정도이며, 생산 속도는 0.8g/l/hr이었다.

기업의 SNS 노출과 주식 수익률간의 관계 분석 (The Analysis on the Relationship between Firms' Exposures to SNS and Stock Prices in Korea)

  • 김태환;정우진;이상용
    • Asia pacific journal of information systems
    • /
    • 제24권2호
    • /
    • pp.233-253
    • /
    • 2014
  • Can the stock market really be predicted? Stock market prediction has attracted much attention from many fields including business, economics, statistics, and mathematics. Early research on stock market prediction was based on random walk theory (RWT) and the efficient market hypothesis (EMH). According to the EMH, stock market are largely driven by new information rather than present and past prices. Since it is unpredictable, stock market will follow a random walk. Even though these theories, Schumaker [2010] asserted that people keep trying to predict the stock market by using artificial intelligence, statistical estimates, and mathematical models. Mathematical approaches include Percolation Methods, Log-Periodic Oscillations and Wavelet Transforms to model future prices. Examples of artificial intelligence approaches that deals with optimization and machine learning are Genetic Algorithms, Support Vector Machines (SVM) and Neural Networks. Statistical approaches typically predicts the future by using past stock market data. Recently, financial engineers have started to predict the stock prices movement pattern by using the SNS data. SNS is the place where peoples opinions and ideas are freely flow and affect others' beliefs on certain things. Through word-of-mouth in SNS, people share product usage experiences, subjective feelings, and commonly accompanying sentiment or mood with others. An increasing number of empirical analyses of sentiment and mood are based on textual collections of public user generated data on the web. The Opinion mining is one domain of the data mining fields extracting public opinions exposed in SNS by utilizing data mining. There have been many studies on the issues of opinion mining from Web sources such as product reviews, forum posts and blogs. In relation to this literatures, we are trying to understand the effects of SNS exposures of firms on stock prices in Korea. Similarly to Bollen et al. [2011], we empirically analyze the impact of SNS exposures on stock return rates. We use Social Metrics by Daum Soft, an SNS big data analysis company in Korea. Social Metrics provides trends and public opinions in Twitter and blogs by using natural language process and analysis tools. It collects the sentences circulated in the Twitter in real time, and breaks down these sentences into the word units and then extracts keywords. In this study, we classify firms' exposures in SNS into two groups: positive and negative. To test the correlation and causation relationship between SNS exposures and stock price returns, we first collect 252 firms' stock prices and KRX100 index in the Korea Stock Exchange (KRX) from May 25, 2012 to September 1, 2012. We also gather the public attitudes (positive, negative) about these firms from Social Metrics over the same period of time. We conduct regression analysis between stock prices and the number of SNS exposures. Having checked the correlation between the two variables, we perform Granger causality test to see the causation direction between the two variables. The research result is that the number of total SNS exposures is positively related with stock market returns. The number of positive mentions of has also positive relationship with stock market returns. Contrarily, the number of negative mentions has negative relationship with stock market returns, but this relationship is statistically not significant. This means that the impact of positive mentions is statistically bigger than the impact of negative mentions. We also investigate whether the impacts are moderated by industry type and firm's size. We find that the SNS exposures impacts are bigger for IT firms than for non-IT firms, and bigger for small sized firms than for large sized firms. The results of Granger causality test shows change of stock price return is caused by SNS exposures, while the causation of the other way round is not significant. Therefore the correlation relationship between SNS exposures and stock prices has uni-direction causality. The more a firm is exposed in SNS, the more is the stock price likely to increase, while stock price changes may not cause more SNS mentions.

시설재배 상추에 대한 전과정평가 (LCA) 방법론 적용 (Application of LCA Methodology on Lettuce Cropping Systems in Protected Cultivation)

  • 유종희;김계훈
    • 한국토양비료학회지
    • /
    • 제43권5호
    • /
    • pp.705-715
    • /
    • 2010
  • 기후변화협약과 탄소배출권문제 등 환경에 관한 관심과 규제 등이 국제적 주요 관심 사항이 되고 있는 상황에서 농업생산에 대한 환경영향평가의 필요성이 대두되고 있다. 현재 우리나라는 환경부에서 시행하는 탄소성적표지제도 도입에서 농업분야의 LCI (Life Cycle Invemtory)database 부재를 이유로 1차 농산물을 대상에서 제외하고 있다. 따라서 농산물 탄소성적표지제도 도입을 위한 농업분야 LCI database에 대한 연구와 구축이 시급한 실정이다. 따라서 본 연구는 농업생산체계에 대한 LCA 적용을 위하여 시설상추를 대상으로 LCI 구축과 LICA 수행을 위한 방법론을 고찰하였다. LCA의 방법론은 ISO 14040 규격에 의거하여 연구 목적 및 범위, LCI분석 (전과정 목록분석), LCIA(전과정 영향평가), 해석의 단계로 구성되었다. 연구 목적은 시설 상추재배체계에 대한 LCA 방법론 적용이며, 기능단위는 상추 1 kg 생산으로 하였다. LCI 구축을 위한 영농 투입물과 산출물에 대한 데이터 수집은 농진청의 농축산물소득자료를 중심으로 관련 통계, 문헌자료를 통하여 수집하였다. LCI 구축을 위한 자료 수집결과 상추를 재배할 때 투입되는 물질 중 유기질 비료와 무기질 비료의 시용과, 식물보호제의 투입이 주요배출인자로 분석되었다. 농업활동으로 배출되는 주요 환경부하물질은 비료가 시용된 토양으로부터 대기로 발생되는 $N_2O$와 수계로 배출되는 ${NO_3}^-$, ${PO_4}^-$과 농약잔류물질로부터 발생되는 유기화학물질, 농기계에 쓰이는 화석연료 연소에 의한 대기오염물질 등 이었다. LCIA는 해외의 LCA 방법론과 LCA적용사례를 조사하여 농업분야 LCIA 방법론에 대하여 고찰하였다. LCIA는 분류화, 특성화, 정규화(일반화), 가중화의 4단계로 이루어지며, 이 중 분류화와 특성화는 의무절차이고, 정규화와 가중화는 선택사항이다. 해석단계는 LCI 분석결과와 LCIA 결과에 대하여 검증하고, 결과로부터 도출된 환경적 문제점과 개선안 등을 제시한다. LCA 수행에 사용하는 국내 소프트웨어는 지경부와 환경부에서 개발하여 보급하고 있는 'PASS'와 'TOTAL' 이다. 그러나 국내 프로그램에 적용되고 있는 환경영향평가 모델은 국외에서 개발한 기존모델들이다. 그러므로 보다 정확한 농업분야 LCA 분석이 가능하도록 추후 국내 농업환경에 적합한 영향평가 모델 및 특성화, 일반화, 가중화 계수의 선정 등이 이루어져야 할 것이다.

건조키위 제조를 위한 삼투건조공정의 최적화 (Optimization for the Process of Osmotic Dehydration for the Manufacturing of Dried Kiwifruit)

  • 홍주헌;윤광섭;최용희
    • 한국식품과학회지
    • /
    • 제30권2호
    • /
    • pp.348-355
    • /
    • 1998
  • 건조키위의 제조시 건조에 의한 품질열화를 줄이기 위한 전처리공정으로서 삼투공정을 행하여 부분실시 계획법으로 실험계획을 수립한 후 반응표면분석법으로 최적화를 수행하여 최적조건을 얻고자 하였다. 삼투건조시 침지온도와 당농도 그리고 침지시간을 독립 변수로 하고 수분함량, solid gain, weight reduction, moisture loss, 적정산도, 당도, vitamin C를 반응변수로 하였다. 삼투건조 시 물질이동의 특성은 침지온도, 농도, 시간이 길어질수록 증가하는 것으로 나타났으며, 수분함량은 침지온도, 농도, 시간이 증가할수록 낮은 값을 보였고 당도는 침지온도와 농도 및 시간이 증가함에 따라 증가하였다. 적정산도와 vitamin C는 낮은 온도와 고농도의 처리에서 당의 보호작용으로 손실이 적게 나타났다. 수립된 회귀모형에 대한 적합성 결여분석 결과 반응변수 모두 유의성이 없어(P>0.05) 수립된 반응표면 모형이 통계적으로 유의하다고 할 수 있었으며 다중회귀분석 결과 일차항은 유의성이 인정되었다. 독립변수의 영향은 온도와 농도보다 유의성이 있었으나 시간에 대해서는 반응변수 모두 유의성이 인정되지 않았다. 독립변수중 가장 영향이 적은 침지시간인 1.5시간으로 고정하고 온도와 농도만을 변수로하여 수분함량을 $66{\sim}69%$로 하고, 당도와 vitamin C함량을 각각 $24^{\circ}Brix,\;23mg%$이상으로 하는 온도와 농도는 $34{\sim}39^{\circ}C,\;52{\sim}58^{\circ}Brix$로 나타나, 건조키위 제조를 위한 삼투처리의 최적조건을 $37^{\circ}C,\;55^{\circ}Brix$, 1.5시간으로 결정할 수 있었다.항균 효소제인 lysozyme을 분리하는데 매우 효과적인 방법이었다.제로 재차 이용할 경우 비드가 일정한 크기를 갖고, 감소한 표면적과 같은 양의 새로운 비드를 첨가한다면 사용된 비드의 재활용 가능성도 있다고 사료되었다.로 제조된 간장의 구수한 맛, 신맛, 짠맛과 종합적 기호도에서 유의차가 있어서 CM-메주로 제조한 간장보다 우수하였다. MCM-메주로 제조된 간장이 성분과 기호도에 있어서도 CM-메주로 제조된 간장보다 우수한 결과를 보였다. 일본인의 우리나라 전통적인 김치에 대한 종합적인 기호도는 염농도 2.03%, 2.63%, 1.07%의 김치 순으로 아주 싱거운 김치는 선호하지 않음을 알 수 있었다.{\;}8%+{\;}CO_2{\;}15%$ 조건이 보다 적합하였다.신증후군 재발을 경험한 응답자가 9명, 백신접종에도 불구 해당 질병 발병을 경험한 접종자가 3명, 생백신 접종 후 백신 균주에 의한 발병을 경험한 접종자가 2명이었다. 결론 : 국내의 소아 신장학 전문가들은 일반 소아에서 권장되는 예방접종 지침과는 다른 수정된 방식에 따른 예방접종을 실시하고 있었으나 아직 질병 경과와 스테로이드 사용에 따른 접종 시기에 다양성을 보이고 있었고, 또한 예방접종 후의 부작용을 경험한 경우도 다수 있었다. 따라서 향후 다수의 소아를 대상으로 한 전향적인 연구를 통하여 소아 신질한 환아에서 추천되는 예방접종 지침을 확립할 필요가 있다고 사료된다. 생리활성효과에 손색없는 것으로 판단되고, 이러한 기능성에 기초하여 chocolate, 음료 등의 식품이나 의약품의 기능성 소재로서의 산업적 응용 가능성이 높은 것으로 사료된다.대장균군이 역시 난각에서 가장 높은 빈도로 분리되었고, 난황(Yolk)에서는 극히 낮은 수준의 세균오염도를 보였다. 다양한 동물종유래 S. aureus

  • PDF