• 제목/요약/키워드: Size Optimization

검색결과 1,533건 처리시간 0.046초

한국어 음소 단위 LSTM 언어모델을 이용한 문장 생성 (Korean Sentence Generation Using Phoneme-Level LSTM Language Model)

  • 안성만;정여진;이재준;양지헌
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.71-88
    • /
    • 2017
  • 언어모델은 순차적으로 입력된 자료를 바탕으로 다음에 나올 단어나 문자를 예측하는 모델로 언어처리나 음성인식 분야에 활용된다. 최근 딥러닝 알고리즘이 발전되면서 입력 개체 간의 의존성을 효과적으로 반영할 수 있는 순환신경망 모델과 이를 발전시킨 Long short-term memory(LSTM) 모델이 언어모델에 사용되고 있다. 이러한 모형에 자료를 입력하기 위해서는 문장을 단어 혹은 형태소로 분해하는 과정을 거친 후 단어 레벨 혹은 형태소 레벨의 모형을 사용하는 것이 일반적이다. 하지만 이러한 모형은 텍스트가 포함하는 단어나 형태소의 수가 일반적으로 매우 많기 때문에 사전 크기가 커지게 되고 이에 따라 모형의 복잡도가 증가하는 문제가 있고 사전에 포함된 어휘 외에는 생성이 불가능하다는 등의 단점이 있다. 특히 한국어와 같이 형태소 활용이 다양한 언어의 경우 형태소 분석기를 통한 분해과정에서 오류가 더해질 수 있다. 이를 보완하기 위해 본 논문에서는 문장을 자음과 모음으로 이루어진 음소 단위로 분해한 뒤 입력 데이터로 사용하는 음소 레벨의 LSTM 언어모델을 제안한다. 본 논문에서는 LSTM layer를 3개 또는 4개 포함하는 모형을 사용한다. 모형의 최적화를 위해 Stochastic Gradient 알고리즘과 이를 개선시킨 다양한 알고리즘을 사용하고 그 성능을 비교한다. 구약성경 텍스트를 사용하여 실험을 진행하였고 모든 실험은 Theano를 기반으로 하는 Keras 패키지를 사용하여 수행되었다. 모형의 정량적 비교를 위해 validation loss와 test set에 대한 perplexity를 계산하였다. 그 결과 Stochastic Gradient 알고리즘이 상대적으로 큰 validation loss와 perplexity를 나타냈고 나머지 최적화 알고리즘들은 유사한 값들을 보이며 비슷한 수준의 모형 복잡도를 나타냈다. Layer 4개인 모형이 3개인 모형에 비해 학습시간이 평균적으로 69% 정도 길게 소요되었으나 정량지표는 크게 개선되지 않거나 특정 조건에서는 오히려 악화되는 것으로 나타났다. 하지만 layer 4개를 사용한 모형이 3개를 사용한 모형에 비해 완성도가 높은 문장을 생성했다. 본 논문에서 고려한 어떤 시뮬레이션 조건에서도 한글에서 사용되지 않는 문자조합이 생성되지 않았고 명사와 조사의 조합이나 동사의 활용, 주어 동사의 결합 면에서 상당히 완성도 높은 문장이 발생되었다. 본 연구결과는 현재 대두되고 있는 인공지능 시스템의 기초가 되는 언어처리나 음성인식 분야에서 한국어 처리를 위해 다양하게 활용될 수 있을 것으로 기대된다.

XGBoost를 활용한 리스크패리티 자산배분 모형에 관한 연구 (A Study on Risk Parity Asset Allocation Model with XGBoos)

  • 김영훈;최흥식;김선웅
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.135-149
    • /
    • 2020
  • 인공지능을 기반으로 한 다양한 연구들이 현대사회에 많은 변화를 불러일으키고 있다. 금융시장 역시 예외는 아니다. 로보어드바이저 개발이 활발하게 진행되고 있으며 전통적 방식의 단점을 보완하고 사람이 분석하기 어려운 부분을 대체하고 있다. 로보어드바이저는 인공지능 알고리즘으로 자동화된 투자 결정을 내려 다양한 자산배분 모형과 함께 활용되고 있다. 자산배분 모형 중 리스크패리티는 대표적인 위험 기반 자산배분 모형의 하나로 큰 자산을 운용하는 데 있어 안정성을 나타내고 현업에서 역시 널리 쓰이고 있다. 그리고 XGBoost 모형은 병렬화된 트리 부스팅 기법으로 제한된 메모리 환경에서도 수십억 가지의 예제로 확장이 가능할 뿐만 아니라 기존의 부스팅에 비해 학습속도가 매우 빨라 많은 분야에서 널리 활용되고 있다. 이에 본 연구에서 리스크패리티와 XGBoost를 장점을 결합한 모형을 제안하고자 한다. 기존에 널리 사용되는 최적화 자산배분 모형은 과거 데이터를 기반으로 투자 비중을 추정하기 때문에 과거와 실투자 기간 사이의 추정 오차가 발생하게 된다. 최적화 자산배분 모형은 추정 오차로 인해 포트폴리오 성과에서 악영향을 받게 된다. 본 연구는 XGBoost를 통해 실투자 기간의 변동성을 예측하여 최적화 자산배분 모형의 추정 오차를 줄여 모형의 안정성과 포트폴리오 성과를 개선하고자 한다. 본 연구에서 제시한 모형의 실증 검증을 위해 한국 주식시장의 10개 업종 지수 데이터를 활용하여 2003년부터 2019년까지 총 17년간 주가 자료를 활용하였으며 in-sample 1,000개, out-of-sample 20개씩 Moving-window 방식으로 예측 결과값을 누적하여 총 154회의 리밸런싱이 이루어진 백테스팅 결과를 도출하였다. 본 연구에서 제안한 자산배분 모형은 기계학습을 사용하지 않은 기존의 리스크패리티와 비교하였을 때 누적수익률 및 추정 오차에서 모두 개선된 성과를 보여주었다. 총 누적수익률은 45.748%로 리스크패리티 대비 약 5% 높은 결과를 보였고 추정오차 역시 10개 업종 중 9개에서 감소한 결과를 보였다. 실험 결과를 통해 최적화 자산배분 모형의 추정 오차를 감소시킴으로써 포트폴리오 성과를 개선하였다. 포트폴리오의 추정 오차를 줄이기 위해 모수 추정 방법에 관한 다양한 연구 사례들이 존재한다. 본 연구는 추정 오차를 줄이기 위한 새로운 추정방법으로 기계학습을 제시하여 최근 빠른 속도로 발전하는 금융시장에 맞는 진보된 인공지능형 자산배분 모형을 제시한 점에서 의의가 있다.

유전자 알고리즘을 이용한 다분류 SVM의 최적화: 기업신용등급 예측에의 응용 (Optimization of Multiclass Support Vector Machine using Genetic Algorithm: Application to the Prediction of Corporate Credit Rating)

  • 안현철
    • 경영정보학연구
    • /
    • 제16권3호
    • /
    • pp.161-177
    • /
    • 2014
  • 기업신용등급은 금융시장의 신뢰를 구축하고 거래를 활성화하는데 있어 매우 중요한 요소로서, 오래 전부터 학계에서는 보다 정확한 기업신용등급 예측을 가능케 하는 다양한 모형들을 연구해 왔다. 구체적으로 다중판별분석(Multiple Discriminant Analysis, MDA)이나 다항 로지스틱 회귀분석(multinomial logistic regression analysis, MLOGIT)과 같은 통계기법을 비롯해, 인공신경망(Artificial Neural Networks, ANN), 사례기반추론(Case-based Reasoning, CBR), 그리고 다분류 문제해결을 위해 확장된 다분류 Support Vector Machines(Multiclass SVM)에 이르기까지 다양한 기법들이 학자들에 의해 적용되었는데, 최근의 연구결과들에 따르면 이 중에서도 다분류 SVM이 가장 우수한 예측성과를 보이고 있는 것으로 보고되고 있다. 본 연구에서는 이러한 다분류 SVM의 성능을 한 단계 더 개선하기 위한 대안으로 유전자 알고리즘(GA, Genetic Algorithm)을 활용한 최적화 모형을 제안한다. 구체적으로 본 연구의 제안모형은 유전자 알고리즘을 활용해 다분류 SVM에 적용되어야 할 최적의 커널 함수 파라미터값들과 최적의 입력변수 집합(feature subset)을 탐색하도록 설계되었다. 실제 데이터셋을 활용해 제안모형을 적용해 본 결과, MDA나 MLOGIT, CBR, ANN과 같은 기존 인공지능/데이터마이닝 기법들은 물론 지금까지 가장 우수한 예측성과를 보이는 것으로 알려져 있던 전통적인 다분류 SVM 보다도 제안모형이 더 우수한 예측성과를 보임을 확인할 수 있었다.

빅데이터 도입의도에 미치는 영향요인에 관한 연구: 전략적 가치인식과 TOE(Technology Organizational Environment) Framework을 중심으로 (An Empirical Study on the Influencing Factors for Big Data Intented Adoption: Focusing on the Strategic Value Recognition and TOE Framework)

  • 가회광;김진수
    • Asia pacific journal of information systems
    • /
    • 제24권4호
    • /
    • pp.443-472
    • /
    • 2014
  • To survive in the global competitive environment, enterprise should be able to solve various problems and find the optimal solution effectively. The big-data is being perceived as a tool for solving enterprise problems effectively and improve competitiveness with its' various problem solving and advanced predictive capabilities. Due to its remarkable performance, the implementation of big data systems has been increased through many enterprises around the world. Currently the big-data is called the 'crude oil' of the 21st century and is expected to provide competitive superiority. The reason why the big data is in the limelight is because while the conventional IT technology has been falling behind much in its possibility level, the big data has gone beyond the technological possibility and has the advantage of being utilized to create new values such as business optimization and new business creation through analysis of big data. Since the big data has been introduced too hastily without considering the strategic value deduction and achievement obtained through the big data, however, there are difficulties in the strategic value deduction and data utilization that can be gained through big data. According to the survey result of 1,800 IT professionals from 18 countries world wide, the percentage of the corporation where the big data is being utilized well was only 28%, and many of them responded that they are having difficulties in strategic value deduction and operation through big data. The strategic value should be deducted and environment phases like corporate internal and external related regulations and systems should be considered in order to introduce big data, but these factors were not well being reflected. The cause of the failure turned out to be that the big data was introduced by way of the IT trend and surrounding environment, but it was introduced hastily in the situation where the introduction condition was not well arranged. The strategic value which can be obtained through big data should be clearly comprehended and systematic environment analysis is very important about applicability in order to introduce successful big data, but since the corporations are considering only partial achievements and technological phases that can be obtained through big data, the successful introduction is not being made. Previous study shows that most of big data researches are focused on big data concept, cases, and practical suggestions without empirical study. The purpose of this study is provide the theoretically and practically useful implementation framework and strategies of big data systems with conducting comprehensive literature review, finding influencing factors for successful big data systems implementation, and analysing empirical models. To do this, the elements which can affect the introduction intention of big data were deducted by reviewing the information system's successful factors, strategic value perception factors, considering factors for the information system introduction environment and big data related literature in order to comprehend the effect factors when the corporations introduce big data and structured questionnaire was developed. After that, the questionnaire and the statistical analysis were performed with the people in charge of the big data inside the corporations as objects. According to the statistical analysis, it was shown that the strategic value perception factor and the inside-industry environmental factors affected positively the introduction intention of big data. The theoretical, practical and political implications deducted from the study result is as follows. The frist theoretical implication is that this study has proposed theoretically effect factors which affect the introduction intention of big data by reviewing the strategic value perception and environmental factors and big data related precedent studies and proposed the variables and measurement items which were analyzed empirically and verified. This study has meaning in that it has measured the influence of each variable on the introduction intention by verifying the relationship between the independent variables and the dependent variables through structural equation model. Second, this study has defined the independent variable(strategic value perception, environment), dependent variable(introduction intention) and regulatory variable(type of business and corporate size) about big data introduction intention and has arranged theoretical base in studying big data related field empirically afterwards by developing measurement items which has obtained credibility and validity. Third, by verifying the strategic value perception factors and the significance about environmental factors proposed in the conventional precedent studies, this study will be able to give aid to the afterwards empirical study about effect factors on big data introduction. The operational implications are as follows. First, this study has arranged the empirical study base about big data field by investigating the cause and effect relationship about the influence of the strategic value perception factor and environmental factor on the introduction intention and proposing the measurement items which has obtained the justice, credibility and validity etc. Second, this study has proposed the study result that the strategic value perception factor affects positively the big data introduction intention and it has meaning in that the importance of the strategic value perception has been presented. Third, the study has proposed that the corporation which introduces big data should consider the big data introduction through precise analysis about industry's internal environment. Fourth, this study has proposed the point that the size and type of business of the corresponding corporation should be considered in introducing the big data by presenting the difference of the effect factors of big data introduction depending on the size and type of business of the corporation. The political implications are as follows. First, variety of utilization of big data is needed. The strategic value that big data has can be accessed in various ways in the product, service field, productivity field, decision making field etc and can be utilized in all the business fields based on that, but the parts that main domestic corporations are considering are limited to some parts of the products and service fields. Accordingly, in introducing big data, reviewing the phase about utilization in detail and design the big data system in a form which can maximize the utilization rate will be necessary. Second, the study is proposing the burden of the cost of the system introduction, difficulty in utilization in the system and lack of credibility in the supply corporations etc in the big data introduction phase by corporations. Since the world IT corporations are predominating the big data market, the big data introduction of domestic corporations can not but to be dependent on the foreign corporations. When considering that fact, that our country does not have global IT corporations even though it is world powerful IT country, the big data can be thought to be the chance to rear world level corporations. Accordingly, the government shall need to rear star corporations through active political support. Third, the corporations' internal and external professional manpower for the big data introduction and operation lacks. Big data is a system where how valuable data can be deducted utilizing data is more important than the system construction itself. For this, talent who are equipped with academic knowledge and experience in various fields like IT, statistics, strategy and management etc and manpower training should be implemented through systematic education for these talents. This study has arranged theoretical base for empirical studies about big data related fields by comprehending the main variables which affect the big data introduction intention and verifying them and is expected to be able to propose useful guidelines for the corporations and policy developers who are considering big data implementationby analyzing empirically that theoretical base.

디지털 엑스선 장비의 사지 검사 시 환자 체형에 따른 관전압 최적화 (Optimization of Tube Voltage according to Patient's Body Type during Limb examination in Digital X-ray Equipment)

  • 김상현
    • 한국방사선학회논문지
    • /
    • 제11권5호
    • /
    • pp.379-385
    • /
    • 2017
  • 본 논문은 디지털 엑스선 장비(DR)에서 사지 검사 시 환자 체형 변화에 따른 최적의 관전압을 알아보고자 하였다. 상지검사는 면적선량(DAP) $5.06dGy{\ast} cm^2$, 하지검사는 DAP $5.04dGy{\ast} cm^2$ 고정한 상태에서 관전압을 4단계 변화시키며 각 단계마다 3회씩 반복 촬영하였다. 환자의 체형의 변화를 주기 위해 10 mm 씩 총 30 mm까지 두께를 증가하였다. 정량적 평가를 위해 Image J를 이용하여 관전압에 따른 네 그룹간의 대조도 및 신호 대 잡음비 값을 산출하였고 통계학적 검정은 95% 신뢰수준에서 Kruskal-Wallis test로 유의한 차이를 분석하였다. 영상의 정성적 분석을 위하여 정해진 항목에 관해 5점 리커트 척도로 평가 하였다. 상지와 하지 실험 모두에서 관전압이 증가할수록 영상의 대조도대잡음비(CNR)과 신호대잡음비(SNR)이 감소하였으며, 환자의 체형에 따른 차이를 보기 위한 실험에서는 두께가 두꺼워 질수록 CNR과 SNR이 감소하였다. 정성적 평과는 상지는 관전압이 증가할수록 점수가 증가하여 최고 55 kV 에서 4.6, 40 kV 에서 3.6이였으며, 하지는 관전압의 상관없이 평균 4.4의 고른 점수가 나왔다. 상, 하지 모두 두께가 두꺼워지면서 점수는 전반적으로 낮아졌으나 상지는 40 kV에서는 점수가 급격히 낮아졌고, 하지에서는 50 kV에서는 점수가 급격히 낮아졌다. 표준 두께를 가지고 있는 환자의 경우 상지에서는 45 kV, 하지에서는 50 kV로 촬영하는 것이 최적화 된 영상을 구현할 수 있으며, 환자의 체형 두께가 증가하는 경우 상지는 50 kV, 하지는 55 kV로 관전압을 설정 하는 것이 효과적이다.

자궁경부암용 팬톰을 이용한 HDR (High dose rate) 근접치료의 선량 평가 (Dose Verification Using Pelvic Phantom in High Dose Rate (HDR) Brachytherapy)

  • 장지나;허순녕;김회남;윤세철;최보영;이형구;서태석
    • 한국의학물리학회지:의학물리
    • /
    • 제14권1호
    • /
    • pp.15-19
    • /
    • 2003
  • HDR (High dose rate) 근접 치료는 기존의 LDR (Low dose rate) 근접 치료에서 야기되었던 치료 시간이나 선량 최적화 등의 문제점을 해결하였기 때문에 자궁경부암 치료에 많이 사용되고 있다. 그러나, 단시간에 고선량이 조사되는 HDR 근접치료에서 치료 효과를 극대화시키기 위해서는 선량 계산 알고리즘, 위치 계산 알고리즘, 최적화 알고리즘이 정확하게 검증되어야 한다. 이를 위해서는 인체 등가 팬톰과 치료 계획 컴퓨터의 선량 분포 곡선을 비교함으로써 검증할 수 있다. 본 연구에서는 이러한 검증이 가능하도록 자궁경부암용 팬톰을 설계, 제작하여 HDR 치료 계획 컴퓨터와 팬톰과의 선량을 비교, 평가하는 것이다 이 자궁경부암용 팬톰은 높은 해상도를 가진 선량 측정기를 사용하여 정량적인 평가가 가능하도록 제작되었고, 인체 등가물질인 물과 아크릴을 사용하여 제작하였다 또한, 팬톰 내의 방사선량 측정을 위해서 $\frac{1}{8}$ 인치 TLD (Thermoluminescent dosimeters) 칩과 공간 해상도가 1 mm 이내인 필름을 사용하였다. 이 자궁경부암용 팬톰는 HDR applicator의 고정을 위해 applicator 홀더의 홈 안에 HDR applicator가 삽입되게 제작하였고 세 개의 TLD 홀더에는 TLD 칩(TLD 간의 거리는 5 mm)이 정렬되게 제작하여 A점이나 B점 같은 특정 점의 절대 선량을 측정할 수 있게 제작하였다 필름은 3개의 직교(orthogonal) 평면에 삽입되도록 제작하여 상대 선량 측정이 가능하게 하였다. 사용된 치료 계획 시스템은 Nucletron Plato system이고, Microselectron Ir-192 소스를 사용하였다. 선량 평가 결과, TLD 선량의 경우 A, B point를 포함하여 직장과 방광 선량이 $\pm$4% 이내로 치료계획 컴퓨터(Plato, Nucletron)와 일치하였고, 필름의 경우 선량 분포 곡선이 치료계획 컴퓨터의 선량 분포 곡선 패턴과 거의 일치하는 우수한 결과를 보였다. 제작된 자궁경부암용 팬톰은 HDR 치료 계획 컴퓨터의 선량 계산 알고리즘의 평가 및 검증에 유용하게 사용될 것이고, 이 팬톰은 강남성모병원 치료방사선과 HDR 근접치료 기기의 선량과 위치확인의 QA(quality assurance) 도구로써 사용하려고 추진 중에 있다.

  • PDF

기업의 SNS 노출과 주식 수익률간의 관계 분석 (The Analysis on the Relationship between Firms' Exposures to SNS and Stock Prices in Korea)

  • 김태환;정우진;이상용
    • Asia pacific journal of information systems
    • /
    • 제24권2호
    • /
    • pp.233-253
    • /
    • 2014
  • Can the stock market really be predicted? Stock market prediction has attracted much attention from many fields including business, economics, statistics, and mathematics. Early research on stock market prediction was based on random walk theory (RWT) and the efficient market hypothesis (EMH). According to the EMH, stock market are largely driven by new information rather than present and past prices. Since it is unpredictable, stock market will follow a random walk. Even though these theories, Schumaker [2010] asserted that people keep trying to predict the stock market by using artificial intelligence, statistical estimates, and mathematical models. Mathematical approaches include Percolation Methods, Log-Periodic Oscillations and Wavelet Transforms to model future prices. Examples of artificial intelligence approaches that deals with optimization and machine learning are Genetic Algorithms, Support Vector Machines (SVM) and Neural Networks. Statistical approaches typically predicts the future by using past stock market data. Recently, financial engineers have started to predict the stock prices movement pattern by using the SNS data. SNS is the place where peoples opinions and ideas are freely flow and affect others' beliefs on certain things. Through word-of-mouth in SNS, people share product usage experiences, subjective feelings, and commonly accompanying sentiment or mood with others. An increasing number of empirical analyses of sentiment and mood are based on textual collections of public user generated data on the web. The Opinion mining is one domain of the data mining fields extracting public opinions exposed in SNS by utilizing data mining. There have been many studies on the issues of opinion mining from Web sources such as product reviews, forum posts and blogs. In relation to this literatures, we are trying to understand the effects of SNS exposures of firms on stock prices in Korea. Similarly to Bollen et al. [2011], we empirically analyze the impact of SNS exposures on stock return rates. We use Social Metrics by Daum Soft, an SNS big data analysis company in Korea. Social Metrics provides trends and public opinions in Twitter and blogs by using natural language process and analysis tools. It collects the sentences circulated in the Twitter in real time, and breaks down these sentences into the word units and then extracts keywords. In this study, we classify firms' exposures in SNS into two groups: positive and negative. To test the correlation and causation relationship between SNS exposures and stock price returns, we first collect 252 firms' stock prices and KRX100 index in the Korea Stock Exchange (KRX) from May 25, 2012 to September 1, 2012. We also gather the public attitudes (positive, negative) about these firms from Social Metrics over the same period of time. We conduct regression analysis between stock prices and the number of SNS exposures. Having checked the correlation between the two variables, we perform Granger causality test to see the causation direction between the two variables. The research result is that the number of total SNS exposures is positively related with stock market returns. The number of positive mentions of has also positive relationship with stock market returns. Contrarily, the number of negative mentions has negative relationship with stock market returns, but this relationship is statistically not significant. This means that the impact of positive mentions is statistically bigger than the impact of negative mentions. We also investigate whether the impacts are moderated by industry type and firm's size. We find that the SNS exposures impacts are bigger for IT firms than for non-IT firms, and bigger for small sized firms than for large sized firms. The results of Granger causality test shows change of stock price return is caused by SNS exposures, while the causation of the other way round is not significant. Therefore the correlation relationship between SNS exposures and stock prices has uni-direction causality. The more a firm is exposed in SNS, the more is the stock price likely to increase, while stock price changes may not cause more SNS mentions.

개선된 배깅 앙상블을 활용한 기업부도예측 (Bankruptcy prediction using an improved bagging ensemble)

  • 민성환
    • 지능정보연구
    • /
    • 제20권4호
    • /
    • pp.121-139
    • /
    • 2014
  • 기업의 부도 예측은 재무 및 회계 분야에서 매우 중요한 연구 주제이다. 기업의 부도로 인해 발생하는 비용이 매우 크기 때문에 부도 예측의 정확성은 금융기관으로서는 매우 중요한 일이다. 최근에는 여러 개의 모형을 결합하는 앙상블 모형을 부도 예측에 적용해 보려는 연구가 큰 관심을 끌고 있다. 앙상블 모형은 개별 모형보다 더 좋은 성과를 내기 위해 여러 개의 분류기를 결합하는 것이다. 이와 같은 앙상블 분류기는 분류기의 일반화 성능을 개선하는 데 매우 유용한 것으로 알려져 있다. 본 논문은 부도 예측 모형의 성과 개선에 관한 연구이다. 이를 위해 사례 선택(Instance Selection)을 활용한 배깅(Bagging) 모형을 제안하였다. 사례 선택은 원 데이터에서 가장 대표성 있고 관련성 높은 데이터를 선택하고 예측 모형에 악영향을 줄 수 있는 불필요한 데이터를 제거하는 것으로 이를 통해 예측 성과 개선도 기대할 수 있다. 배깅은 학습데이터에 변화를 줌으로써 기저 분류기들을 다양화시키는 앙상블 기법으로 단순하면서도 성과가 매우 좋은 것으로 알려져 있다. 사례 선택과 배깅은 각각 모형의 성과를 개선시킬 수 있는 잠재력이 있지만 이들 두 기법의 결합에 관한 연구는 아직까지 없는 것이 현실이다. 본 연구에서는 부도 예측 모형의 성과를 개선하기 위해 사례 선택과 배깅을 연결하는 새로운 모형을 제안하였다. 최적의 사례 선택을 위해 유전자 알고리즘이 사용되었으며, 이를 통해 최적의 사례 선택 조합을 찾고 이 결과를 배깅 앙상블 모형에 전달하여 새로운 형태의 배깅 앙상블 모형을 구성하게 된다. 본 연구에서 제안한 새로운 앙상블 모형의 성과를 검증하기 위해 ROC 커브, AUC, 예측정확도 등과 같은 성과지표를 사용해 다양한 모형과 비교 분석해 보았다. 실제 기업데이터를 사용해 실험한 결과 본 논문에서 제안한 새로운 형태의 모형이 가장 좋은 성과를 보임을 알 수 있었다.

GABA를 담지한 자성 키토산 나노입자 제조와 약물의흡수 및 방출 연구 (The Preparation of Magnetic Chitosan Nanoparticles with GABA and Drug Adsorption-Release)

  • 윤희수;강익중
    • Korean Chemical Engineering Research
    • /
    • 제58권4호
    • /
    • pp.541-549
    • /
    • 2020
  • 약물 전달 시스템(Drug Delivery System, DDS)은 인체에 발생한 질환을 치료를 할 때 약물을 효과적으로 투약하므로써 약물성분에 의한 부작용을 최소화하고, 약물의 효능을 최대한으로 크게하기 위해 기존의 알려진 성분의 약물이나 새로운 성분의 제형을 설계하여 환자의 약물치료 과정을 최적화하는 목적을 지향하는 기술로 정의된다. 본 연구에서는 Tripolyphosphate (TPP)의 농도가 키토산과의 가교결합을 통하여 제조되는 Chitosan nanoparticles (CNPs)의 크기에 미치는 영향을 측정하여 TPP의 농도가 낮을수록 작은 크기의 입자가 형성되는 것을 확인하였다. 그리고 산화철(Fe3O4)의 양에 따른 CNPs-Fe3O4의 특성을 측정하여 Fe3O4의 양이 많을수록 자성 약물 전달체로써의 특성이 잘 나타남을 확인하였다. 닌히드린 반응(Ninhydrin test)를 통하여 저농도 구간(0.004~0.02 wt%)에서는 Y = 0.00373 exp(179.729X) - 0.0114 (R2 = 0.989), 고농도구간(0.02~0.1wt%)에서는 Y = 21.680X - 0.290 (R2 = 0.999)의 γ-aminobutyric acid (GABA)의 농도에 따른 검량선을 얻었다. 이 검량선을 사용하여 흡수를 위하여 넣어주는 GABA의 양에 따른 최대 흡수율의 관계식 Y = -136.527 exp [(-90.0862)X] + 64.724 (R2 = 0.997) 을 얻었으며, 초기에 넣어주는 GABA의 양이 약 0.04 g인 지점부터는 약 62.5%로 흡수율이 일정해 지고, 시간에 따른 GABA-Fe3O4-CNPs로부터 방출되는 GABA의 양을 측정하여 약 24 hr 이후부터 약물 방출이 종료되는 것을 확인하였다. 또한 최적의 조건에서 만들어진 GABA-Fe3O4-CNPs는 약 150 nm의 구형 입자이며, 그에 따른 입자의 특성이 잘 나타나는 것을 확인하여 약물 전달체로써 적합함을 알 수 있었다.

Lovastatin 고생산성 변이주의 신속 선별을 위해 통계적 방법을 적용한 Sporulation 배지 개발 및 Miniature 배양 방법 개발 (Mass Screening of Lovastatin High-yielding Mutants through Statistical Optimization of Sporulation Medium and Application of Miniaturized Fungal Cell Cultures)

  • 안현정;정용섭;김평현;전계택
    • KSBB Journal
    • /
    • 제22권5호
    • /
    • pp.297-304
    • /
    • 2007
  • Lovastatin은 근사형성 균류인 Aspergillus terreus가 생합성하는 이차대사산물로 강력한 고지혈증 치료제로 널리 이용되는 물질이다. 본 연구에서는 lovastatin 고생산변이주를 이용하여 포자배지 최적화를 통한 miniature 배양 방법을 확립하고자 하였다. 우선 miniature 배양에 필수적인 효과적인 포자 형성 방법을 개발하고자 포자 형성 배지의 통계학적 배지 최적화를 수행하였다. Miniature 배양의 inoculum으로 이용되는 대량의 포자를 획득하기 위해 Plackett-Burman 실험법을 이용하여 포자 형성을 향상시키는 성분을 조사한 결과, glucose, sucrose, yeast extract 그리고 $KH_2PO_4$가 주목할 만한 효과를 보였다. 상기 성분의 최적 농도를 확인하기 위해 반응표면분석법 (RSM)을 이용한 결과, PDA 포자 형성 배지와 비교하여 볼 때, 최적 성분 농도에서 포자 형성이 약 190배 증가하였다. 최적화된 포자형성 배지를 이용하여 lovastatin 고생산성 변이주의 대량 선별을 위한 miniature 배양 방법을 확립하기 위해 기존의 실험 과정에 'PaB (adaptation)'라는 한 번의 계대배양을 더 추가한 결과 생산균주의 안정성과 재현성이 큰 폭으로 증가하는 주목할 만한 결과를 얻을 수 있었다. 단기간에 가능한 한 다량의 균주를 스크리닝하기 위해 성장배양과 생산배양 모두 조업부피가 7 ml인 tube를 이용해 miniature 배양을 반복 수행하여, lovastatin 생산성과 배양형태가 훌륭한 변이주를 선별할 수 있었는데, 이 균주는 7 ml tube배양과 250 ml flask배양 (조업부피 50 ml) 모두에서 생산성이 높은 것으로 보아 산소 의존도가 비교적 낮고 생산 안정성이 높은 균주인 것으로 판단되었다. 한편 miniature 배양을 이용해서 lovastatin 고생산성을 보이는 균주를 신속 선별하기 위해서는 균주의 적절한 배양형태 유도가 매우 중요한 것으로 관찰되었다. 즉 생산배양으로의 고활성 균주의 접종을 위해서, 또한 생산배양에서 pellet의 배양형태 유도를 위해서 성장배양 시에는 반드시 고농도의 균사모양을, 생산배양 시에는 직경 1 mm 이하의 pellet모양의 배양 형태를 유지해야만, 생산균주가 lovastatin을 안정적으로 고생산할 수 있는 것으로 관찰되었다. 초기에 선별된 균주를 이용하여 miniature 배양에 의해 고속 균주선별 실험을 반복함으로써 고생산성 균주들을 다량 선별할 수 있었는데, 이들의 lovastatin 생산성을 조사한 결과, 기존의 flask 배양대비 오차범위가 $\pm$20% 이내의 생산성을 보이는 균주가 초기 선별시의 32%에 비해 81%로 크게 증가함을 확인할 수 있었다. 이와 같은 결과는 lovastatin 고생산성, 고안정성 균주의 고속 스크리닝을 위해서 본 연구에서 개발한 tube를 이용한 miniature 배양이 기존의 flask 배양을 대체할 수 있는 훌륭한 배양방법임을 제시해 준다.