• 제목/요약/키워드: and size optimization

검색결과 1,514건 처리시간 0.029초

반응표면분석을 이용한 패류의 부영양수 유기물 제어능 연구 (Response Surface Methodology for Optimization of the Removal of Organic Matters in Eutrophic Waters by Korean Freshwater Bivalves)

  • 최환석;남귀숙;김민섭;신현재;박명환;황순진;김백호
    • 생태와환경
    • /
    • 제47권4호
    • /
    • pp.312-318
    • /
    • 2014
  • 부영양화 호소수에 대한 국내 서식 펄조개(A. woodiana)의 유기물 제어 실험 결과, 펄조개 30개체를 대상으로 패각 크기 4.3~15.5 cm (평균 9.54 cm)에 따른 유기물 여과율은 $0.08{\sim}0.86L\;g^{-1}\;h^{-1}$, 단위 건중량당 펄조개의 여과율은 $0.09L\;g^{-1}\;h^{-1}$를 나타내었다. 펄조개의 배설물 생산량 (PF)은 $0.00{\sim}11.10mg\;g^{-1}\;h^{-1}$, 단위 건 중량당 배설물 생산량은 $0.37mg\;g^{-1}\;h^{-1}$를 나타내었다. 또한, 클로로필-a와 부유물질 제거율(RA, %)은 느린 유속에서 82.1%, 71.0% 빠른 유속에서는 65.4%, 57.5%의 제거율을 나타냈고, 반응표면분석 결과, 패각 크기는 14.3~15.6 cm, 유속은 $22{\sim}30Lh^{-1}$ 구간에서 여과율 $6.21L\;mussel^{-1}\;d^{-1}$의 최적값을 나타내었다. 또한, 배설물 생산능은 패각 크기는 14.3~16.3 cm, 유속은 $36{\sim}44Lh^{-1}$ 구간에서 배설물 생산이 $4.2mg\;g^{-1}\;d^{-1}$의 최적값을 나타내었다.

유전자 알고리즘을 이용한 다분류 SVM의 최적화: 기업신용등급 예측에의 응용 (Optimization of Multiclass Support Vector Machine using Genetic Algorithm: Application to the Prediction of Corporate Credit Rating)

  • 안현철
    • 경영정보학연구
    • /
    • 제16권3호
    • /
    • pp.161-177
    • /
    • 2014
  • 기업신용등급은 금융시장의 신뢰를 구축하고 거래를 활성화하는데 있어 매우 중요한 요소로서, 오래 전부터 학계에서는 보다 정확한 기업신용등급 예측을 가능케 하는 다양한 모형들을 연구해 왔다. 구체적으로 다중판별분석(Multiple Discriminant Analysis, MDA)이나 다항 로지스틱 회귀분석(multinomial logistic regression analysis, MLOGIT)과 같은 통계기법을 비롯해, 인공신경망(Artificial Neural Networks, ANN), 사례기반추론(Case-based Reasoning, CBR), 그리고 다분류 문제해결을 위해 확장된 다분류 Support Vector Machines(Multiclass SVM)에 이르기까지 다양한 기법들이 학자들에 의해 적용되었는데, 최근의 연구결과들에 따르면 이 중에서도 다분류 SVM이 가장 우수한 예측성과를 보이고 있는 것으로 보고되고 있다. 본 연구에서는 이러한 다분류 SVM의 성능을 한 단계 더 개선하기 위한 대안으로 유전자 알고리즘(GA, Genetic Algorithm)을 활용한 최적화 모형을 제안한다. 구체적으로 본 연구의 제안모형은 유전자 알고리즘을 활용해 다분류 SVM에 적용되어야 할 최적의 커널 함수 파라미터값들과 최적의 입력변수 집합(feature subset)을 탐색하도록 설계되었다. 실제 데이터셋을 활용해 제안모형을 적용해 본 결과, MDA나 MLOGIT, CBR, ANN과 같은 기존 인공지능/데이터마이닝 기법들은 물론 지금까지 가장 우수한 예측성과를 보이는 것으로 알려져 있던 전통적인 다분류 SVM 보다도 제안모형이 더 우수한 예측성과를 보임을 확인할 수 있었다.

XGBoost를 활용한 리스크패리티 자산배분 모형에 관한 연구 (A Study on Risk Parity Asset Allocation Model with XGBoos)

  • 김영훈;최흥식;김선웅
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.135-149
    • /
    • 2020
  • 인공지능을 기반으로 한 다양한 연구들이 현대사회에 많은 변화를 불러일으키고 있다. 금융시장 역시 예외는 아니다. 로보어드바이저 개발이 활발하게 진행되고 있으며 전통적 방식의 단점을 보완하고 사람이 분석하기 어려운 부분을 대체하고 있다. 로보어드바이저는 인공지능 알고리즘으로 자동화된 투자 결정을 내려 다양한 자산배분 모형과 함께 활용되고 있다. 자산배분 모형 중 리스크패리티는 대표적인 위험 기반 자산배분 모형의 하나로 큰 자산을 운용하는 데 있어 안정성을 나타내고 현업에서 역시 널리 쓰이고 있다. 그리고 XGBoost 모형은 병렬화된 트리 부스팅 기법으로 제한된 메모리 환경에서도 수십억 가지의 예제로 확장이 가능할 뿐만 아니라 기존의 부스팅에 비해 학습속도가 매우 빨라 많은 분야에서 널리 활용되고 있다. 이에 본 연구에서 리스크패리티와 XGBoost를 장점을 결합한 모형을 제안하고자 한다. 기존에 널리 사용되는 최적화 자산배분 모형은 과거 데이터를 기반으로 투자 비중을 추정하기 때문에 과거와 실투자 기간 사이의 추정 오차가 발생하게 된다. 최적화 자산배분 모형은 추정 오차로 인해 포트폴리오 성과에서 악영향을 받게 된다. 본 연구는 XGBoost를 통해 실투자 기간의 변동성을 예측하여 최적화 자산배분 모형의 추정 오차를 줄여 모형의 안정성과 포트폴리오 성과를 개선하고자 한다. 본 연구에서 제시한 모형의 실증 검증을 위해 한국 주식시장의 10개 업종 지수 데이터를 활용하여 2003년부터 2019년까지 총 17년간 주가 자료를 활용하였으며 in-sample 1,000개, out-of-sample 20개씩 Moving-window 방식으로 예측 결과값을 누적하여 총 154회의 리밸런싱이 이루어진 백테스팅 결과를 도출하였다. 본 연구에서 제안한 자산배분 모형은 기계학습을 사용하지 않은 기존의 리스크패리티와 비교하였을 때 누적수익률 및 추정 오차에서 모두 개선된 성과를 보여주었다. 총 누적수익률은 45.748%로 리스크패리티 대비 약 5% 높은 결과를 보였고 추정오차 역시 10개 업종 중 9개에서 감소한 결과를 보였다. 실험 결과를 통해 최적화 자산배분 모형의 추정 오차를 감소시킴으로써 포트폴리오 성과를 개선하였다. 포트폴리오의 추정 오차를 줄이기 위해 모수 추정 방법에 관한 다양한 연구 사례들이 존재한다. 본 연구는 추정 오차를 줄이기 위한 새로운 추정방법으로 기계학습을 제시하여 최근 빠른 속도로 발전하는 금융시장에 맞는 진보된 인공지능형 자산배분 모형을 제시한 점에서 의의가 있다.

한국어 음소 단위 LSTM 언어모델을 이용한 문장 생성 (Korean Sentence Generation Using Phoneme-Level LSTM Language Model)

  • 안성만;정여진;이재준;양지헌
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.71-88
    • /
    • 2017
  • 언어모델은 순차적으로 입력된 자료를 바탕으로 다음에 나올 단어나 문자를 예측하는 모델로 언어처리나 음성인식 분야에 활용된다. 최근 딥러닝 알고리즘이 발전되면서 입력 개체 간의 의존성을 효과적으로 반영할 수 있는 순환신경망 모델과 이를 발전시킨 Long short-term memory(LSTM) 모델이 언어모델에 사용되고 있다. 이러한 모형에 자료를 입력하기 위해서는 문장을 단어 혹은 형태소로 분해하는 과정을 거친 후 단어 레벨 혹은 형태소 레벨의 모형을 사용하는 것이 일반적이다. 하지만 이러한 모형은 텍스트가 포함하는 단어나 형태소의 수가 일반적으로 매우 많기 때문에 사전 크기가 커지게 되고 이에 따라 모형의 복잡도가 증가하는 문제가 있고 사전에 포함된 어휘 외에는 생성이 불가능하다는 등의 단점이 있다. 특히 한국어와 같이 형태소 활용이 다양한 언어의 경우 형태소 분석기를 통한 분해과정에서 오류가 더해질 수 있다. 이를 보완하기 위해 본 논문에서는 문장을 자음과 모음으로 이루어진 음소 단위로 분해한 뒤 입력 데이터로 사용하는 음소 레벨의 LSTM 언어모델을 제안한다. 본 논문에서는 LSTM layer를 3개 또는 4개 포함하는 모형을 사용한다. 모형의 최적화를 위해 Stochastic Gradient 알고리즘과 이를 개선시킨 다양한 알고리즘을 사용하고 그 성능을 비교한다. 구약성경 텍스트를 사용하여 실험을 진행하였고 모든 실험은 Theano를 기반으로 하는 Keras 패키지를 사용하여 수행되었다. 모형의 정량적 비교를 위해 validation loss와 test set에 대한 perplexity를 계산하였다. 그 결과 Stochastic Gradient 알고리즘이 상대적으로 큰 validation loss와 perplexity를 나타냈고 나머지 최적화 알고리즘들은 유사한 값들을 보이며 비슷한 수준의 모형 복잡도를 나타냈다. Layer 4개인 모형이 3개인 모형에 비해 학습시간이 평균적으로 69% 정도 길게 소요되었으나 정량지표는 크게 개선되지 않거나 특정 조건에서는 오히려 악화되는 것으로 나타났다. 하지만 layer 4개를 사용한 모형이 3개를 사용한 모형에 비해 완성도가 높은 문장을 생성했다. 본 논문에서 고려한 어떤 시뮬레이션 조건에서도 한글에서 사용되지 않는 문자조합이 생성되지 않았고 명사와 조사의 조합이나 동사의 활용, 주어 동사의 결합 면에서 상당히 완성도 높은 문장이 발생되었다. 본 연구결과는 현재 대두되고 있는 인공지능 시스템의 기초가 되는 언어처리나 음성인식 분야에서 한국어 처리를 위해 다양하게 활용될 수 있을 것으로 기대된다.

빅데이터 도입의도에 미치는 영향요인에 관한 연구: 전략적 가치인식과 TOE(Technology Organizational Environment) Framework을 중심으로 (An Empirical Study on the Influencing Factors for Big Data Intented Adoption: Focusing on the Strategic Value Recognition and TOE Framework)

  • 가회광;김진수
    • Asia pacific journal of information systems
    • /
    • 제24권4호
    • /
    • pp.443-472
    • /
    • 2014
  • To survive in the global competitive environment, enterprise should be able to solve various problems and find the optimal solution effectively. The big-data is being perceived as a tool for solving enterprise problems effectively and improve competitiveness with its' various problem solving and advanced predictive capabilities. Due to its remarkable performance, the implementation of big data systems has been increased through many enterprises around the world. Currently the big-data is called the 'crude oil' of the 21st century and is expected to provide competitive superiority. The reason why the big data is in the limelight is because while the conventional IT technology has been falling behind much in its possibility level, the big data has gone beyond the technological possibility and has the advantage of being utilized to create new values such as business optimization and new business creation through analysis of big data. Since the big data has been introduced too hastily without considering the strategic value deduction and achievement obtained through the big data, however, there are difficulties in the strategic value deduction and data utilization that can be gained through big data. According to the survey result of 1,800 IT professionals from 18 countries world wide, the percentage of the corporation where the big data is being utilized well was only 28%, and many of them responded that they are having difficulties in strategic value deduction and operation through big data. The strategic value should be deducted and environment phases like corporate internal and external related regulations and systems should be considered in order to introduce big data, but these factors were not well being reflected. The cause of the failure turned out to be that the big data was introduced by way of the IT trend and surrounding environment, but it was introduced hastily in the situation where the introduction condition was not well arranged. The strategic value which can be obtained through big data should be clearly comprehended and systematic environment analysis is very important about applicability in order to introduce successful big data, but since the corporations are considering only partial achievements and technological phases that can be obtained through big data, the successful introduction is not being made. Previous study shows that most of big data researches are focused on big data concept, cases, and practical suggestions without empirical study. The purpose of this study is provide the theoretically and practically useful implementation framework and strategies of big data systems with conducting comprehensive literature review, finding influencing factors for successful big data systems implementation, and analysing empirical models. To do this, the elements which can affect the introduction intention of big data were deducted by reviewing the information system's successful factors, strategic value perception factors, considering factors for the information system introduction environment and big data related literature in order to comprehend the effect factors when the corporations introduce big data and structured questionnaire was developed. After that, the questionnaire and the statistical analysis were performed with the people in charge of the big data inside the corporations as objects. According to the statistical analysis, it was shown that the strategic value perception factor and the inside-industry environmental factors affected positively the introduction intention of big data. The theoretical, practical and political implications deducted from the study result is as follows. The frist theoretical implication is that this study has proposed theoretically effect factors which affect the introduction intention of big data by reviewing the strategic value perception and environmental factors and big data related precedent studies and proposed the variables and measurement items which were analyzed empirically and verified. This study has meaning in that it has measured the influence of each variable on the introduction intention by verifying the relationship between the independent variables and the dependent variables through structural equation model. Second, this study has defined the independent variable(strategic value perception, environment), dependent variable(introduction intention) and regulatory variable(type of business and corporate size) about big data introduction intention and has arranged theoretical base in studying big data related field empirically afterwards by developing measurement items which has obtained credibility and validity. Third, by verifying the strategic value perception factors and the significance about environmental factors proposed in the conventional precedent studies, this study will be able to give aid to the afterwards empirical study about effect factors on big data introduction. The operational implications are as follows. First, this study has arranged the empirical study base about big data field by investigating the cause and effect relationship about the influence of the strategic value perception factor and environmental factor on the introduction intention and proposing the measurement items which has obtained the justice, credibility and validity etc. Second, this study has proposed the study result that the strategic value perception factor affects positively the big data introduction intention and it has meaning in that the importance of the strategic value perception has been presented. Third, the study has proposed that the corporation which introduces big data should consider the big data introduction through precise analysis about industry's internal environment. Fourth, this study has proposed the point that the size and type of business of the corresponding corporation should be considered in introducing the big data by presenting the difference of the effect factors of big data introduction depending on the size and type of business of the corporation. The political implications are as follows. First, variety of utilization of big data is needed. The strategic value that big data has can be accessed in various ways in the product, service field, productivity field, decision making field etc and can be utilized in all the business fields based on that, but the parts that main domestic corporations are considering are limited to some parts of the products and service fields. Accordingly, in introducing big data, reviewing the phase about utilization in detail and design the big data system in a form which can maximize the utilization rate will be necessary. Second, the study is proposing the burden of the cost of the system introduction, difficulty in utilization in the system and lack of credibility in the supply corporations etc in the big data introduction phase by corporations. Since the world IT corporations are predominating the big data market, the big data introduction of domestic corporations can not but to be dependent on the foreign corporations. When considering that fact, that our country does not have global IT corporations even though it is world powerful IT country, the big data can be thought to be the chance to rear world level corporations. Accordingly, the government shall need to rear star corporations through active political support. Third, the corporations' internal and external professional manpower for the big data introduction and operation lacks. Big data is a system where how valuable data can be deducted utilizing data is more important than the system construction itself. For this, talent who are equipped with academic knowledge and experience in various fields like IT, statistics, strategy and management etc and manpower training should be implemented through systematic education for these talents. This study has arranged theoretical base for empirical studies about big data related fields by comprehending the main variables which affect the big data introduction intention and verifying them and is expected to be able to propose useful guidelines for the corporations and policy developers who are considering big data implementationby analyzing empirically that theoretical base.

기업의 SNS 노출과 주식 수익률간의 관계 분석 (The Analysis on the Relationship between Firms' Exposures to SNS and Stock Prices in Korea)

  • 김태환;정우진;이상용
    • Asia pacific journal of information systems
    • /
    • 제24권2호
    • /
    • pp.233-253
    • /
    • 2014
  • Can the stock market really be predicted? Stock market prediction has attracted much attention from many fields including business, economics, statistics, and mathematics. Early research on stock market prediction was based on random walk theory (RWT) and the efficient market hypothesis (EMH). According to the EMH, stock market are largely driven by new information rather than present and past prices. Since it is unpredictable, stock market will follow a random walk. Even though these theories, Schumaker [2010] asserted that people keep trying to predict the stock market by using artificial intelligence, statistical estimates, and mathematical models. Mathematical approaches include Percolation Methods, Log-Periodic Oscillations and Wavelet Transforms to model future prices. Examples of artificial intelligence approaches that deals with optimization and machine learning are Genetic Algorithms, Support Vector Machines (SVM) and Neural Networks. Statistical approaches typically predicts the future by using past stock market data. Recently, financial engineers have started to predict the stock prices movement pattern by using the SNS data. SNS is the place where peoples opinions and ideas are freely flow and affect others' beliefs on certain things. Through word-of-mouth in SNS, people share product usage experiences, subjective feelings, and commonly accompanying sentiment or mood with others. An increasing number of empirical analyses of sentiment and mood are based on textual collections of public user generated data on the web. The Opinion mining is one domain of the data mining fields extracting public opinions exposed in SNS by utilizing data mining. There have been many studies on the issues of opinion mining from Web sources such as product reviews, forum posts and blogs. In relation to this literatures, we are trying to understand the effects of SNS exposures of firms on stock prices in Korea. Similarly to Bollen et al. [2011], we empirically analyze the impact of SNS exposures on stock return rates. We use Social Metrics by Daum Soft, an SNS big data analysis company in Korea. Social Metrics provides trends and public opinions in Twitter and blogs by using natural language process and analysis tools. It collects the sentences circulated in the Twitter in real time, and breaks down these sentences into the word units and then extracts keywords. In this study, we classify firms' exposures in SNS into two groups: positive and negative. To test the correlation and causation relationship between SNS exposures and stock price returns, we first collect 252 firms' stock prices and KRX100 index in the Korea Stock Exchange (KRX) from May 25, 2012 to September 1, 2012. We also gather the public attitudes (positive, negative) about these firms from Social Metrics over the same period of time. We conduct regression analysis between stock prices and the number of SNS exposures. Having checked the correlation between the two variables, we perform Granger causality test to see the causation direction between the two variables. The research result is that the number of total SNS exposures is positively related with stock market returns. The number of positive mentions of has also positive relationship with stock market returns. Contrarily, the number of negative mentions has negative relationship with stock market returns, but this relationship is statistically not significant. This means that the impact of positive mentions is statistically bigger than the impact of negative mentions. We also investigate whether the impacts are moderated by industry type and firm's size. We find that the SNS exposures impacts are bigger for IT firms than for non-IT firms, and bigger for small sized firms than for large sized firms. The results of Granger causality test shows change of stock price return is caused by SNS exposures, while the causation of the other way round is not significant. Therefore the correlation relationship between SNS exposures and stock prices has uni-direction causality. The more a firm is exposed in SNS, the more is the stock price likely to increase, while stock price changes may not cause more SNS mentions.

개선된 배깅 앙상블을 활용한 기업부도예측 (Bankruptcy prediction using an improved bagging ensemble)

  • 민성환
    • 지능정보연구
    • /
    • 제20권4호
    • /
    • pp.121-139
    • /
    • 2014
  • 기업의 부도 예측은 재무 및 회계 분야에서 매우 중요한 연구 주제이다. 기업의 부도로 인해 발생하는 비용이 매우 크기 때문에 부도 예측의 정확성은 금융기관으로서는 매우 중요한 일이다. 최근에는 여러 개의 모형을 결합하는 앙상블 모형을 부도 예측에 적용해 보려는 연구가 큰 관심을 끌고 있다. 앙상블 모형은 개별 모형보다 더 좋은 성과를 내기 위해 여러 개의 분류기를 결합하는 것이다. 이와 같은 앙상블 분류기는 분류기의 일반화 성능을 개선하는 데 매우 유용한 것으로 알려져 있다. 본 논문은 부도 예측 모형의 성과 개선에 관한 연구이다. 이를 위해 사례 선택(Instance Selection)을 활용한 배깅(Bagging) 모형을 제안하였다. 사례 선택은 원 데이터에서 가장 대표성 있고 관련성 높은 데이터를 선택하고 예측 모형에 악영향을 줄 수 있는 불필요한 데이터를 제거하는 것으로 이를 통해 예측 성과 개선도 기대할 수 있다. 배깅은 학습데이터에 변화를 줌으로써 기저 분류기들을 다양화시키는 앙상블 기법으로 단순하면서도 성과가 매우 좋은 것으로 알려져 있다. 사례 선택과 배깅은 각각 모형의 성과를 개선시킬 수 있는 잠재력이 있지만 이들 두 기법의 결합에 관한 연구는 아직까지 없는 것이 현실이다. 본 연구에서는 부도 예측 모형의 성과를 개선하기 위해 사례 선택과 배깅을 연결하는 새로운 모형을 제안하였다. 최적의 사례 선택을 위해 유전자 알고리즘이 사용되었으며, 이를 통해 최적의 사례 선택 조합을 찾고 이 결과를 배깅 앙상블 모형에 전달하여 새로운 형태의 배깅 앙상블 모형을 구성하게 된다. 본 연구에서 제안한 새로운 앙상블 모형의 성과를 검증하기 위해 ROC 커브, AUC, 예측정확도 등과 같은 성과지표를 사용해 다양한 모형과 비교 분석해 보았다. 실제 기업데이터를 사용해 실험한 결과 본 논문에서 제안한 새로운 형태의 모형이 가장 좋은 성과를 보임을 알 수 있었다.

토지이용 변화에 따른 수문 특성의 변화를 추적하기 위한 Lumped모형의 개발 (Development of lumped model to analyze the hydrological effects landuse change)

  • 손일
    • 대한지리학회지
    • /
    • 제29권3호
    • /
    • pp.233-252
    • /
    • 1994
  • 토지이용수문학을 위한 하나의 대안으로, 모형의 단순성, 모형변형의 용이성, 그리 고 모의된 모형으로부터 지속적인 유량 예측 능력을 지닌 Lumped모형을 이용해 토지이용 변화에 따른 수문특성의 변화를 추적하였다. Blackie(1972)의 모형을 근간으로, R1131(11-parameter, 3-storage, l-input option) 모형을 구축하였다. 연구 대상 유역분지는 케냐에 있는 Kimakia Catchement K11이며, 이곳의 토지이용은 3번 변화하였다. 3단계의 토 지이용 기간에 대해 모형을 보정한 결과, 모형유효도는 96.78%, 97.20%, 94.62%이며, 전체유 량오차는 각각 -1.78%, -3.36%, 5.32% 였다. 보정된 모형을 이용해 각 토지이용 단계별로 확장유출량을 발생시키고, 빈도해석을 시도했다. 홍수 규모가 작은 경우 식생변화에 따라 31.3%와 32.1% 정도로 홍수량이 줄어들었으나, 홍수 규모가 커짐에 따라 홍수량의 감소 정 도는 점차 작아지고 있다. 이와 같은 현상은 갈수량의 변화에서도 발견된다. 또한 식생이 어 느 정도까지 성장한 이후에는 계속된 식생 성장에도 불구하고 홍수량과 갈수량은 큰 변화가 없다.

  • PDF

자궁경부암용 팬톰을 이용한 HDR (High dose rate) 근접치료의 선량 평가 (Dose Verification Using Pelvic Phantom in High Dose Rate (HDR) Brachytherapy)

  • 장지나;허순녕;김회남;윤세철;최보영;이형구;서태석
    • 한국의학물리학회지:의학물리
    • /
    • 제14권1호
    • /
    • pp.15-19
    • /
    • 2003
  • HDR (High dose rate) 근접 치료는 기존의 LDR (Low dose rate) 근접 치료에서 야기되었던 치료 시간이나 선량 최적화 등의 문제점을 해결하였기 때문에 자궁경부암 치료에 많이 사용되고 있다. 그러나, 단시간에 고선량이 조사되는 HDR 근접치료에서 치료 효과를 극대화시키기 위해서는 선량 계산 알고리즘, 위치 계산 알고리즘, 최적화 알고리즘이 정확하게 검증되어야 한다. 이를 위해서는 인체 등가 팬톰과 치료 계획 컴퓨터의 선량 분포 곡선을 비교함으로써 검증할 수 있다. 본 연구에서는 이러한 검증이 가능하도록 자궁경부암용 팬톰을 설계, 제작하여 HDR 치료 계획 컴퓨터와 팬톰과의 선량을 비교, 평가하는 것이다 이 자궁경부암용 팬톰은 높은 해상도를 가진 선량 측정기를 사용하여 정량적인 평가가 가능하도록 제작되었고, 인체 등가물질인 물과 아크릴을 사용하여 제작하였다 또한, 팬톰 내의 방사선량 측정을 위해서 $\frac{1}{8}$ 인치 TLD (Thermoluminescent dosimeters) 칩과 공간 해상도가 1 mm 이내인 필름을 사용하였다. 이 자궁경부암용 팬톰는 HDR applicator의 고정을 위해 applicator 홀더의 홈 안에 HDR applicator가 삽입되게 제작하였고 세 개의 TLD 홀더에는 TLD 칩(TLD 간의 거리는 5 mm)이 정렬되게 제작하여 A점이나 B점 같은 특정 점의 절대 선량을 측정할 수 있게 제작하였다 필름은 3개의 직교(orthogonal) 평면에 삽입되도록 제작하여 상대 선량 측정이 가능하게 하였다. 사용된 치료 계획 시스템은 Nucletron Plato system이고, Microselectron Ir-192 소스를 사용하였다. 선량 평가 결과, TLD 선량의 경우 A, B point를 포함하여 직장과 방광 선량이 $\pm$4% 이내로 치료계획 컴퓨터(Plato, Nucletron)와 일치하였고, 필름의 경우 선량 분포 곡선이 치료계획 컴퓨터의 선량 분포 곡선 패턴과 거의 일치하는 우수한 결과를 보였다. 제작된 자궁경부암용 팬톰은 HDR 치료 계획 컴퓨터의 선량 계산 알고리즘의 평가 및 검증에 유용하게 사용될 것이고, 이 팬톰은 강남성모병원 치료방사선과 HDR 근접치료 기기의 선량과 위치확인의 QA(quality assurance) 도구로써 사용하려고 추진 중에 있다.

  • PDF

채소류 모잘록병균에 길항하는 Bacillus ehimensis YJ-37의 대량배양 최적조건 (Optimization of Large Scale Culture Conditions of Bacillus ehimensis YJ-37 Antagonistic to Vegetables Damping-off Fungi)

  • 주길재;김진호
    • 생명과학회지
    • /
    • 제12권3호
    • /
    • pp.242-249
    • /
    • 2002
  • 본 연구는 채소류 모잘록병균인 R. solani AG4에 길항하는 미생물 B. ehimensis YJ-37의 500$m\ell$ 플라스크 배양, 5 $\ell$ jar fermentor 배양, 2,000 $\ell$ 대형탱크의 배양 조건 및 길항물질 생성능을 조사하였다. 500$m\ell$ 플라스크 배양에서의 길항물질 최적생산조건은 1.5% starch, 0.6% peptone, 0.3% $Na_2$HP $O_4$, 0.15% MgC1$_2$, pH 8.0, 배양온도 32$^{\circ}C$, 배양시간 54시간으로 나타났고, 이때 미생물의 수는 1.42$\times$$10^{ 8}$ cfu/$m\ell$21g-DCW/$\ell$), 항진균 활성은 13.9mm로 나타났다. 5$\ell$ jar fermenter 배양에서의 길항물질 최적생산조건은 플라스크배양에서의 최적 생산조건에서 공기주입량과 교반속도를 변화시켜 조사한 결과, 공기주입량 2 vvm, 교반속도 200 rpm, 배양시간 48시간 이후 미생물의 수와 균체의 량은 2.06 $\times$ $10^{8}$ cfu/$m\ell$ 및 30g-DCW/$\ell$, 항진균 활성은 13.4 mm로 나타났다. 2,000 $\ell$ 대형탱크 배양에서는 교반속도 200 rpm, 산소주입량 30 vvm으로 고정하고 10일간 배양하여 미생물의 생육 및 길항물질 생성능을 조사한 결과는 미생물의 수와 균체의 량은 0.81 $\times$ $10^{8}$ cfu/$m\ell$와 12g-DCW/$\ell$, 항진균 활성은 8.6mm로 나타나 5$\ell$ jar fermenter 배양에 배해 균의 수는 1/10로 줄었으며 항진균 활성도 64%로 낮게 나타났다.다.