• 제목/요약/키워드: size-optimization

검색결과 1,536건 처리시간 0.034초

조기 성문암 환자에서의 방사선치료 (Radiotherapy for Early Glottic Carinoma)

  • 김원택;남지호;권병현;왕수건;김동원
    • Radiation Oncology Journal
    • /
    • 제20권4호
    • /
    • pp.295-302
    • /
    • 2002
  • 목적 : 조기 성문암(T1-2N0M0) 환자들에 대한 일차적인 치료로서의 방사선치료의 역할과 치료결과에 영향을 미치는 예후인자들에 대한 분석을 통해 향후 치료방침을 세우는데 자료로 삼고자 연구를 시행하였다. 대상 및 방법 : 1987년 8월부터 1996년 12월까지 부산대학교병원 치료방사선과에서 조기 성문암으로 근치적 방사선 치료를 시행받은 환자 80명을 대상으로 후향적 분석을 시행하였다. T1 병기가 66명$(82.5\%)$, T2 병기가 14명$(17.5\%)$이였으며, 방사선치료는 6 MV X-선을 좌우 대칭조사야로 1일 1회 180 cGy 내지 2n cGy씩 주 5회 총 $ 6,000\~7,560\;cGy$ (중앙값 6,840 cGy)를 조사하였다. 치료기간은 40일에서 87일이었고 중앙값은 51일이었다. 모든 환자에서 최소 3년 이상 추적 조사하였다. 예후인자들에 대한 연구를 위해 T-병기, 종양의 위치, 총방사선량, 분할선량, 조사야의 크기 및 전체 방사선치료기간 등에 대한 단변량 및 다변량분석을 실시하였다. 결과 : 5년 생존율은 전체가 $89.2\%$였고 병기별로는 T1이 $90.2\%$, T2가 $82.5\%$였다. 국소제어율은 전체에서 $81.3\%$였고, T1 병기가 $83.3\%$, T2 병기가 $71.4\%$였으나 구제수술 후의 궁극적 국소제어율은 전체가 $91.3\%,\;T1\;94.5\%,\;T2\;79.4\%$$89.2\%$의 증가를 보였다. 음성보존율은 $89.2\%$로 T1과 T2에서 각각 $94.7\%$$81.3\%$로 유의한 차이를 보였다. 전체 환자 80명 중 15명에서 치료 후 재발을 보였고 이 중 국소재발(11/15, $73.3\%$)의 빈도가 가장 높았다. 예후 인자로 T-병기와 전체 치료기간이 단변량분석에서 통계적으로 의미를 주었으나 다변량분석에서는 전체 치료기간만이 유의한 인자였다. 결론 : 조기 성문암 환자의 치료에 근치적 방사선치료 및 구제수술의 조합은 높은 국소제어율과 함께 성문의 기능보존이라는 측면에서 효과적인 치료방법이라고 할 수 있으며, 치료결과에 영향을 줄 수 있는 예후인자들에 대해서는 추가적인 연구가 더 필요하겠으나 치료계획 단계에서부터 고려해야할 요소들로 생각된다.

사과식초 제조를 위한 사과주스의 초산발효 최적화 (Optimization of the Acetic Acid Fermentation Condition of Apple Juice)

  • 강복희;신은정;이상한;이동선;허상선;신기선;김성호;손석민;이진만
    • 한국식품저장유통학회지
    • /
    • 제18권6호
    • /
    • pp.980-985
    • /
    • 2011
  • 초산발효조건에 따른 사과주스의 발효특성을 알아보기 위하여 flask scale에서 초기 알코올 농도, 당농도, 초산농도 및 종초접종량 조건에 따른 초산발효를 실시하였다. 초기 알코올농도 3, 5, 7, 9%를 달리하여 사과주스의 초산발효를 12일간 실시한 결과 알코올 함량 5% 일때 발효 10일 째 산도가 최대치 5.88%로 측정되었으며, 알코올 함량이 9%일 경우 초산발효가 정상적으로 진행되지 않았다. 초기 당 농도 1, 5, 10, 14 $^{\circ}Brix$로 달리하여 초산발효를 실시한 결과 1 $^{\circ}Brix$의 경우 산도가 다른 조건에 비해 서서히 증가하여 발효 12일차에 산도 4.48%로 측정되었으며, 5, 10 $^{\circ}Brix$가 상대적으로 빠른 시간 내에 산도 4% 이상 생성됨을 알수 있었다. 초기 산도를 0.3, 0.5, 1, 1.5 및 2%로 달리하여 초산발효를 실시한 결과 초기 산도가 1% 이상일 때는 발효가 원활히 진행되는 것으로 나타났다. 종초 접종량은 10%, 15% 이상일 때 초산발효가 정상적으로 진행되어 발효 8일차에 산도가 각각 5.60, 6.05%에 도달하였다. 따라서, 사과주스를 이용한 초산발효시에는 알코올농도 5%, 초기 당농도 5 $^{\circ}Brix$ 이상, 초기 산도 1.0% 이상 및 종초 접종량 10% 이상이 적절할 것으로 생각된다. 산업적 규모의 초산발효 전단계로서 Mini-jar fermentor를 이용하여 초산발효를 실시한 결과 14 $^{\circ}Brix$ 사과농축액 2L에 알코올 7%와 $30^{\circ}C$, 300 rpm에서 활성화 된 종초 10%(총산함량: 4.03%)를 접종하여 초기산도를 약 1.0%로 조정한 후 $30^{\circ}C$, 300 rpm, 1.0 vvm으로 통기하여 초산발효를 실시한 후 시간대별로 분취하여 분석한 결과 Flask scale에서 보다 시간이 많이 단축되어 48 hr 발효하였을 때 산도 5% 이상의 식초를 생산할 수 있었다.

유럽 내 탄소배출권거래제 도입에 따른 연결계통국가들의 전력교역 상황을 고려한 탄소배출량 결정요인분석 (Analysis of Determinants of Carbon Emissions Considering the Electricity Trade Situation of Connected Countries and the Introduction of the Carbon Emission Trading System in Europe)

  • 윤경수;홍원준
    • 자원ㆍ환경경제연구
    • /
    • 제31권2호
    • /
    • pp.165-204
    • /
    • 2022
  • 본 연구는 유럽지역 내 20개 연결계통국가들을 대상으로 2000년부터 2014년까지의 패널 자료를 구성하여 유럽이 2005년에 도입한 배출권거래시장을 기점으로 표본기간을 전과 후로 나누어 탄소배출량 결정요인을 이분산과 자기상관의 문제를 고려한 패널 GLS 방법으로 추정하였다. 종속변수로는 개별국가들에서의 탄소배출량이 사용되었으며, 설명변수로는 발전원별 발전량 비중, 이웃 국가들의 전력수급률, 자원보유국의 전력생산량, 발전원집중도, 산업부문에서의 1인당 총에너지 사용량, 전력가격에서의 세금, 1인당 전력 순수출량, 1인당 국토면적의 크기 등이 사용되었다. 추정결과에 의하면, 2005년을 기점으로 전과 후 모두에서 원전과 재생에너지 발전량 비중, 발전원집중도, 1인당 국토면적의 크기 등은 탄소배출량에 음(-)의 영향을 미치는 것으로 나타난 반면 석탄 발전량 비중, 이웃 국가들의 전력수급률, 자원보유국의 전력생산량, 산업부문에서의 1인당 총에너지 사용량 등은 탄소배출량에 양(+)의 영향을 미치는 것으로 나타났다. 이외 가스 발전량 비중과 전력가격에서의 세금은 2005년 이전에 대해서만 각각 탄소배출량에 음(-)과 양(+)의 영향을 미쳤으며, 1인당 전력 순수출량은 2005년 이후에 대해서만 탄소배출량에 음(-)의 영향을 미치는 것으로 나타났다. 본 연구의 결과는 저탄소 녹색성장으로의 탄소배출량 절감을 위한 거시적인 대응전략을 제시하며 전력교역시장을 고려한 중장기 전원믹스 최적화 방안과 그 역할에 대한 의미와 가치를 시사하고 있다.

한국어 음소 단위 LSTM 언어모델을 이용한 문장 생성 (Korean Sentence Generation Using Phoneme-Level LSTM Language Model)

  • 안성만;정여진;이재준;양지헌
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.71-88
    • /
    • 2017
  • 언어모델은 순차적으로 입력된 자료를 바탕으로 다음에 나올 단어나 문자를 예측하는 모델로 언어처리나 음성인식 분야에 활용된다. 최근 딥러닝 알고리즘이 발전되면서 입력 개체 간의 의존성을 효과적으로 반영할 수 있는 순환신경망 모델과 이를 발전시킨 Long short-term memory(LSTM) 모델이 언어모델에 사용되고 있다. 이러한 모형에 자료를 입력하기 위해서는 문장을 단어 혹은 형태소로 분해하는 과정을 거친 후 단어 레벨 혹은 형태소 레벨의 모형을 사용하는 것이 일반적이다. 하지만 이러한 모형은 텍스트가 포함하는 단어나 형태소의 수가 일반적으로 매우 많기 때문에 사전 크기가 커지게 되고 이에 따라 모형의 복잡도가 증가하는 문제가 있고 사전에 포함된 어휘 외에는 생성이 불가능하다는 등의 단점이 있다. 특히 한국어와 같이 형태소 활용이 다양한 언어의 경우 형태소 분석기를 통한 분해과정에서 오류가 더해질 수 있다. 이를 보완하기 위해 본 논문에서는 문장을 자음과 모음으로 이루어진 음소 단위로 분해한 뒤 입력 데이터로 사용하는 음소 레벨의 LSTM 언어모델을 제안한다. 본 논문에서는 LSTM layer를 3개 또는 4개 포함하는 모형을 사용한다. 모형의 최적화를 위해 Stochastic Gradient 알고리즘과 이를 개선시킨 다양한 알고리즘을 사용하고 그 성능을 비교한다. 구약성경 텍스트를 사용하여 실험을 진행하였고 모든 실험은 Theano를 기반으로 하는 Keras 패키지를 사용하여 수행되었다. 모형의 정량적 비교를 위해 validation loss와 test set에 대한 perplexity를 계산하였다. 그 결과 Stochastic Gradient 알고리즘이 상대적으로 큰 validation loss와 perplexity를 나타냈고 나머지 최적화 알고리즘들은 유사한 값들을 보이며 비슷한 수준의 모형 복잡도를 나타냈다. Layer 4개인 모형이 3개인 모형에 비해 학습시간이 평균적으로 69% 정도 길게 소요되었으나 정량지표는 크게 개선되지 않거나 특정 조건에서는 오히려 악화되는 것으로 나타났다. 하지만 layer 4개를 사용한 모형이 3개를 사용한 모형에 비해 완성도가 높은 문장을 생성했다. 본 논문에서 고려한 어떤 시뮬레이션 조건에서도 한글에서 사용되지 않는 문자조합이 생성되지 않았고 명사와 조사의 조합이나 동사의 활용, 주어 동사의 결합 면에서 상당히 완성도 높은 문장이 발생되었다. 본 연구결과는 현재 대두되고 있는 인공지능 시스템의 기초가 되는 언어처리나 음성인식 분야에서 한국어 처리를 위해 다양하게 활용될 수 있을 것으로 기대된다.

XGBoost를 활용한 리스크패리티 자산배분 모형에 관한 연구 (A Study on Risk Parity Asset Allocation Model with XGBoos)

  • 김영훈;최흥식;김선웅
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.135-149
    • /
    • 2020
  • 인공지능을 기반으로 한 다양한 연구들이 현대사회에 많은 변화를 불러일으키고 있다. 금융시장 역시 예외는 아니다. 로보어드바이저 개발이 활발하게 진행되고 있으며 전통적 방식의 단점을 보완하고 사람이 분석하기 어려운 부분을 대체하고 있다. 로보어드바이저는 인공지능 알고리즘으로 자동화된 투자 결정을 내려 다양한 자산배분 모형과 함께 활용되고 있다. 자산배분 모형 중 리스크패리티는 대표적인 위험 기반 자산배분 모형의 하나로 큰 자산을 운용하는 데 있어 안정성을 나타내고 현업에서 역시 널리 쓰이고 있다. 그리고 XGBoost 모형은 병렬화된 트리 부스팅 기법으로 제한된 메모리 환경에서도 수십억 가지의 예제로 확장이 가능할 뿐만 아니라 기존의 부스팅에 비해 학습속도가 매우 빨라 많은 분야에서 널리 활용되고 있다. 이에 본 연구에서 리스크패리티와 XGBoost를 장점을 결합한 모형을 제안하고자 한다. 기존에 널리 사용되는 최적화 자산배분 모형은 과거 데이터를 기반으로 투자 비중을 추정하기 때문에 과거와 실투자 기간 사이의 추정 오차가 발생하게 된다. 최적화 자산배분 모형은 추정 오차로 인해 포트폴리오 성과에서 악영향을 받게 된다. 본 연구는 XGBoost를 통해 실투자 기간의 변동성을 예측하여 최적화 자산배분 모형의 추정 오차를 줄여 모형의 안정성과 포트폴리오 성과를 개선하고자 한다. 본 연구에서 제시한 모형의 실증 검증을 위해 한국 주식시장의 10개 업종 지수 데이터를 활용하여 2003년부터 2019년까지 총 17년간 주가 자료를 활용하였으며 in-sample 1,000개, out-of-sample 20개씩 Moving-window 방식으로 예측 결과값을 누적하여 총 154회의 리밸런싱이 이루어진 백테스팅 결과를 도출하였다. 본 연구에서 제안한 자산배분 모형은 기계학습을 사용하지 않은 기존의 리스크패리티와 비교하였을 때 누적수익률 및 추정 오차에서 모두 개선된 성과를 보여주었다. 총 누적수익률은 45.748%로 리스크패리티 대비 약 5% 높은 결과를 보였고 추정오차 역시 10개 업종 중 9개에서 감소한 결과를 보였다. 실험 결과를 통해 최적화 자산배분 모형의 추정 오차를 감소시킴으로써 포트폴리오 성과를 개선하였다. 포트폴리오의 추정 오차를 줄이기 위해 모수 추정 방법에 관한 다양한 연구 사례들이 존재한다. 본 연구는 추정 오차를 줄이기 위한 새로운 추정방법으로 기계학습을 제시하여 최근 빠른 속도로 발전하는 금융시장에 맞는 진보된 인공지능형 자산배분 모형을 제시한 점에서 의의가 있다.

유전자 알고리즘을 이용한 다분류 SVM의 최적화: 기업신용등급 예측에의 응용 (Optimization of Multiclass Support Vector Machine using Genetic Algorithm: Application to the Prediction of Corporate Credit Rating)

  • 안현철
    • 경영정보학연구
    • /
    • 제16권3호
    • /
    • pp.161-177
    • /
    • 2014
  • 기업신용등급은 금융시장의 신뢰를 구축하고 거래를 활성화하는데 있어 매우 중요한 요소로서, 오래 전부터 학계에서는 보다 정확한 기업신용등급 예측을 가능케 하는 다양한 모형들을 연구해 왔다. 구체적으로 다중판별분석(Multiple Discriminant Analysis, MDA)이나 다항 로지스틱 회귀분석(multinomial logistic regression analysis, MLOGIT)과 같은 통계기법을 비롯해, 인공신경망(Artificial Neural Networks, ANN), 사례기반추론(Case-based Reasoning, CBR), 그리고 다분류 문제해결을 위해 확장된 다분류 Support Vector Machines(Multiclass SVM)에 이르기까지 다양한 기법들이 학자들에 의해 적용되었는데, 최근의 연구결과들에 따르면 이 중에서도 다분류 SVM이 가장 우수한 예측성과를 보이고 있는 것으로 보고되고 있다. 본 연구에서는 이러한 다분류 SVM의 성능을 한 단계 더 개선하기 위한 대안으로 유전자 알고리즘(GA, Genetic Algorithm)을 활용한 최적화 모형을 제안한다. 구체적으로 본 연구의 제안모형은 유전자 알고리즘을 활용해 다분류 SVM에 적용되어야 할 최적의 커널 함수 파라미터값들과 최적의 입력변수 집합(feature subset)을 탐색하도록 설계되었다. 실제 데이터셋을 활용해 제안모형을 적용해 본 결과, MDA나 MLOGIT, CBR, ANN과 같은 기존 인공지능/데이터마이닝 기법들은 물론 지금까지 가장 우수한 예측성과를 보이는 것으로 알려져 있던 전통적인 다분류 SVM 보다도 제안모형이 더 우수한 예측성과를 보임을 확인할 수 있었다.

빅데이터 도입의도에 미치는 영향요인에 관한 연구: 전략적 가치인식과 TOE(Technology Organizational Environment) Framework을 중심으로 (An Empirical Study on the Influencing Factors for Big Data Intented Adoption: Focusing on the Strategic Value Recognition and TOE Framework)

  • 가회광;김진수
    • Asia pacific journal of information systems
    • /
    • 제24권4호
    • /
    • pp.443-472
    • /
    • 2014
  • To survive in the global competitive environment, enterprise should be able to solve various problems and find the optimal solution effectively. The big-data is being perceived as a tool for solving enterprise problems effectively and improve competitiveness with its' various problem solving and advanced predictive capabilities. Due to its remarkable performance, the implementation of big data systems has been increased through many enterprises around the world. Currently the big-data is called the 'crude oil' of the 21st century and is expected to provide competitive superiority. The reason why the big data is in the limelight is because while the conventional IT technology has been falling behind much in its possibility level, the big data has gone beyond the technological possibility and has the advantage of being utilized to create new values such as business optimization and new business creation through analysis of big data. Since the big data has been introduced too hastily without considering the strategic value deduction and achievement obtained through the big data, however, there are difficulties in the strategic value deduction and data utilization that can be gained through big data. According to the survey result of 1,800 IT professionals from 18 countries world wide, the percentage of the corporation where the big data is being utilized well was only 28%, and many of them responded that they are having difficulties in strategic value deduction and operation through big data. The strategic value should be deducted and environment phases like corporate internal and external related regulations and systems should be considered in order to introduce big data, but these factors were not well being reflected. The cause of the failure turned out to be that the big data was introduced by way of the IT trend and surrounding environment, but it was introduced hastily in the situation where the introduction condition was not well arranged. The strategic value which can be obtained through big data should be clearly comprehended and systematic environment analysis is very important about applicability in order to introduce successful big data, but since the corporations are considering only partial achievements and technological phases that can be obtained through big data, the successful introduction is not being made. Previous study shows that most of big data researches are focused on big data concept, cases, and practical suggestions without empirical study. The purpose of this study is provide the theoretically and practically useful implementation framework and strategies of big data systems with conducting comprehensive literature review, finding influencing factors for successful big data systems implementation, and analysing empirical models. To do this, the elements which can affect the introduction intention of big data were deducted by reviewing the information system's successful factors, strategic value perception factors, considering factors for the information system introduction environment and big data related literature in order to comprehend the effect factors when the corporations introduce big data and structured questionnaire was developed. After that, the questionnaire and the statistical analysis were performed with the people in charge of the big data inside the corporations as objects. According to the statistical analysis, it was shown that the strategic value perception factor and the inside-industry environmental factors affected positively the introduction intention of big data. The theoretical, practical and political implications deducted from the study result is as follows. The frist theoretical implication is that this study has proposed theoretically effect factors which affect the introduction intention of big data by reviewing the strategic value perception and environmental factors and big data related precedent studies and proposed the variables and measurement items which were analyzed empirically and verified. This study has meaning in that it has measured the influence of each variable on the introduction intention by verifying the relationship between the independent variables and the dependent variables through structural equation model. Second, this study has defined the independent variable(strategic value perception, environment), dependent variable(introduction intention) and regulatory variable(type of business and corporate size) about big data introduction intention and has arranged theoretical base in studying big data related field empirically afterwards by developing measurement items which has obtained credibility and validity. Third, by verifying the strategic value perception factors and the significance about environmental factors proposed in the conventional precedent studies, this study will be able to give aid to the afterwards empirical study about effect factors on big data introduction. The operational implications are as follows. First, this study has arranged the empirical study base about big data field by investigating the cause and effect relationship about the influence of the strategic value perception factor and environmental factor on the introduction intention and proposing the measurement items which has obtained the justice, credibility and validity etc. Second, this study has proposed the study result that the strategic value perception factor affects positively the big data introduction intention and it has meaning in that the importance of the strategic value perception has been presented. Third, the study has proposed that the corporation which introduces big data should consider the big data introduction through precise analysis about industry's internal environment. Fourth, this study has proposed the point that the size and type of business of the corresponding corporation should be considered in introducing the big data by presenting the difference of the effect factors of big data introduction depending on the size and type of business of the corporation. The political implications are as follows. First, variety of utilization of big data is needed. The strategic value that big data has can be accessed in various ways in the product, service field, productivity field, decision making field etc and can be utilized in all the business fields based on that, but the parts that main domestic corporations are considering are limited to some parts of the products and service fields. Accordingly, in introducing big data, reviewing the phase about utilization in detail and design the big data system in a form which can maximize the utilization rate will be necessary. Second, the study is proposing the burden of the cost of the system introduction, difficulty in utilization in the system and lack of credibility in the supply corporations etc in the big data introduction phase by corporations. Since the world IT corporations are predominating the big data market, the big data introduction of domestic corporations can not but to be dependent on the foreign corporations. When considering that fact, that our country does not have global IT corporations even though it is world powerful IT country, the big data can be thought to be the chance to rear world level corporations. Accordingly, the government shall need to rear star corporations through active political support. Third, the corporations' internal and external professional manpower for the big data introduction and operation lacks. Big data is a system where how valuable data can be deducted utilizing data is more important than the system construction itself. For this, talent who are equipped with academic knowledge and experience in various fields like IT, statistics, strategy and management etc and manpower training should be implemented through systematic education for these talents. This study has arranged theoretical base for empirical studies about big data related fields by comprehending the main variables which affect the big data introduction intention and verifying them and is expected to be able to propose useful guidelines for the corporations and policy developers who are considering big data implementationby analyzing empirically that theoretical base.

디지털 엑스선 장비의 사지 검사 시 환자 체형에 따른 관전압 최적화 (Optimization of Tube Voltage according to Patient's Body Type during Limb examination in Digital X-ray Equipment)

  • 김상현
    • 한국방사선학회논문지
    • /
    • 제11권5호
    • /
    • pp.379-385
    • /
    • 2017
  • 본 논문은 디지털 엑스선 장비(DR)에서 사지 검사 시 환자 체형 변화에 따른 최적의 관전압을 알아보고자 하였다. 상지검사는 면적선량(DAP) $5.06dGy{\ast} cm^2$, 하지검사는 DAP $5.04dGy{\ast} cm^2$ 고정한 상태에서 관전압을 4단계 변화시키며 각 단계마다 3회씩 반복 촬영하였다. 환자의 체형의 변화를 주기 위해 10 mm 씩 총 30 mm까지 두께를 증가하였다. 정량적 평가를 위해 Image J를 이용하여 관전압에 따른 네 그룹간의 대조도 및 신호 대 잡음비 값을 산출하였고 통계학적 검정은 95% 신뢰수준에서 Kruskal-Wallis test로 유의한 차이를 분석하였다. 영상의 정성적 분석을 위하여 정해진 항목에 관해 5점 리커트 척도로 평가 하였다. 상지와 하지 실험 모두에서 관전압이 증가할수록 영상의 대조도대잡음비(CNR)과 신호대잡음비(SNR)이 감소하였으며, 환자의 체형에 따른 차이를 보기 위한 실험에서는 두께가 두꺼워 질수록 CNR과 SNR이 감소하였다. 정성적 평과는 상지는 관전압이 증가할수록 점수가 증가하여 최고 55 kV 에서 4.6, 40 kV 에서 3.6이였으며, 하지는 관전압의 상관없이 평균 4.4의 고른 점수가 나왔다. 상, 하지 모두 두께가 두꺼워지면서 점수는 전반적으로 낮아졌으나 상지는 40 kV에서는 점수가 급격히 낮아졌고, 하지에서는 50 kV에서는 점수가 급격히 낮아졌다. 표준 두께를 가지고 있는 환자의 경우 상지에서는 45 kV, 하지에서는 50 kV로 촬영하는 것이 최적화 된 영상을 구현할 수 있으며, 환자의 체형 두께가 증가하는 경우 상지는 50 kV, 하지는 55 kV로 관전압을 설정 하는 것이 효과적이다.

자궁경부암용 팬톰을 이용한 HDR (High dose rate) 근접치료의 선량 평가 (Dose Verification Using Pelvic Phantom in High Dose Rate (HDR) Brachytherapy)

  • 장지나;허순녕;김회남;윤세철;최보영;이형구;서태석
    • 한국의학물리학회지:의학물리
    • /
    • 제14권1호
    • /
    • pp.15-19
    • /
    • 2003
  • HDR (High dose rate) 근접 치료는 기존의 LDR (Low dose rate) 근접 치료에서 야기되었던 치료 시간이나 선량 최적화 등의 문제점을 해결하였기 때문에 자궁경부암 치료에 많이 사용되고 있다. 그러나, 단시간에 고선량이 조사되는 HDR 근접치료에서 치료 효과를 극대화시키기 위해서는 선량 계산 알고리즘, 위치 계산 알고리즘, 최적화 알고리즘이 정확하게 검증되어야 한다. 이를 위해서는 인체 등가 팬톰과 치료 계획 컴퓨터의 선량 분포 곡선을 비교함으로써 검증할 수 있다. 본 연구에서는 이러한 검증이 가능하도록 자궁경부암용 팬톰을 설계, 제작하여 HDR 치료 계획 컴퓨터와 팬톰과의 선량을 비교, 평가하는 것이다 이 자궁경부암용 팬톰은 높은 해상도를 가진 선량 측정기를 사용하여 정량적인 평가가 가능하도록 제작되었고, 인체 등가물질인 물과 아크릴을 사용하여 제작하였다 또한, 팬톰 내의 방사선량 측정을 위해서 $\frac{1}{8}$ 인치 TLD (Thermoluminescent dosimeters) 칩과 공간 해상도가 1 mm 이내인 필름을 사용하였다. 이 자궁경부암용 팬톰는 HDR applicator의 고정을 위해 applicator 홀더의 홈 안에 HDR applicator가 삽입되게 제작하였고 세 개의 TLD 홀더에는 TLD 칩(TLD 간의 거리는 5 mm)이 정렬되게 제작하여 A점이나 B점 같은 특정 점의 절대 선량을 측정할 수 있게 제작하였다 필름은 3개의 직교(orthogonal) 평면에 삽입되도록 제작하여 상대 선량 측정이 가능하게 하였다. 사용된 치료 계획 시스템은 Nucletron Plato system이고, Microselectron Ir-192 소스를 사용하였다. 선량 평가 결과, TLD 선량의 경우 A, B point를 포함하여 직장과 방광 선량이 $\pm$4% 이내로 치료계획 컴퓨터(Plato, Nucletron)와 일치하였고, 필름의 경우 선량 분포 곡선이 치료계획 컴퓨터의 선량 분포 곡선 패턴과 거의 일치하는 우수한 결과를 보였다. 제작된 자궁경부암용 팬톰은 HDR 치료 계획 컴퓨터의 선량 계산 알고리즘의 평가 및 검증에 유용하게 사용될 것이고, 이 팬톰은 강남성모병원 치료방사선과 HDR 근접치료 기기의 선량과 위치확인의 QA(quality assurance) 도구로써 사용하려고 추진 중에 있다.

  • PDF

기업의 SNS 노출과 주식 수익률간의 관계 분석 (The Analysis on the Relationship between Firms' Exposures to SNS and Stock Prices in Korea)

  • 김태환;정우진;이상용
    • Asia pacific journal of information systems
    • /
    • 제24권2호
    • /
    • pp.233-253
    • /
    • 2014
  • Can the stock market really be predicted? Stock market prediction has attracted much attention from many fields including business, economics, statistics, and mathematics. Early research on stock market prediction was based on random walk theory (RWT) and the efficient market hypothesis (EMH). According to the EMH, stock market are largely driven by new information rather than present and past prices. Since it is unpredictable, stock market will follow a random walk. Even though these theories, Schumaker [2010] asserted that people keep trying to predict the stock market by using artificial intelligence, statistical estimates, and mathematical models. Mathematical approaches include Percolation Methods, Log-Periodic Oscillations and Wavelet Transforms to model future prices. Examples of artificial intelligence approaches that deals with optimization and machine learning are Genetic Algorithms, Support Vector Machines (SVM) and Neural Networks. Statistical approaches typically predicts the future by using past stock market data. Recently, financial engineers have started to predict the stock prices movement pattern by using the SNS data. SNS is the place where peoples opinions and ideas are freely flow and affect others' beliefs on certain things. Through word-of-mouth in SNS, people share product usage experiences, subjective feelings, and commonly accompanying sentiment or mood with others. An increasing number of empirical analyses of sentiment and mood are based on textual collections of public user generated data on the web. The Opinion mining is one domain of the data mining fields extracting public opinions exposed in SNS by utilizing data mining. There have been many studies on the issues of opinion mining from Web sources such as product reviews, forum posts and blogs. In relation to this literatures, we are trying to understand the effects of SNS exposures of firms on stock prices in Korea. Similarly to Bollen et al. [2011], we empirically analyze the impact of SNS exposures on stock return rates. We use Social Metrics by Daum Soft, an SNS big data analysis company in Korea. Social Metrics provides trends and public opinions in Twitter and blogs by using natural language process and analysis tools. It collects the sentences circulated in the Twitter in real time, and breaks down these sentences into the word units and then extracts keywords. In this study, we classify firms' exposures in SNS into two groups: positive and negative. To test the correlation and causation relationship between SNS exposures and stock price returns, we first collect 252 firms' stock prices and KRX100 index in the Korea Stock Exchange (KRX) from May 25, 2012 to September 1, 2012. We also gather the public attitudes (positive, negative) about these firms from Social Metrics over the same period of time. We conduct regression analysis between stock prices and the number of SNS exposures. Having checked the correlation between the two variables, we perform Granger causality test to see the causation direction between the two variables. The research result is that the number of total SNS exposures is positively related with stock market returns. The number of positive mentions of has also positive relationship with stock market returns. Contrarily, the number of negative mentions has negative relationship with stock market returns, but this relationship is statistically not significant. This means that the impact of positive mentions is statistically bigger than the impact of negative mentions. We also investigate whether the impacts are moderated by industry type and firm's size. We find that the SNS exposures impacts are bigger for IT firms than for non-IT firms, and bigger for small sized firms than for large sized firms. The results of Granger causality test shows change of stock price return is caused by SNS exposures, while the causation of the other way round is not significant. Therefore the correlation relationship between SNS exposures and stock prices has uni-direction causality. The more a firm is exposed in SNS, the more is the stock price likely to increase, while stock price changes may not cause more SNS mentions.