수자원 분야 공익형 기술가치평가 시스템에 대한 연구 (A Study on Public Interest-based Technology Valuation Models in Water Resources Field)
-
- 지능정보연구
- /
- 제24권3호
- /
- pp.177-198
- /
- 2018
최근 경제재로서 수자원(Water Resources)의 속성이 공공재 성격을 동시에 띠면서 수자원기술의 측정과 성과 관리 체계를 확보하고 활용해야 할 필요성이 제기되고 있다. 그 동안 수자원기술의 평가는 대부분 순현재가치(NPV)나 비용편익효과(B/C)를 바탕으로 경제성 평가(Feasibility Study) 혹은 기술(환경)영향평가(Technology Assessment)로 수행되어 왔으며, 연구성과의 확산과 피드백을 받을 수 있는 기술 기반 사업의 경제적 가치를 객관적으로 평가하는 모델은 체계화되지 않았다. 그리하여, 본 연구에서는 K-water(한국수자원공사)가 담당하고 있는 수자원분야의 기술적 특성에 적합한 기술평가 체계를 구축할 필요성을 느끼고, 공익형 수자원기술에 대한 기술가치평가 모델을 개발하여 사례를 실증하고자 한다. 본 연구에 적용된 K-water 평가대상기술은 공공재로서, 사회전반에 기여한 가치 및 성과를 측정하고 관리할 수 있는 도구로 활용 가능하다. 예를 들면, 사회전반에 기여한 가치를 산출하여, 편익의 파급효과에 대한 성과 홍보자료, 혹은 비용 투입 당위성에 대한 근거자료로 활용할 수 있고, 공공기술의 특성상 대규모 연구개발 투입 비용에 대한 정당성을 확보할 수 있다. 따라서, 공공재를 다루는 한국의 대표적 공기업인 K-water가 사업 운영상의 전략을 수립하고 투입개발 비용에 대한 성과산출 근거 기반을 구축할 수 있을 것으로 판단된다. 본 고에서는 K-water가 담당하고 있는 수자원분야의 기술적 특성에 적합한 기술평가 체계를 기반으로, 공익형 수자원기술에 대한 기술가치평가 모델을 개발하여 사례를 실증하였다. 특히, 일본 산업기술종합연구소(AIST)의 평가방법론을 활용하여 연관 편익항목을 기준으로 비용계정에 매칭시킨 후, 기존의 비용-편익 접근법과 FCF(Free Cash Flow)법의 평가체계를 활용하는 'K-water 고유모델'을 제시하였으며 이를 통해 K-water 연구성과 관리체계 상의 파이프라인을 구축하는 동시에 "해수담수화" 관련 기술에 대한 검증을 수행하였다. 수자원 분야 기술의 특성을 반영한 웹기반 가치평가시스템의 설계 구성로직과 평가프로세스를 분석하며, 기술통합관리시스템 상의 공익형 및 수익형 기술가치를 산출하기 위한 각 모델별 참조정보 및 DB 연계로직도 살펴본다. 종래의 타 분야 기술가치평가 시스템이 지닌 재무적 데이터 기반의 사업가치 산출로직에 수자원 특성이 반영된 정성평가지표의 정량화 지수를 함께 반영한 하이브리드형 평가모듈과 실제 웹기반 평가의 UI 구성화면을 검토한다. K-water의 가치평가 모형은 공익형과 수익형 수자원 기술을 구분하여 평가하게 되는데, 먼저 수익형 기술가치평가는 "기술의 경제성"이라고 하는 특성상 외부 산업유형의 수익(Profit)특성을 반영하여 화면을 설계 가능하다. 예를 들어 K-water 기술인벤토리 수도부문 기술은 수처리 멤브레인과 같이 수익 지향 기술이 다수 분포된다. 반면에, 공익형 기술가치평가는 공공의 편익(Benefit)과 비용(Cost)특성을 반영하여 화면을 설계하게 되는데, 댐과 같이 편익을 지향하는 기술을 평가하는데 활용된다. 또한 본 고에서 제시된 비용-편익 기반의 공익형 기술가치평가 모형(K-water 고유 평가모델)에 대한 적정성 검토를 위해 사회적 수명(20년)을 지닌 수자원 기술의 편익흐름 추정으로부터 실제 사례에 적용해 보았으며, 향후에는 다양한 사업환경 특성을 반영한 비즈니스 모델별 평가모형 검증을 추가적으로 수행하고자 한다.
딥러닝 프레임워크의 대표적인 기능으로는 '자동미분'과 'GPU의 활용' 등을 들 수 있다. 본 논문은 파이썬의 라이브러리 형태로 사용 가능한 프레임워크 중에서 구글의 텐서플로와 마이크로소프트의 CNTK, 그리고 텐서플로의 원조라고 할 수 있는 티아노를 비교하였다. 본문에서는 자동미분의 개념과 GPU의 활용형태를 간단히 설명하고, 그 다음에 logistic regression을 실행하는 예를 통하여 각 프레임워크의 문법을 알아본 뒤에, 마지막으로 대표적인 딥러닝 응용인 CNN의 예제를 실행시켜보고 코딩의 편의성과 실행속도 등을 확인해 보았다. 그 결과, 편의성의 관점에서 보면 티아노가 가장 코딩 하기가 어렵고, CNTK와 텐서플로는 많은 부분이 비슷하게 추상화 되어 있어서 코딩이 비슷하지만 가중치와 편향을 직접 정의하느냐의 여부에서 차이를 보였다. 그리고 각 프레임워크의 실행속도에 대한 평가는 '큰 차이는 없다'는 것이다. 텐서플로는 티아노에 비하여 속도가 느리다는 평가가 있어왔는데, 본 연구의 실험에 의하면, 비록 CNN 모형에 국한되었지만, 텐서플로가 아주 조금이지만 빠른 것으로 나타났다. CNTK의 경우에도, 비록 실험환경이 달랐지만, 실험환경의 차이에 의한 속도의 차이의 편차범위 이내에 있는 것으로 판단이 되었다. 본 연구에서는 세 종류의 딥러닝 프레임워크만을 살펴보았는데, 위키피디아에 따르면 딥러닝 프레임워크의 종류는 12가지가 있으며, 각 프레임워크의 특징을 15가지 속성으로 구분하여 차이를 특정하고 있다. 그 많은 속성 중에서 사용자의 입장에서 볼 때 중요한 속성은 어떤 언어(파이썬, C++, Java, 등)로 사용가능한지, 어떤 딥러닝 모형에 대한 라이브러리가 잘 구현되어 있는지 등일 것이다. 그리고 사용자가 대규모의 딥러닝 모형을 구축한다면, 다중 GPU 혹은 다중 서버를 지원하는지의 여부도 중요할 것이다. 또한 딥러닝 모형을 처음 학습하는 경우에는 사용설명서가 많은지 예제 프로그램이 많은지 여부도 중요한 기준이 될 것이다.
Can the stock market really be predicted? Stock market prediction has attracted much attention from many fields including business, economics, statistics, and mathematics. Early research on stock market prediction was based on random walk theory (RWT) and the efficient market hypothesis (EMH). According to the EMH, stock market are largely driven by new information rather than present and past prices. Since it is unpredictable, stock market will follow a random walk. Even though these theories, Schumaker [2010] asserted that people keep trying to predict the stock market by using artificial intelligence, statistical estimates, and mathematical models. Mathematical approaches include Percolation Methods, Log-Periodic Oscillations and Wavelet Transforms to model future prices. Examples of artificial intelligence approaches that deals with optimization and machine learning are Genetic Algorithms, Support Vector Machines (SVM) and Neural Networks. Statistical approaches typically predicts the future by using past stock market data. Recently, financial engineers have started to predict the stock prices movement pattern by using the SNS data. SNS is the place where peoples opinions and ideas are freely flow and affect others' beliefs on certain things. Through word-of-mouth in SNS, people share product usage experiences, subjective feelings, and commonly accompanying sentiment or mood with others. An increasing number of empirical analyses of sentiment and mood are based on textual collections of public user generated data on the web. The Opinion mining is one domain of the data mining fields extracting public opinions exposed in SNS by utilizing data mining. There have been many studies on the issues of opinion mining from Web sources such as product reviews, forum posts and blogs. In relation to this literatures, we are trying to understand the effects of SNS exposures of firms on stock prices in Korea. Similarly to Bollen et al. [2011], we empirically analyze the impact of SNS exposures on stock return rates. We use Social Metrics by Daum Soft, an SNS big data analysis company in Korea. Social Metrics provides trends and public opinions in Twitter and blogs by using natural language process and analysis tools. It collects the sentences circulated in the Twitter in real time, and breaks down these sentences into the word units and then extracts keywords. In this study, we classify firms' exposures in SNS into two groups: positive and negative. To test the correlation and causation relationship between SNS exposures and stock price returns, we first collect 252 firms' stock prices and KRX100 index in the Korea Stock Exchange (KRX) from May 25, 2012 to September 1, 2012. We also gather the public attitudes (positive, negative) about these firms from Social Metrics over the same period of time. We conduct regression analysis between stock prices and the number of SNS exposures. Having checked the correlation between the two variables, we perform Granger causality test to see the causation direction between the two variables. The research result is that the number of total SNS exposures is positively related with stock market returns. The number of positive mentions of has also positive relationship with stock market returns. Contrarily, the number of negative mentions has negative relationship with stock market returns, but this relationship is statistically not significant. This means that the impact of positive mentions is statistically bigger than the impact of negative mentions. We also investigate whether the impacts are moderated by industry type and firm's size. We find that the SNS exposures impacts are bigger for IT firms than for non-IT firms, and bigger for small sized firms than for large sized firms. The results of Granger causality test shows change of stock price return is caused by SNS exposures, while the causation of the other way round is not significant. Therefore the correlation relationship between SNS exposures and stock prices has uni-direction causality. The more a firm is exposed in SNS, the more is the stock price likely to increase, while stock price changes may not cause more SNS mentions.
본 논문은 매우 방대하고 복잡한 실시간 소프트웨어를 이해하기 위한 하나의 방법론과 도구의 개발 연구에 대하여 보고한다. 대부분 본 논문의 저자에 의하여 개발된 이 방법론과 도구는 ARSU(Architecture-based Real-time Software Understanding)과 SRE(Software Re/reverse-engineering Environment)이다. 재공학과정중에 실시간 소프트웨어의 이해한다는 것은 방대한 규모와 복잡성 때문에 일반적으로 매우 어려운 일이다. 그러나 이러한 어려움을 극복하기 위하여 본 논문에서는 architecture에 근거하여 구조적
고준위 방사성폐기물 처분 연구 사업이 법률적인 인허가 뿐만이 아니라 일반 국민의 동의를 얻기 위해서는 처분 사업의 안전성에 대한 신뢰성 획득이 중요하며 이를 위해 투명하게 공개될 수 있는 종합 성능 평가 (TSPA, Total System Performance Assessment)의 수행이 필요하다. 본 연구에서는 처분 성능 평가 투명성 제고와 신뢰성 향상을 위한 방안의 하나로 처분 종합 성능 평가에 대한 품질 보증 원칙을 도입하여 평가 관련 전체 업무에 관한 투명성 증진을 꾀하고자 한다. 특히 인터넷을 기반으로 하는 품질 보증 시스템의 개발을 통해 실험을 통해서 얻어지는 평가 입력 자료들 뿐 아니라 평가 수행을 위한 계획 수립과 결과물, 그리고 결과물에 대한 검토 등에 이르기까지 안전성 평가 전 과정에서 투명성이 유지된 데이터들이 높은 신뢰성을 가지고 향후에도 활용될 수 있도록 하였다. 본 연구에서 개발한 Cyber R&D Platform은 인터넷을 기반으로 하는 프로그램으로 안전성 평가를 위한 시나리오 개발 관련 데이터인 FEP 목록과 관련 시나리오 정보, 관련 시나리오 도출 과정 및 평가 체계 등을 체계적으로 구축한 FEAS (FEp to Assessment through Scenario development) 프로그램과 안전성 평가에 필요한 입력 데이터들을 분류, 저장해 놓은 PAID (Performance Assessment Input Data) 프로그램, 그리고 이러한 자료들을 입력할 수 있는 품질 보증 시스템으로 구성되어 있으며 이를 통합 운영함으로써 도출된 데이터들의 신뢰성을 높이고자 하였으며 향후 이해 당사자들이 "처분장에서 생태계에 이르는 핵종들의 이동 경로에 대한 시나리오는 어떠한 것이며, 그 평가 결과들과 평가에 이용되는 실제 데이터들은 어떤 것인지" 에 대해 쉽게 이해할 수 있고 또 관련 자료들이 어떠한 원칙에 따른 검토를 거쳤는지에 관해서도 확인할 수 있게 할 것이다.X>, 중환자실 재원기간은
최근 수리 실험 및 계측 분야에 영상유속계가 많이 이용되고 있다. 그러나 영상유속계의 영상 분석에 대한 표준적인 방법과 측정 불확도가 정립되어 있지 않아 일반 사용자들이 사용하기 어려운 것이 사실이다. 특히 영상유속계를 이용한 유속 산정 시 상관영역 크기 결정에 대한 기준이 없기 때문에 사용자마다 유속 산정 결과가 차이가 나는 문제가 있다. 이에 본 연구에서는 영상유속계의 상관영역 크기 변화에 따른 오차분석을 통해 상관영역 크기 결정을 위한 자료를 제시하고 자한다. 오차분석을 위해 12개의 인공영상군을 제작하였으며, 다양한 입자수와 입자크기의 영상을 획득한 후 상관영역의 크기를 변화시키면서 산정한 유속을 인공영상의 유속 참값과 비교하여 오차분석을 수행하였다. 오차 분석결과 상관영역의 크기 변화에 따라 영상유속계로 산정한 유속값에 대한 오차가 달라짐을 확인하였고, 상관영역의 크기를 크게 결정할수록 오차가 줄어드는 것으로 나타났고, 동일한 상관영역의 크기로 유속을 산정할 경우 입자 크기가 증가할수록 또는 입자수가 증가할수록 오차가 작게 나타났다. 특히 영상유속계의 오차는 입자의 크기 보다는 입자수의 변화에 좀 더 영향을 많이 받는 것으로 나타났다. 또한 상관영역의 크기가 커짐에 따라 최대 오차와 최소 오차간의 간격이 줄어드는 것을 확인하였으며, 영상 전체에서 산정한 유속의 평균 오차가 5% 이하를 만족시키는 상관영역 크기를 기준으로 그 이하의 상관영역에 대해서는 최대 오차와 최소 오차간의 차이가 크게 나타나 영상유속계의 측정 불확실성이 큰 것으로 나타났다. 영상유속계의 신뢰수준별 입자밀도 변화에 따른 최소 상관영역의 크기를 분석한 결과 전반적으로 입자밀도가 커짐에 따라 상관영역의 크기는 작아지는 것으로 나타났지만 입자밀도가 작더라도 입자수가 큰 경우에는 신뢰수준을 만족시키는 최소 상관영역의 크기가 감소하는 것으로 나타났다.
The wall shear stress in the vicinity of end-to end anastomoses under steady flow conditions was measured using a flush-mounted hot-film anemometer(FMHFA) probe. The experimental measurements were in good agreement with numerical results except in flow with low Reynolds numbers. The wall shear stress increased proximal to the anastomosis in flow from the Penrose tubing (simulating an artery) to the PTFE: graft. In flow from the PTFE graft to the Penrose tubing, low wall shear stress was observed distal to the anastomosis. Abnormal distributions of wall shear stress in the vicinity of the anastomosis, resulting from the compliance mismatch between the graft and the host artery, might be an important factor of ANFH formation and the graft failure. The present study suggests a correlation between regions of the low wall shear stress and the development of anastomotic neointimal fibrous hyperplasia(ANPH) in end-to-end anastomoses. 30523 T00401030523 ^x Air pressure decay(APD) rate and ultrafiltration rate(UFR) tests were performed on new and saline rinsed dialyzers as well as those roused in patients several times. C-DAK 4000 (Cordis Dow) and CF IS-11 (Baxter Travenol) reused dialyzers obtained from the dialysis clinic were used in the present study. The new dialyzers exhibited a relatively flat APD, whereas saline rinsed and reused dialyzers showed considerable amount of decay. C-DAH dialyzers had a larger APD(11.70
The wall shear stress in the vicinity of end-to end anastomoses under steady flow conditions was measured using a flush-mounted hot-film anemometer(FMHFA) probe. The experimental measurements were in good agreement with numerical results except in flow with low Reynolds numbers. The wall shear stress increased proximal to the anastomosis in flow from the Penrose tubing (simulating an artery) to the PTFE: graft. In flow from the PTFE graft to the Penrose tubing, low wall shear stress was observed distal to the anastomosis. Abnormal distributions of wall shear stress in the vicinity of the anastomosis, resulting from the compliance mismatch between the graft and the host artery, might be an important factor of ANFH formation and the graft failure. The present study suggests a correlation between regions of the low wall shear stress and the development of anastomotic neointimal fibrous hyperplasia(ANPH) in end-to-end anastomoses. 30523 T00401030523 ^x Air pressure decay(APD) rate and ultrafiltration rate(UFR) tests were performed on new and saline rinsed dialyzers as well as those roused in patients several times. C-DAK 4000 (Cordis Dow) and CF IS-11 (Baxter Travenol) reused dialyzers obtained from the dialysis clinic were used in the present study. The new dialyzers exhibited a relatively flat APD, whereas saline rinsed and reused dialyzers showed considerable amount of decay. C-DAH dialyzers had a larger APD(11.70
온라인 커뮤니티에 대한 연구는 학자들과 실무자들의 많은 관심을 받아온 분야이다. 과거 많은 연구자들이 온라인 커뮤니티를 통해 큰 상업적 성과를 거둘 수 있다고 했지만 현실은 그렇지 못하며, 마케팅 연구 분야에서도 상업적 성공을 이끄는 변수들에 대한 연구가 많이 이루어지지 못한 것이 사실이다. 이러한 점에서 본 연구는 온라인 커뮤니티 사이트들이 콘텐츠 관련 마케팅 노력을 통해 소비자들의 자아일치성을 높이고, 긍정적 체험을 유도하면서 커뮤니티 사이트 내에서 소비자 간 상호작용성 등을 높여 결국, 커뮤니티 사이트의 방문충성도 및 구매충성도를 실현시킬 수 있는 프레임 웍을 제시하였다. 연구결과 온라인 커뮤니티 사이트에서 소비자 간 상호작용성이 방문충성도 그리고 특히 구매충성도의 구축에 매우 중요한 요인으로 밝혀졌고, 온라인 커뮤니티 사이트에 대한 자아일치성 지각 및 긍정적인 소비자 체험 또한 소비자의 상호작용성, 방문충성도 그리고 커뮤니티에 대한 애정에 상당히 중요한 요인임을 알 수 있었다. 또한 이러한 매개변수에 주된 영향요소로서 콘텐츠 우수성, 사이트 생동감, 네비게이션용이성, 고객화 등의 콘텐츠 관련 마케팅 노력의 역할의 중요성을 강조하였다.
데이터 센터는 컴퓨터 시스템과 관련 구성요소를 수용하기 위한 물리적 환경시설로, 빅데이터, 인공지능 스마트 공장, 웨어러블, 스마트 홈 등 차세대 핵심 산업의 필수 기반기술이다. 특히, 클라우드 컴퓨팅의 성장으로 데이터 센터 인프라의 비례적 확장은 불가피하다. 이러한 데이터 센터 설비의 상태를 모니터링하는 것은 시스템을 유지, 관리하고 장애를 예방하기 위한 방법이다. 설비를 구성하는 일부 요소에 장애가 발생하는 경우 해당 장비뿐 아니라 연결된 다른 장비에도 영향을 미칠 수 있으며, 막대한 손해를 초래할 수 있다. 특히, IT 시설은 상호의존성에 의해 불규칙하고 원인을 알기 어렵다. 데이터 센터 내 장애를 예측하는 선행연구에서는, 장치들이 혼재된 상황임을 가정하지 않고 단일 서버를 단일 상태로 보고 장애를 예측했다. 이에 본 연구에서는, 서버 내부에서 발생하는 장애(Outage A)와 서버 외부에서 발생하는 장애(Outage B)로 데이터 센터 장애를 구분하고, 서버 내에서 발생하는 복합적인 장애 분석에 중점을 두었다. 서버 외부 장애는 전력, 냉각, 사용자 실수 등인데, 이와 같은 장애는 데이터 센터 설비 구축 초기 단계에서 예방이 가능했기 때문에 다양한 솔루션이 개발되고 있는 상황이다. 반면 서버 내 발생하는 장애는 원인 규명이 어려워 아직까지 적절한 예방이 이뤄지지 못하고 있다. 특히 서버 장애가 단일적으로 발생하지 않고, 다른 서버 장애의 원인이 되기도 하고, 다른 서버부터 장애의 원인이 되는 무언가를 받기도 하는 이유다. 즉, 기존 연구들은 서버들 간 영향을 주지 않는 단일 서버인 상태로 가정하고 장애를 분석했다면, 본 연구에서는 서버들 간 영향을 준다고 가정하고 장애 발생 상태를 분석했다. 데이터 센터 내 복합 장애 상황을 정의하기 위해, 데이터 센터 내 존재하는 각 장비별로 장애가 발생한 장애 이력 데이터를 활용했다. 본 연구에서 고려되는 장애는 Network Node Down, Server Down, Windows Activation Services Down, Database Management System Service Down으로 크게 4가지이다. 각 장비별로 발생되는 장애들을 시간 순으로 정렬하고, 특정 장비에서 장애가 발생하였을 때, 발생 시점으로부터 5분 내 특정 장비에서 장애가 발생하였다면 이를 동시에 장애가 발생하였다고 정의하였다. 이렇게 동시에 장애가 발생한 장비들에 대해서 Sequence를 구성한 후, 구성한 Sequence 내에서 동시에 자주 발생하는 장비 5개를 선정하였고, 선정된 장비들이 동시에 장애가 발생된 경우를 시각화를 통해 확인하였다. 장애 분석을 위해 수집된 서버 리소스 정보는 시계열 단위이며 흐름성을 가진다는 점에서 이전 상태를 통해 다음 상태를 예측할 수 있는 딥러닝 알고리즘인 LSTM(Long Short-term Memory)을 사용했다. 또한 단일 서버와 달리 복합장애는 서버별로 장애 발생에 끼치는 수준이 다르다는 점을 감안하여 Hierarchical Attention Network 딥러닝 모델 구조를 활용했다. 본 알고리즘은 장애에 끼치는 영향이 클 수록 해당 서버에 가중치를 주어 예측 정확도를 높이는 방법이다. 연구는 장애유형을 정의하고 분석 대상을 선정하는 것으로 시작하여, 첫 번째 실험에서는 동일한 수집 데이터에 대해 단일 서버 상태와 복합 서버 상태로 가정하고 비교분석하였다. 두 번째 실험은 서버의 임계치를 각각 최적화 하여 복합 서버 상태일 때의 예측 정확도를 향상시켰다. 단일 서버와 다중 서버로 각각 가정한 첫 번째 실험에서 단일 서버로 가정한 경우 실제 장애가 발생했음에도 불구하고 5개 서버 중 3개의 서버에서는 장애가 발생하지 않은것으로 예측했다. 그러나 다중 서버로 가정했을때에는 5개 서버 모두 장애가 발생한 것으로 예측했다. 실험 결과 서버 간 영향이 있을 것이라고 추측한 가설이 입증된 것이다. 연구결과 단일 서버로 가정했을 때 보다 다중 서버로 가정했을 때 예측 성능이 우수함을 확인했다. 특히 서버별 영향이 다를것으로 가정하고 Hierarchical Attention Network 알고리즘을 적용한 것이 분석 효과를 향상시키는 역할을 했다. 또한 각 서버마다 다른 임계치를 적용함으로써 예측 정확도를 향상시킬 수 있었다. 본 연구는 원인 규명이 어려운 장애를 과거 데이터를 통해 예측 가능하게 함을 보였고, 데이터 센터의 서버 내에서 발생하는 장애를 예측할 수 있는 모델을 제시했다. 본 연구결과를 활용하여 장애 발생을 사전에 방지할 수 있을 것으로 기대된다.