• 제목/요약/키워드: New Calculation Framework

검색결과 44건 처리시간 0.019초

이항옵션가격 모형을 활용한 CER 판매전략 구축과 이를 통한 CDM 사업 수익성 향상 방안에 관한 연구 (Using the Binomial Option Pricing Model for Strategic Sales of CER's to Improve the Economic Feasibility of CDM projects)

  • 구본상;박종호;김청운
    • 한국건설관리학회논문집
    • /
    • 제15권1호
    • /
    • pp.111-121
    • /
    • 2014
  • 청정개발체제(Clean Development Mechanism, CDM)사업은 온실가스 배출을 줄이는 대신 그에 상응하는 탄소배출권(Certified Emission Reductions, CER)의 판매를 통해 추가 수입을 얻는 대표적인 신재생에너지 사업 보조 수단이다. 그러나 선물계약으로 고정된 가격에 CER을 판매할 경우 손실위험은 피할 수 있으나 CER 가격 상승에 따르는 프리미엄 혜택은 받지 못한다. 본 연구에서는 CER 매출을 극대화하기 위한 방안으로 CER이 일정 가격이상 일 경우에만 판매하는 권한을 실물옵션으로 모델링하였다. 옵션 가치를 정량화하기 위해 이항옵션 가격 모형을 활용하였으며, 생성된 라티스를 통해 예상되는 CER의 시장가격에 따라 옵션의 행사, 지연 및 포기여부의 절점별 분석을 가능케 하였다. 더불어, '파스칼의 트라이앵글' 원리를 적용하여, 손실은 피하면서 CER 판매를 지연시킬 수 있는 연도별 확률을 구할 수 있는 방안을 정립하였다. 이를 실제 국내 CDM 사업 중 매립가스 사업에 적용해 본 결과, 옵션으로 인해 사업의 NPV가 증대되었고, 최대 3년까지 CER 판매를 지연해도 손해를 보지 않는 것으로 관측되었다. 본 연구에서 제시한 프레임워크는 분석과정에서 투명성을 제공하고 NPV분석 외에 추가적인 사업성 정보를 제공하여 CER 판매 전략에 관한 중요한 투자 의사결정 정보를 제시해 준다.

응력불변량으로 표현한 일반화된 Hoek-Brown 파괴조건식의 등가 마찰각 및 점착력 (Equivalent Friction Angle and Cohesion of the Generalized Hoek-Brown Failure Criterion in terms of Stress Invariants)

  • 이연규;최병희
    • 터널과지하공간
    • /
    • 제22권6호
    • /
    • pp.462-470
    • /
    • 2012
  • 일반화된 Hoek-Brown 암반파괴조건식을 Mohr-Coulomb 파괴조건에 기초한 암반구조물 해석법에 적용시키기 위해서는 등가 마찰각과 등가 점착력을 계산하는 과정이 필요하다. Balmer(1952)이론에 기초한 기존의 접선 순간마찰각과 순간점착력 계산식은 최소주응력 ${\sigma}_3$의 함수로 표시되므로 등가 강도정수의 정수압 의존성 및 응력경로 의존성을 이해하는 데 적합지 않다. 이 연구에서는 응력불변량을 이용하여 일반화된 Hoek-Brown식의 접선 순간마찰각과 순간점착력 계산하는 방법을 제시하여 기존의 방법이 갖는 단점을 극복하였다. 제시된 방법을 이용한 예제 해석을 통해 접선 순간마찰각과 순간점착력의 정수압 의존특성 및 파괴곡면의 팔면체 단면에서 Lode각의 의존성을 고찰하였다. 접선 순간마찰각은 삼축신장 응력조건에서 가장 크며, 접선 순간점착력은 삼축압축 응력조건에서 가장 큰 것으로 나타났다. 접선 순간마찰각과 순간점착력의 정수압 및 Lode각 의존성은 GSI 값이 큰 양호한 암반에서 상대적으로 큰 것으로 나타났다.

신도시 물순환체계 구축을 위한 습지조성 입지선정에 관한 연구 (Site Selection Model for Wetland Restoration and Creation for the Circulation of Water in a Newly-built Community)

  • 최희선;김귀곤
    • 한국조경학회지
    • /
    • 제36권6호
    • /
    • pp.43-54
    • /
    • 2009
  • 본 연구는 새롭게 조성되는 도시의 물순환체계를 구축하고, 도시화로 말미암아 증가하는 유출량을 분산 저류함은 물론, 생물다양성을 증진시킬 수 있는 습지의 조성입지와 면적을 확보하는 것에 중점을 두었다. 습지조성 입지선정을 위하여 유역분석에서부터 평가항목 선정, 가중치 산출, 주제도 작성, 종합 등 일련의 과정을 모형으로 정립하였다. 개발된 모형은 수도권에 입지해 있는 위례 신도시 개발예정지역에 적용함으로써 모형의 실행가능성과 한계를 검토하였다. 적용 결과, 유역분석단계 에서는 대상지가 13개의 소유역으로 구분되며, 개발대상지가 포함되는 유역들의 유입량은 $3,020,765m^3$인 것으로 나타났다. 개발 전 후의 유출량을 비교하면 각각 $1,901,969m^3$, $1,970,735{\sim}2,039,502m^3$로써 개발지역에서 확보해야 할 총 저류량은 $68,766{\sim}137,533m^3$로 산출되었다. 습지조성 입지선정단계에서는 각각의 주제도를 중첩한 결과, 13개 소유역별로 습지조성 우선지역이 차등적으로 분류되었다. 유출량을 저류할 수 있는 습지의 입지와 면적을 도출한 결과, 저류형 습지와 하천형 습지, 연못형 습지 등 다양한 유형의 습지조성은 물론 이들의 유기적 연계가 가능한 것으로 판단되었다. 이는 도시 전체의 물순환체계 계획의 기본골격을 제공함으로써 녹지공간과의 통합을 통해 도시생태 네트워크 계획 수립과 같은 공간계획단계에 유용하게 활용될 수 있을 것으로 판단되었다. 그러나 본 연구는 토지이용계획 이전 단계에서 도시화로 인해 예상되는 잠재적인 유출량을 기준으로 습지의 입지와 면적을 산정함에 따라 정확한 저류량의 산정을 위해서는 토지이용계획 이후 환류(feedback)과정이 요구되었으며, 습지의 유형이나 입지적 특성에 따라서 저류량 등 저류능력이 달라질 수 있음에도 불구하고 문헌에서 고찰되는 일반적인 습지 저류량을 모든 습지에 동일하게 적용했다는 점은 본 연구의 한계라 할 수 있다.

시맨틱 웹 자원의 랭킹을 위한 알고리즘: 클래스중심 접근방법 (A Ranking Algorithm for Semantic Web Resources: A Class-oriented Approach)

  • 노상규;박현정;박진수
    • Asia pacific journal of information systems
    • /
    • 제17권4호
    • /
    • pp.31-59
    • /
    • 2007
  • We frequently use search engines to find relevant information in the Web but still end up with too much information. In order to solve this problem of information overload, ranking algorithms have been applied to various domains. As more information will be available in the future, effectively and efficiently ranking search results will become more critical. In this paper, we propose a ranking algorithm for the Semantic Web resources, specifically RDF resources. Traditionally, the importance of a particular Web page is estimated based on the number of key words found in the page, which is subject to manipulation. In contrast, link analysis methods such as Google's PageRank capitalize on the information which is inherent in the link structure of the Web graph. PageRank considers a certain page highly important if it is referred to by many other pages. The degree of the importance also increases if the importance of the referring pages is high. Kleinberg's algorithm is another link-structure based ranking algorithm for Web pages. Unlike PageRank, Kleinberg's algorithm utilizes two kinds of scores: the authority score and the hub score. If a page has a high authority score, it is an authority on a given topic and many pages refer to it. A page with a high hub score links to many authoritative pages. As mentioned above, the link-structure based ranking method has been playing an essential role in World Wide Web(WWW), and nowadays, many people recognize the effectiveness and efficiency of it. On the other hand, as Resource Description Framework(RDF) data model forms the foundation of the Semantic Web, any information in the Semantic Web can be expressed with RDF graph, making the ranking algorithm for RDF knowledge bases greatly important. The RDF graph consists of nodes and directional links similar to the Web graph. As a result, the link-structure based ranking method seems to be highly applicable to ranking the Semantic Web resources. However, the information space of the Semantic Web is more complex than that of WWW. For instance, WWW can be considered as one huge class, i.e., a collection of Web pages, which has only a recursive property, i.e., a 'refers to' property corresponding to the hyperlinks. However, the Semantic Web encompasses various kinds of classes and properties, and consequently, ranking methods used in WWW should be modified to reflect the complexity of the information space in the Semantic Web. Previous research addressed the ranking problem of query results retrieved from RDF knowledge bases. Mukherjea and Bamba modified Kleinberg's algorithm in order to apply their algorithm to rank the Semantic Web resources. They defined the objectivity score and the subjectivity score of a resource, which correspond to the authority score and the hub score of Kleinberg's, respectively. They concentrated on the diversity of properties and introduced property weights to control the influence of a resource on another resource depending on the characteristic of the property linking the two resources. A node with a high objectivity score becomes the object of many RDF triples, and a node with a high subjectivity score becomes the subject of many RDF triples. They developed several kinds of Semantic Web systems in order to validate their technique and showed some experimental results verifying the applicability of their method to the Semantic Web. Despite their efforts, however, there remained some limitations which they reported in their paper. First, their algorithm is useful only when a Semantic Web system represents most of the knowledge pertaining to a certain domain. In other words, the ratio of links to nodes should be high, or overall resources should be described in detail, to a certain degree for their algorithm to properly work. Second, a Tightly-Knit Community(TKC) effect, the phenomenon that pages which are less important but yet densely connected have higher scores than the ones that are more important but sparsely connected, remains as problematic. Third, a resource may have a high score, not because it is actually important, but simply because it is very common and as a consequence it has many links pointing to it. In this paper, we examine such ranking problems from a novel perspective and propose a new algorithm which can solve the problems under the previous studies. Our proposed method is based on a class-oriented approach. In contrast to the predicate-oriented approach entertained by the previous research, a user, under our approach, determines the weights of a property by comparing its relative significance to the other properties when evaluating the importance of resources in a specific class. This approach stems from the idea that most queries are supposed to find resources belonging to the same class in the Semantic Web, which consists of many heterogeneous classes in RDF Schema. This approach closely reflects the way that people, in the real world, evaluate something, and will turn out to be superior to the predicate-oriented approach for the Semantic Web. Our proposed algorithm can resolve the TKC(Tightly Knit Community) effect, and further can shed lights on other limitations posed by the previous research. In addition, we propose two ways to incorporate data-type properties which have not been employed even in the case when they have some significance on the resource importance. We designed an experiment to show the effectiveness of our proposed algorithm and the validity of ranking results, which was not tried ever in previous research. We also conducted a comprehensive mathematical analysis, which was overlooked in previous research. The mathematical analysis enabled us to simplify the calculation procedure. Finally, we summarize our experimental results and discuss further research issues.