• 제목/요약/키워드: representative probability distribution

검색결과 66건 처리시간 0.021초

수분유입방향을 고려한 강릉지역 태풍 루사의 수분최대화비 산정 (Estimation of the Moisture Maximizing Rate based on the Moisture Inflow Direction : A Case Study of Typhoon Rusa in Gangneung Region)

  • 김문현;정일원;임은순;권원태
    • 한국수자원학회논문집
    • /
    • 제40권9호
    • /
    • pp.697-707
    • /
    • 2007
  • 본 연구에서는 2002년 강릉지역에 큰 피해를 일으킨 태풍 루사(Rusa) 호우 사례에 대하여 PMP(Probable Maximum Precipitation)의 산정 및 전이에서 발생할 수 있는 문제에 대해 분석하였다. PMP산정을 위해서는 2가지 이슬점온도 산정이 선행되어야 한다. 본 연구에서는 그 중 대표 12시간 지속 이슬점온도를 지상일기도, 지표 풍향, 850 hPa 수분속, 유선장 뿐만 아니라 강릉 지역의 지형적 특성까지 고려하여 수분 유입 지역을 결정한 후 계산하였다. 또한 최대 12시간 지속 이슬점은 과거 42년간(1961년${\sim}$2002년)의 강릉지역 이슬점 온도 자료를 통해 방재연구소에서 제공하는 FARD2002 통계프로그램을 이용하여 계산하였다. 이 프로그램에서 확률분포형으로는 Extreme Type I (Gumbel distribution)을 선정하였고 매개변수 추정방법으로 모멘트법을 사용하여 유의수준 5%에서 재현기간 50년 빈도 분석을 통해 이슬점 온도를 계산하였으며, 계산 방법을 3가지 구분하여 분석하였다. 이 결과 기존의 연구에서는 대표 및 최대 12시간 지속 이슬점의 차가 $2.98^{\circ}C$였으나 본 연구 결과에 따르면 $4.55^{\circ}C$(I방법) ${\sim}6.05^{\circ}C$(III방법)로 큰 차이를 보였다. 또한 이와 같은 과정들을 통해 수분최대화비를 산정한 결과 기존에 비해 $0.20{\sim}0.40$ 정도 크게 산정되었으며, 이 수분최대화비를 기존 무명천 유역(면적 $3.76km^2$)의 호우전이비 및 DAD(Depth-Area-Duration) 분석결과를 이용하여 전이한 결과에서도 $16{\sim}31%$ 정도 강수량이 크게 계산되는 것으로 나타났다.전류 변동 제어에서 노이즈 지수가 증가하면 CTDIvol과 DLP가 감소하였으나 노이즈는 증가하였다. 생식부위를 포함하는 하지 정맥조영술에서 Z-축 자동 관전류 변동 제어 방법이 고정 관전류 기법에 비해 선량을 감소하는 효과가 있었다.되었다. ICRU 38의 권고에 따른 방광선량은 ICRU 치료계획 및 CTV 치료계획에서 각각 $90.1{\pm}21.3%,\;68.7{\pm}26.6%$이었고(p=0.001), 직장선량은 $86.4{\pm}18.3%,\;76.9{\pm}15.6%$이었다(p=0.08). 방광 및 직장선량의 최대 점선량 또한 ICRU 치료계획과 CTV계획에서 각각 $137.2{\pm}50.1%$ vs $107.6{\pm}47.9%$, (p=0.008), $101.1{\pm}41.8%$ vs $86.9{\pm}30.8%$ (p=0.045) 로서 CTV 치료계획에서 정상조직에 조사되는 선량이 더 적게 나타났다. 그러나 잔류종양이 4cm 이상인 환자에서는 CTV 치료계획에서 정상조직 선량이 권고 선량보다 현저히 높게 나타났다. 방광 및 직장의 용적선량에서는 투여선량의 80% 이상을 받는 직장용적선량(V80rec)은 ICRU 치료계획 및 CTV 치료계획에서 각각 $1.8{\pm}2.4cm^3,\;0.7{\pm}1.0cm^3$(p=0.02), 방광용적선량(V80bla)은 $12.2{\pm}8.9cm^3,\;3.5{\pm}4.1cm^3$로서 역시 CTV 치료계획에서 적게 조사되었다(p=0.005). 기존의 ICRU 치료계획은 잔류종양의 크기가 작은 경우 불필요하게 정상조직에 많은 선량이 투여되기 때문에 CT를 이용한 CTV 치료계획을 적용하여 정상조직에 대한 피폭을 현저히 낮추고 잔류종양에 목표한 선량을 조사할 수

신주(新株)의 저가상장현상(低價上場現象)과 투자(投資)의 효율성(效率成)에 대한 연구(硏究) (Underpricing of Initial Offerings and the Efficiency of Investments)

  • 남일총
    • KDI Journal of Economic Policy
    • /
    • 제12권2호
    • /
    • pp.95-120
    • /
    • 1990
  • 비상장기업(非上場企業)이 최초로 주식시장(株式市場)에 발행하는 신주(新株)가 실제가치에 비해 낮은 가격(價格)에 상장(上場)되는 신주(新株)의 저평가현상(低評價現象)이 번번히 일어나고 있으나 아직 그 원인(原因)이 명확히 밝혀지고 있지 않다. 또한 신주발행(新株發行)을 통한 자본조달(資本調達)의 효율성(效率性)에 관한 기존(旣存)의 연구도 전무(前無)하다. 본고(本稿)에서는 기업(企業)의 수익성(收益性)에 관하여 기업주(企業主)의 우월(優越)한 정보(情報)를 가정한 신호경기적(信號競技的) 모델의 분석(分析)을 통하여 신주(新株)의 저가상장(低價上場) 원인(原因)을 밝혀내고 아울러 신주발행(新株發行)을 통한 자본조달(資本調達)의 효율성(效率性)을 검토해 보았다. 모델의 분리균형(分離均衡)의 분석(分析)을 통해 밝혀진 주요 결과는 다음과 같다. 고수익성(高收益性)프로젝트를 가진 기업주(企業主)는 프로젝트가 저수익성(低收益性)인 경우에는 선택할 유인(誘因)이 없는 발행조건 중 자신에게 가장 유리한 조건을 선택함으로써 투자자들에게 기업이 고수익성(高收益性)임을 입증(立證)하고자 하며 이 과정에서 선택된 고수익성기업(高收益性企業)의 발행조건의 성격은 다음과 같다. 첫째, 넓은 범위와 모수(母數)값에 대해 신주가격(新株價格)은 판매대금(販賣代金)이 기업(企業)에 유입(流入)된 이후 1주(株)에 해당하는 기업(企業)의 가치에 미달한다. 둘째, 기업(企業)에 유입(流入)되는 자본(資本)은 프로젝트로부터의 잠재적(潛在的) 이윤(利潤)을 극대화(極大化)하는 액수에 미달한다. 따라서 신주(新株)의 저가상장(低價上場)은 고수익성기업주(高收益性企業主)의 신호행위(信號行爲)의 결과이며 또한 신주(新株)의 저가상장(低價上場)은 저투자(低投資)를 의미한다.

  • PDF

초.중.고등학교 확률과 통계 단원에 나타난 표본개념에 대한 분석 (Features of sample concepts in the probability and statistics chapters of Korean mathematics textbooks of grades 1-12)

  • 이영하;신수영
    • 대한수학교육학회지:수학교육학연구
    • /
    • 제21권4호
    • /
    • pp.327-344
    • /
    • 2011
  • 본 연구는 고등학교 수학교과에서 배우는 모평균의 신뢰구간 구하기와 같은 통계적 추론 능력을 기르기 위한 방안의 첫 단계연구이다. 통계적 추론과정을 비판적으로 분석하여 신뢰할만한 추론방법으로 이를 인정할 수 있는 표본개념의 형성을 위해, 연구자들은 우연과 필연, 귀납과 연역, 가능성원리, 통계량의 변이성, 통계적 모형 등의 하위 개념들이 형성되어야 한다고 보았다. 그리고 초중등 통계단원의 전 과정에서 이들 개념의 체계적인 발달을 도모해야 한다는 전제 아래, 초 중 고등학교 통계단원을 분석해 본 결과는 아래와 같았다. 첫째, 문제해결 방법 선택의 지도와 관련하여, 통계적 방법을 선택할 문제 상황으로서, 우연적 상황을 필연적 상황과 구분하기위한 설명이 있는 교과서가 초등학교에는 없고, 중등 수준에서도 매우 드물었다. 둘째 표본의 모집단 관련 의미를 이해시키려는 단계적 준비가 미흡하다고 할 수 있다. 전체와 부분의 모집단과 표본 구분이 고등학교에서 비로소 공식화되고 있으며, 초 중학교에서 사용되는 표본자료는 그것으로부터 얻어지는 계산적 결과에만 초점이 맞추어짐으로서, 학년이 올라감에 따라 모집단을 향한 귀납적 추론의 신뢰성에 대한 비판적 사고의 깊이가 더해지는 모습을 찾아보기 어려웠다. 셋째, 무작위 추출이 갖는 대표성의 의미에 대한 설명보다는 무작위 활동 자체에 대한 설명이 중심이 됨으로서 무작위 추출의 확률적 의미, 즉 무작위 표본을 통해 구해질 통계량의 표집분포에서의 (상속된) 무작위성을 위한 담보로서의 목적에 대한 설명이 없다는 점이다. 넷째 통계적 추론을 수학(연역)적 추론과 구분해 주는 설명이 없을 뿐 아니라, 학습자의 논리성 발달 수준에 맞게 변화하는 가능성원리에 대한 설명, 적용 등을 전혀 찾기 어렵다는 점이다. 다섯째 통계량의 우연변이성과 그에 따른 표집분포의 존재에 대한 이해를 추구하는 설명을 찾기 어렵다는 점이다. 표집분포를 수학적으로 구하는 것은 매우 어려운 과정이지만, 그것의 존재를 인식하느냐 못하느냐는 통계적 추론 자체의 이해 가능성을 달리하는 중요한 문제이기 때문이다.

  • PDF

단계적 야생동식물 선량평가 코드 K-BIOTA의 특성 및 적용 (Characteristics of the Graded Wildlife Dose Assessment Code K-BIOTA and Its Application)

  • 금동권;전인;임광묵;최용호;김병호
    • Journal of Radiation Protection and Research
    • /
    • 제40권4호
    • /
    • pp.252-260
    • /
    • 2015
  • 본 논문은 ICRP103 환경방호를 대비하여 국내에서 개발된 야생동식물 선량평가 코드 K-BIOTA의 기술적 배경 및 적용 사례를 기술한다. K-BIOTA는 스크리닝(screening) 선량평가(Level 1&2)와 부지 특성적 상세평가(Level 3)의 3단계의 단계적 평가방법을 적용한다. 스크리닝 단계평가는 상세평가의 필요성 여부를 판단하기 위한 예비적 평가 단계로 개별적인 생물종보다는 동식물을 그룹별로 구분하여 평가한다. Level 1 평가는 스크리닝 목적의 참조준위로부터 유도된 최대환경매체농도 값과 실제 환경매체농도 값의 비교로부터 위험도 지표(risk quotient)를 계산한다. Level 1 평가 결과 위험도 지표가 1보다 작으면 생태계의 건전성이 유지된다는 결론과 함께 평가를 종료하고, 1 보다 크면 동식물 그룹별로 평균적인 전이계수나 평형분배계수 값을 적용하여 조금 더 실제적인 Level 2 평가를 수행한다. 따라서 Level 2 평가가 Level 1 평가보다 덜 보수적이다. Level 2평가에서 위험도지표가 1 보다 작으면 생태계의 건전성이 유지된다는 결론을 내리고 평가를 종료하고, 1보다 크면 Level 3 평가를 수행한다, Level 3 평가는 부지 특성적 데이터를 고려하는 상세평가단계로, 동식물 그룹별 평가 대신 부지 대표적 동식물에 대한 개별적 선량평가를 수행하며, 대표적 동식물의 종류 및 크기, 거주인자, 전이계수, 평형분배계수에 대한 부지 특성적인 값을 사용한다. 또한 Level 3 평가 단계에서는 전이계수, 평형분배계수, 환경매체농도 (토양농도 또는 물의 농도)에 대한 개별 동식물의 피폭 선량률에 대한 불확실도 분석을 선택적으로 수행할 수 있다. 적용 가능한 확률밀도함수는 정규분포, 로그정규분포, 균일분포, 지수분포의 4가지이다. 국제원자력기구의 EMRAS II (Environmental Modeling for Radiation Safety) 모델 시나리오 비교 공동연구에 참가하여 K-BIOTA의 적용성을 검증하였다. 그 결과로 K-BIOTA는 다양한 오염 환경에서 거주하는 야생동식물의 방사선 영향을 평가하는데 유용함이 입증되었다.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

텍스트 마이닝을 이용한 2012년 한국대선 관련 트위터 분석 (Analysis of Twitter for 2012 South Korea Presidential Election by Text Mining Techniques)

  • 배정환;손지은;송민
    • 지능정보연구
    • /
    • 제19권3호
    • /
    • pp.141-156
    • /
    • 2013
  • 최근 소셜미디어는 전세계적 커뮤니케이션 도구로서 사용에 전문적인 지식이나 기술이 필요하지 않기 때문에 이용자들로 하여금 콘텐츠의 실시간 생산과 공유를 가능하게 하여 기존의 커뮤니케이션 양식을 새롭게 변화시키고 있다. 특히 새로운 소통매체로서 국내외의 사회적 이슈를 실시간으로 전파하면서 이용자들이 자신의 의견을 지인 및 대중과 소통하게 하여 크게는 사회적 변화의 가능성까지 야기하고 있다. 소셜미디어를 통한 정보주체의 변화로 인해 데이터는 더욱 방대해지고 '빅데이터'라 불리는 정보의 '초(超)범람'을 야기하였으며, 이러한 빅데이터는 사회적 실제를 이해하기 위한 새로운 기회이자 의미 있는 정보를 발굴해 내기 위한 새로운 연구분야로 각광받게 되었다. 빅데이터를 효율적으로 분석하기 위해 다양한 연구가 활발히 이루어지고 있다. 그러나 지금까지 소셜미디어를 대상으로 한 연구는 개괄적인 접근으로 제한된 분석에 국한되고 있다. 이를 적절히 해결하기 위해 본 연구에서는 트위터 상에서 실시간으로 방대하게 생성되는 빅스트림 데이터의 효율적 수집과 수집된 문헌의 다양한 분석을 통한 새로운 정보와 지식의 마이닝을 목표로 사회적 이슈를 포착하기 위한 실시간 트위터 트렌드 마이닝 시스템을 개발 하였다. 본 시스템은 단어의 동시출현 검색, 질의어에 의한 트위터 이용자 시각화, 두 이용자 사이의 유사도 계산, 트렌드 변화에 관한 토픽 모델링 그리고 멘션 기반 이용자 네트워크 분석의 기능들을 제공하고, 이를 통해 2012년 한국 대선을 대상으로 사례연구를 수행하였다. 본 연구를 위한 실험문헌은 2012년 10월 1일부터 2012년 10월 31일까지 약 3주간 1,737,969건의 트윗을 수집하여 구축되었다. 이 사례연구는 최신 기법을 사용하여 트위터에서 생성되는 사회적 트렌드를 마이닝 할 수 있게 했다는 점에서 주요한 의의가 있고, 이를 통해 트위터가 사회적 이슈의 변화를 효율적으로 추적하고 예측하기에 유용한 도구이며, 멘션 기반 네트워크는 트위터에서 발견할 수 있는 고유의 비가시적 네트워크로 이용자 네트워크의 또 다른 양상을 보여준다.