• Title/Summary/Keyword: 사전추정값

Search Result 112, Processing Time 0.037 seconds

소비(消費)에 근거한 CAPM의 실증적(實證的) 연구(硏究)

  • Gu, Bon-Yeol
    • The Korean Journal of Financial Management
    • /
    • v.9 no.1
    • /
    • pp.1-23
    • /
    • 1992
  • CCAPM이 한국증권시장(韓國證券市場)에서 현실적(現實的)으로 성립가능한가에 대한 실증적 검증을 하였으며, 또한 시장(市場)포트폴리오와 대응되는 총소비지출의 성장률이 사전적(事前的)으로 효율적 프론티어(efficient frontier)상에 놓여 있는가에 대한 검증을 실시하였다. 이와 아울러 전통적인 S-L CAPM도 검증함으로써 CCAPM과 S-L CAPM을 비교분석(比較分析)하였다. 통계적 기법은 비선형하(非線型下)의 무관회귀분석과 GLS를 이용하였다. 1980년 1/4분기부터 1990년 4/4분기까지의 분기별 자료를 이용하여 분석한 결과, CCAPM은 전기간(全期間)을 표본으로 한 경우에 기대수익률과 위험과의 선형관계(線型關係)가 기각되었다. 그리고 전기간(全期間)을 전반기(前半期)와 후반기(後半期)로 나눈 하위기간별(下位期間別) 분석(分析)에서도 마찬가지의 결과를 얻었다. 한편 S-L CAPM의 경우에는 전기간(全期間)과 전반기(前半期)에는 선형관계가 기각되었으나 후반기(後半期)에는 채택되었다. 즉 후반기에는 위험프레미엄의 추정치가 0.05834이고 t값이 2.525로 매우 유의적이었으며 절편의 값이 통계적으로 0과 다르지 않아 실질무위험이자율(實質無危險利子率)이 0%로 추정되었다. 그런데 이는 실제로 3개월의 정기예금이자율과 소비자물가지수를 고려하여 구한 것과 일치함을 보였다. 그리고 이에 사용된 한국종합주가지수의 사전적(事前的) 효율성(效率性)은 전기간(全期間)과 하위기간(下位期間) 모두에 있는 것으로 판명되었다. 한편, CCAPM이 한국증권시장에서 기각되는 이유 중의 하나는 경기순환에 따른 생산활동(生産活動)이 즉시적으로 개별증권의 수익률에 영향을 주나 총소비지출은 이보다 비탄력적(非彈力的)인데 따른 것으로 생각되었다.

  • PDF

층화 집락추출시 $m_{opt}$의 결정

  • Sin, Dong-Yun;Sin, Min-Ung;Choe, Gi-Cheol
    • Proceedings of the Korean Statistical Society Conference
    • /
    • 2003.10a
    • /
    • pp.131-135
    • /
    • 2003
  • 표본조사를 하는 경우에 사전에 전체 표본의 크기를 정하여 놓고, 표본설계를 하는 경우가 많다. 이 때에는 조사 비용은 고려의 대상이 안되고 주어진 전체표본 크기로 각 층별로 표본을 할당하여 분산을 최소로 하는 문제가 된다. 이 논문에서는 pps 집락추출과 각 집락에서 같은 크기의 부표본(subsample)을 추출하여 자체 가중이 되도록 표본설계를 하는 경우에 표본의 크기 $m_{0}$가 사전에 주어졌을 때에 모총계의 추정량의 분산을 최소로 하는 최적의 표본추출율을 구하고. 이러한 $m_{0}$값들 중에서 최적의 $m_{opt}$값을 구한다.

  • PDF

Improvement in Safety Evaluation of Structures using the Bayesian Updating Approach (베이스 경신법을 활용한 구조물 안전성평가 개선)

  • Park, Kidong;Lee, Sangbok;Kim, Junki;Rha, Changsoon
    • Journal of the Computational Structural Engineering Institute of Korea
    • /
    • v.29 no.2
    • /
    • pp.115-122
    • /
    • 2016
  • The classical statistical approach using test data samples to estimate true value of Random Variables by calculating mean and variation (standard deviation or coefficient of variation) of samples is very useful to understand the existing condition of the structure. But with this classical approach, our prior knowledge through educational background and professional experience cannot provide any benefit to make decisions by the structural engineers. This paper shows the role of Bayesian methodology by providing chance of using valuable prior knowledge to come up with more accurate estimation of structural condition. This paper also shows how important it is to have a proper prior estimate of Random Variables and corresponding confidence level through gathering and studying more relevant information.

Pattern Classification Using Hybrid Monte Carlo Neural Networks (변종 몬테 칼로 신경망을 이용한 패턴 분류)

  • Jeon, Seong-Hae;Choe, Seong-Yong;O, Im-Geol;Lee, Sang-Ho;Jeon, Hong-Seok
    • The KIPS Transactions:PartB
    • /
    • v.8B no.3
    • /
    • pp.231-236
    • /
    • 2001
  • 일반적인 다층 신경망에서 가중치의 갱신 알고리즘으로 사용하는 오류 역전과 방식은 가중치 갱신 결과를 고정된(fixed) 한 개의 값으로 결정한다. 이는 여러 갱신의 가능성을 오직 한 개의 값으로 고정하기 때문에 다양한 가능성들을 모두 수용하지 못하는 면이 있다. 하지만 모든 가능성을 확률적 분포로 표현하는 갱신 알고리즘을 도입하면 이런 문제는 해결된다. 이러한 알고리즘을 사용한 베이지안 신경망 모형(Bayesian Neural Networks Models)은 주어진 입력값(Input)에 대해 블랙 박스(Black-Box)와같은 신경망 구조의 각 층(Layer)을 거친 출력값(Out put)을 계산한다. 이 때 주어진 입력 데이터에 대한 결과의 예측값은 사후분포(posterior distribution)의 기댓값(mean)에 의해 계산할 수 있다. 주어진 사전분포(prior distribution)와 학습데이터에 의한 우도함수(likelihood functions)에 의해 계산한 사후확률의 함수는 매우 복잡한 구조를 가짐으로 기댓값의 적분계산에 대한 어려움이 발생한다. 따라서 수치해석적인 방법보다는 확률적 추정에 의한 근사 방법인 몬테 칼로 시뮬레이션을 이용할 수 있다. 이러한 방법으로서 Hybrid Monte Carlo 알고리즘은 좋은 결과를 제공하여준다(Neal 1996). 본 논문에서는 Hybrid Monte Carlo 알고리즘을 적용한 신경망이 기존의 CHAID, CART 그리고 QUEST와 같은 여러 가지 분류 알고리즘에 비해서 우수한 결과를 제공하는 것을 나타내고 있다.

  • PDF

Process for Risk Severity Estimation of Weapon System Development Project using Parametric Estimation Method/Linear Kalman Filter (모수 추정기법/선형 칼만 필터를 이용한 무기체계개발 프로젝트 위험 요소의 영향도 추정 프로세스)

  • Lee, Seung-Yup
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.19 no.6
    • /
    • pp.567-574
    • /
    • 2018
  • Risk management is a method to 1) identify risks that can adversely affect the cost, schedule, and target achievement performance of a system development project, and 2) manage the identified risks based on the severity and likelihood assigned to each risk item. Risk management is applicable to various fields, since it can manage the cost/schedule and effectively guides accomplishing the target performance by identifying and managing the risks in advance, which necessitates many concurrent studies. This paper proposes a procedure to estimate the severity value for a risk item using a Kalman filter. It is assumed that the severity can be expressed as an equation consisting of cost/schedule loss during the risk event. A linear Kalman filter is used to reduce the error between the true and estimated values, which can eventually save resources spent on the risk management procedure. A simulation test case was conducted to demonstrate the validity of the proposed method.

A Study on Estimating Geomagnetic Azimuth using LSTM (LSTM을 이용한 지자기 방위각 추정 기술 연구)

  • Oh, Jongtaek;Kim, Sunghoon
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.22 no.6
    • /
    • pp.137-141
    • /
    • 2022
  • The method of estimating the azimuth by measuring the geomagnetism has been used for a very long time. However, there are many cases where an error occurs in the estimated azimuth due to disturbances in the earth's magnetic field due to metal structures inside and outside the room. Although many studies have been conducted to correct this, there is a limit to reducing the error. In this paper, we propose a method of estimating the azimuth by applying the measured geomagnetic sensor data to the neural network of the LSTM structure. Data preprocessing is very important for learning a neural network. In this paper, data is collected using the built-in acceleration sensor, gyro sensor, and geomagnetic sensor in the smartphone, and the geomagnetic sensor data is uniformly sampled using EKF. As a result, an average azimuth estimation error of 0.9 degrees was obtained using four hidden layers.

The Estimation Model of an Origin-Destination Matrix from Traffic Counts Using a Conjugate Gradient Method (Conjugate Gradient 기법을 이용한 관측교통량 기반 기종점 OD행렬 추정 모형 개발)

  • Lee, Heon-Ju;Lee, Seung-Jae
    • Journal of Korean Society of Transportation
    • /
    • v.22 no.1 s.72
    • /
    • pp.43-62
    • /
    • 2004
  • Conventionally the estimation method of the origin-destination Matrix has been developed by implementing the expansion of sampled data obtained from roadside interview and household travel survey. In the survey process, the bigger the sample size is, the higher the level of limitation, due to taking time for an error test for a cost and a time. Estimating the O-D matrix from observed traffic count data has been applied as methods of over-coming this limitation, and a gradient model is known as one of the most popular techniques. However, in case of the gradient model, although it may be capable of minimizing the error between the observed and estimated traffic volumes, a prior O-D matrix structure cannot maintained exactly. That is to say, unwanted changes may be occurred. For this reason, this study adopts a conjugate gradient algorithm to take into account two factors: estimation of the O-D matrix from the conjugate gradient algorithm while reflecting the prior O-D matrix structure maintained. This development of the O-D matrix estimation model is to minimize the error between observed and estimated traffic volumes. This study validates the model using the simple network, and then applies it to a large scale network. There are several findings through the tests. First, as the consequence of consistency, it is apparent that the upper level of this model plays a key role by the internal relationship with lower level. Secondly, as the respect of estimation precision, the estimation error is lied within the tolerance interval. Furthermore, the structure of the estimated O-D matrix has not changed too much, and even still has conserved some attributes.

Estimation of Dynamic Properties Corresponding to Global Damage for Structural Health Monitoring of Residential Buildings (주거건물의 계측유지관리를 위한 전역적 손상에 따른 동적특성 예측)

  • Kim, Ji-Young;Cho, Ja-Ock;Park, Jae-Keun;Kim, Dae-Young
    • Proceedings of the Computational Structural Engineering Institute Conference
    • /
    • 2009.04a
    • /
    • pp.200-204
    • /
    • 2009
  • 구조물의 건전도를 평가하기 위하여 계측된 데이터로부터 구조물의 동특성 변화를 분석하여 손상정도를 추정하는 방법이 많이 사용되고 있다. 최근, 다점 측정된 가속도 데이터로부터 구조물의 고유진동수 및 모드형상을 추출하고 이를 초기값과 비교하여 손상탐지를 실시함으로써 손상위치 및 손상정도를 추정하는 기법이 활발히 연구되고 있다. 그러나 이러한 방법을 실제 적용하기 위해서는 계측시스템 구축에 많은 비용이 소요되며, 손상탐지를 위한 해석과정이 복잡하기 때문에 실시간에 가깝게 유용한 정보를 거주자에게 제공하는데 한계가 있다. 따라서 본 연구에서는 실용적인 계측유지관리 시스템을 구축할 수 있도록 구조물의 손상도에 따른 동적특성의 변화를 사전에 예측하여 실제 계측된 동적특성에 대한 관리 한계치를 제공하는 방안을 제시하고자 한다.

  • PDF

Real Time Indoor Localization Using Geomagnetic Fingerprinting and Pedestrian Dead Reckoning (지구 자기장 기반 지문인식 및 추측 항법을 결합한 실시간 실내 위치정보 서비스)

  • Jang, HoJun;Choi, Lynn
    • KIISE Transactions on Computing Practices
    • /
    • v.23 no.4
    • /
    • pp.210-216
    • /
    • 2017
  • In the paper we propose and implement a new indoor localization system where the techniques of magnetic field based fingerprinting and pedestrian dead reckoning are combined. First, we determine a target's location by comparing acquired magnetic field values with a magnetic field map containing pre-collected field values at different locations and choosing the location having the closest value. As the target moves, we use pedestrian dead reckoning to estimate the expected moving path, reducing the maximum positioning error of the initial location. The system eliminates the problem of localization error accumulation in pedestrian dead reckoning with the help of the fingerprinting and does not require Wi-Fi AP infrastructure, enabling cost-effective localization solution.

Bayesian Cognizance of RFID Tags (Bayes 풍의 RFID Tag 인식)

  • Park, Jin-Kyung;Ha, Jun;Choi, Cheon-Won
    • Journal of the Institute of Electronics Engineers of Korea TC
    • /
    • v.46 no.5
    • /
    • pp.70-77
    • /
    • 2009
  • In an RFID network consisting of a single reader and many tags, a framed and slotted ALOHA, which provides a number of slots for the tags to respond, was introduced for arbitrating a collision among tags' responses. In a framed and slotted ALOHA, the number of slots in each frame should be optimized to attain the maximal efficiency in tag cognizance. While such an optimization necessitates the knowledge about the number of tags, the reader hardly knows it. In this paper, we propose a tag cognizance scheme based on framed and slotted ALOHA, which is characterized by directly taking a Bayes action on the number of slots without estimating the number of tags separately. Specifically, a Bayes action is yielded by solving a decision problem which incorporates the prior distribution the number of tags, the observation on the number of slots in which no tag responds and the loss function reflecting the cognizance rate. Also, a Bayes action in each frame is supported by an evolution of prior distribution for the number of tags. From the simulation results, we observe that the pair of evolving prior distribution and Bayes action forms a robust scheme which attains a certain level of cognizance rate in spite of a high discrepancy between the Due and initially believed numbers of tags. Also, the proposed scheme is confirmed to be able to achieve higher cognizance completion probability than a scheme using classical estimate of the number of tags separately.