• 제목/요약/키워드: Probability density estimate

검색결과 136건 처리시간 0.029초

A Probabilistic Approach for Mobile Robot Localization under RFID Tag Infrastructures

  • Seo, Dae-Sung;Won, Dae-Heui;Yang, Gwang-Woong;Choi, Moo-Sung;Kwon, Sang-Ju;Park, Joon-Woo
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1797-1801
    • /
    • 2005
  • SLAM(Simultaneous localization and mapping) and AI(Artificial intelligence) have been active research areas in robotics for two decades. In particular, localization is one of the most important issues in mobile robot research. Until now expensive sensors like a laser sensor have been used for the mobile robot's localization. Currently, as the RFID reader devices like antennas and RFID tags become increasingly smaller and cheaper, the proliferation of RFID technology is advancing rapidly. So, in this paper, the smart floor using passive RFID tags is proposed and, passive RFID tags are mainly used to identify the mobile robot's location on the smart floor. We discuss a number of challenges related to this approach, such as RFID tag distribution (density and structure), typing and clustering. In the smart floor using RFID tags, because the reader just can senses whether a RFID tag is in its sensing area, the localization error occurs as much as the sensing area of the RFID reader. And, until now, there is no study to estimate the pose of mobile robot using RFID tags. So, in this paper, two algorithms are suggested to. We use the Markov localization algorithm to reduce the location(X,Y) error and the Kalman Filter algorithm to estimate the pose(q) of a mobile robot. We applied these algorithms in our experiment with our personal robot CMR-P3. And we show the possibility of our probability approach using the cheap sensors like odometers and RFID tags for the mobile robot's localization on the smart floor.

  • PDF

EMSAC 알고리듬을 이용한 대응점 추출에 관한 연구 (Extraction of Corresponding Points Using EMSAC Algorithm)

  • 예수영;전아영;전계록;남기곤
    • 대한전자공학회논문지SP
    • /
    • 제44권4호통권316호
    • /
    • pp.44-50
    • /
    • 2007
  • 본 논문에서는 영상으로부터 획득된 대응점을 추출하기 위한 새로운 알고리듬을 제안한다. 제안하는 EMSAC 알고리듬은 EM과 RANSAC에 기반을 두고 있다. RANSAC 과정에서는 N개의 대응점들이 랜덤하게 선택되어진다. 랜덤으로 N개의 대응점을 선택하는 과정은 최대 반복횟수 내에서 적절한 파라미터가 추정될 때까지 반복된다. 이는 시간이 오래 걸리고 때로는 적절한 파라미터에 수렴하지 않는 경우도 발생한다. 그러므로 본 연구에서는 RANSAC 알고리듬에서 N개 대응점을 임의로 선택하는 대신 최적의 해가 존재할 확률이 높은 영역에서 대응점을 선택하는 EMSAC 알고리듬을 사용하였다. EMSAC 알고리듬은 반복적인 선택을 줄여 안정적이고 처리 속도가 빠른 대응점들을 추출할 수 있다.

스테레오 음향학적 에코 제거를 위한 Soft Decision 기반 필터 확장 기법 (Spectro-Temporal Filtering Based on Soft Decision for Stereophonic Acoustic Echo Suppression)

  • 이철민;배수현;김정훈;김남수
    • 한국통신학회논문지
    • /
    • 제39C권12호
    • /
    • pp.1346-1351
    • /
    • 2014
  • 본 논문은 스테레오 환경에서 발생하는 음향학적 에코 신호를 효율적으로 제거하기 위하여 시간 및 주파수 상관관계 (spectro-temporal correlation) 를 고려한 필터링을 제안하였다. 기존의 에코 패스를 직접 추정하는 방식에서 벗어나 동시 통화 검출 기법 없이 에코 스펙트럼을 추정하는 음향학적 에코 억제 기법 (acoustic echo suppression, AES) 을 적용하였다. 개선된 에코 추정을 위해 확장된 파워 스펙트럼 밀도 행렬 (extended power spectrum density matrix) 과 에코 과추정 조절 행렬 (echo overestimation control matrix) 을 도입하였다. 또한, 주파수 영역에서 음성이 존재하지 않을 확률을 적용한 soft decision 기반의 본 기법을 통해 스테레오 환경에서의 음향학적 에코 신호 제거 성능이 기존 기법에 비해 보다 향상됨을 확인하였다.

효과적인 채프 구름의 RCS 예측 방법 비교 분석 연구 (Comparative Analysis of Effective RCS Prediction Methods for Chaff Clouds)

  • 김민;이명준;이성현;박성호;공영주;우선걸;김홍락;김경태
    • 한국전자파학회논문지
    • /
    • 제29권3호
    • /
    • pp.233-240
    • /
    • 2018
  • 레이다를 사용한 미사일 표적의 정확한 탐지 및 추적을 위해서는 채프 구름의 레이다 반사 단면적(Radar Cross Section: RCS)에 대한 분석이 반드시 필요하다. 따라서 본 논문에서는 다양한 환경에서 보다 효과적인 채프 구름의 RCS 분석을 위해 채프 구름 내 채프들을 개별적으로 계산하여 합하는 RCS 예측 방법과 공기역학 모델 기반의 확률밀도분포 모델을 사용한 RCS 예측 방법을 비교 및 분석하였다. 여기서, 상기 두 기법을 보다 더 정밀하게 비교 및 분석하기 위해 본 논문에서는 상용 전자기 수치해석 소프트웨어인 FEKO 7.0을 활용하여 반 파장 다이폴 형태의 단일 채프 CAD 모델의 RCS 값을 획득하여 채프 구름의 RCS를 모사하였다. 분석 결과, 확률 밀도 분포 모델을 사용한 경우 보다 효율적으로 체프 구름의 RCS 값을 예측할 수 있음을 확인하였다.

장기간 대기오염 및 기상자료를 이용한 유효강수세정 기여율 회귀모델의 개발 및 유효성 검사 (Development and Validation Test of Effective Wet Scavenging Contribution Regression Models Using Long-term Air Monitoring and Weather Database)

  • 임득용;이태정;김동술
    • 한국대기환경학회지
    • /
    • 제29권3호
    • /
    • pp.297-306
    • /
    • 2013
  • This study used long-term air and weather data from 2000 to 2009 as raw data sets to develop regression models in order to estimate precipitation scavenging contributions of ambient $PM_{10}$ and $NO_2$ in Korea. The data were initially analyzed to calculate scavenging ratio (SR), defined as the removal efficiency for $PM_{10}$ and $NO_2$ by actual precipitation. Next, the effective scavenging contributions (ESC) with considering precipitation probability density were calculated for each sector of precipitation range. Finally, the empirical regression equations for the two air pollutants were separately developed, and then the equations were applied to test the model validity with the raw data sets of 2010 and 2011, which were not involved in the modeling process. The results showed that the predicted $PM_{10}$ ESC by the model was 23.8% and the observed $PM_{10}$ ESCs were 23.6% in 2010 and 24.0% in 2011, respectively. As for $NO_2$, the predicted ESC by the model was 16.3% and the observed ESCs were 16.4% in 2010 and 16.6% in 2011, respectively. Thus the developed regression models fitted quite well the actual scavenging contribution for both ambient $PM_{10}$ and $NO_2$. The models can then be used as a good tool to quantitatively apportion the natural and anthropogenic sink contribution in Korea. However, to apply the models for far future, the precipitation probability density function (PPDF) as a weather variable in the model equations must be renewed periodically to increase prediction accuracy and reliability. Further, in order to apply the models in a specific local area, it is recommended that the long-term oriented local PPDF should be inserted in the models.

유역 및 기상상태를 고려한 Clark 단위도의 매개변수 평가: 1. 대표 호우사상의 선정 및 분석 (Evaluation of the Clark Unit Hydrograph Parameters Considering Basin and Meteorologic at Conditions : 1. Selection and Analysis of Representative Storm Events)

  • 유철상;김기욱;이지호
    • 한국수자원학회논문집
    • /
    • 제40권2호
    • /
    • pp.159-170
    • /
    • 2007
  • 본 연구에서는 관측자료에 나타난 Clark 단위도의 매개변수를 검토하고 그 변동성을 평가하였다. 여기에는 강우-유출과정에 영향을 미치는 유역 및 기상 특성인자들을 확률밀도함수를 적용하여 정량화하고, 이를 바탕으로 하여 관측 강우-유출 사상 중 평균적인 사상을 분류하며, 마지막으로 선별된 강우-유출 사상에 대해 Clark 단위도의 평균적인 매개변수를 유도하는 과정이 포함된다. 이러한 과정을 통해 얻은 결과를 정리하면 다음과 같다. (1) 유역을 대표하는 유출특성(즉, 집중시간 및 저류상수)의 결정에는 관측 강우-유출사상의 수가 어느 정도 확보된다고 하더라도 여전히 높은 불확실성을 피하기 힘들다. (2) 집중시간의 경우는 그 분포가 상당히 왜곡된 형태여서 단순한 산술평균은 상당히 왜곡된 추정치를 제시할 가능성이 높다. 즉, 정규분포에 근거한 평균값인 산술평균은 더 이상 집중시간에 대한 대표값의 역할을 하지 못한다. 오히려 최빈값의 경우가 보다 대표성을 갖는 것으로 판단된다. 반면에 저류상수의 경우는 거의 대칭인 분포를 하고 있으므로 산술평균이 어느 정도의 대표성을 확보한다고 판단할 수 있다. 본 연구의 대상유역의 경우 집중시간은 대략 7시간 정도가, 저류상수는 대략 22시간 정도가 적절한 것으로 판단된다.

일 최대풍속의 추정확률분포에 의한 농작물 강풍 피해 위험도 판정 방법 (Prediction of Wind Damage Risk based on Estimation of Probability Distribution of Daily Maximum Wind Speed)

  • 김수옥
    • 한국농림기상학회지
    • /
    • 제19권3호
    • /
    • pp.130-139
    • /
    • 2017
  • 기상청 동네예보 풍속으로부터 농작물의 강풍피해를 예측하기 위해, 방재기상관측지점 19곳의 2012년 풍속자료를 이용하여 기상청 동네예보의 3시간 간격과 동일한 0000, 0300 ${\cdots}$ 2100 시간대의 풍속과 직전 3시간 동안의 최대풍속 간의 관계를 직선회귀식으로 표현하였다. 매 3시간 마다 추정된 최대풍속 중 가장 큰 값을 일 최대풍속으로 간주하고, 이 때의 추정오차를 정규분포와 Weibull 분포 확률밀도함수로 표현하였다. 또한 일 최대풍속과 작물 피해 임계풍속 간의 편차를 추정오차 기반 확률 분포에 적용하여 확률누적값으로 풍해 '주의보'와 '경보' 단계를 설정하였다. 19지점별 최대풍속 추정 회귀계수(a, b)와 추정오차의 표준편차 및 Weibull 분포의 모수(${\alpha}$, ${\beta}$)는 공간내삽하여 분포도로 작성하고 종관기상관측지점 4곳(순천, 남원, 임실, 장수)의 격자값을 추출하였다. 이를 이용해 2012년의 일 최대풍속을 추정하고, 배 만삼길 품종의 낙과 발생 사례에서 제시된 풍속 10m/s를 낙과 임계풍속으로 간주, 풍해 주의보와 경보를 판정하였다. 그 결과, 최대풍속 추정오차를 Weibull 분포로 표현하여 풍해 위험 정도를 판정하는 것이 정규분포만을 이용하는 것보다 더 현장에 정확한 주의보를 발령할 수 있었다.

주요성분분석과 상호정보 추정에 의한 입력변수선택 (Input Variables Selection by Principal Component Analysis and Mutual Information Estimation)

  • 조용현;홍성준
    • 한국지능시스템학회논문지
    • /
    • 제17권2호
    • /
    • pp.220-225
    • /
    • 2007
  • 본 논문에서는 주요성분분석과 상호정보 추정을 조합한 입력변수선택 기법을 제안하였다. 여기서 주요성분분석은 2차원 통계성에 기반을 둔 기법으로 입력변수 간의 종속성을 빠르게 제거하여 과추정을 방지하기 위함이고, 상호정보의 추정은 적응적 분할을 이용하여 입력변수의 확률밀도함수를 계산함으로써 변수상호간의 종속성을 좀 더 정확하게 측정하기 위함이다. 제안된 기법을 각 500개 샘플의 7개 신호를 가지는 인위적인 문제와 각 55개 샘플의 24개의 신호를 가지는 환경오염신호를 대상으로 각각 실험한 결과, 빠르고 정확한 변수의 선택이 이루어짐을 확인하였다. 또한 주요성분분석을 수행하지 않을 때와 정규분할의 상호정보 추정 때보다 제안된 방법은 각각 우수한 선택성능이 있음을 확인하였다.

밀결합 전송선 상에서 전력 저감을 위한 코드워드 생성 기법 (A Codeword Generation Technique to Reduce Dynamic Power Consumption in Tightly Coupled Transmission Lines)

  • 임재호;김덕민;김석윤
    • 대한전자공학회논문지SD
    • /
    • 제48권11호
    • /
    • pp.9-17
    • /
    • 2011
  • 반도체 공정의 발달로 인해 칩의 집적도가 높아졌으며, 연결선 사이의 간격 또한 좁아지게 되었다. 그로 인해 연결선 내에 존재하는 커패시턴스와 인덕턴스가 증가하게 되었고, 특히 전역 연결선들에서는 자신의 그라운드 커패시턴스보다 인접한 다른 연결선과의 결합 커패시턴스가 더욱 커지는 경향을 보이게 되었다. 이러한 현상으로 인해 발생하는 유도성 결합과 용량성 결합은 인접한 연결선의 신호 간섭으로 심각한 문제를 야기할 수 있다. 본 논문에서는 추가적인 연결선을 이용하여 신호 무결성을 저해시키는 누화잡음을 제거하면서, 입력 데이터의 확률을 고려하여 동적 전력 소모를 최소화하는 코드워드 생성 기법을 제안하였다. 제안한 기법의 성능평가를 위해 FastCap 및 FastHenry 프로그램과 HSPICE를 이용하여 실험한 결과, 소모 전력에서 기존 기법보다 평균 15% 정도의 감소를 보임을 확인하였다.

온도기반의 Beta Distribution Model 을 이용한 후지 사과의 성숙기 예측 (Predicting Harvest Maturity of the 'Fuji' Apple using a Beta Distribution Phenology Model based on Temperature)

  • 최인태;심교문;김용석;정명표
    • 한국환경과학회지
    • /
    • 제26권11호
    • /
    • pp.1247-1253
    • /
    • 2017
  • The Fuji variety of apple, introduced in Japan, has excellent storage quality and good taste, such that it is the most commonly cultivated apple variety in Gunwi County, North Gyeongsang Province, Korean Peninsula. Accurate prediction of harvest maturity allows farmers to more efficiently manage their farm in important aspects such as working time, fruit storage, market shipment, and labor distribution. Temperature is one of the most important factors that determine plant growth, development, and yield. This paper reports on the beta distribution (function) model that can be used to simulate the the phenological response of plants to temperature. The beta function, commonly used as a skewed probability density in statistics, was introduced to estimate apple harvest maturity as a function of temperature in this study. The model parameters were daily maximum temperature, daily optimum temperature, and maximum growth rate. They were estimated from the input data of daily maximum and minimum temperature and apple harvest maturity. The difference in observed and predicted maturity day from 2009 to 2012, with optimal parameters, was from two days earlier to one day later.