• Title/Summary/Keyword: 로그계산

Search Result 177, Processing Time 0.023 seconds

Error Analysis of Delivered Dose Reconstruction Using Cone-beam CT and MLC Log Data (콘빔 CT 및 MLC 로그데이터를 이용한 전달 선량 재구성 시 오차 분석)

  • Cheong, Kwang-Ho;Park, So-Ah;Kang, Sei-Kwon;Hwang, Tae-Jin;Lee, Me-Yeon;Kim, Kyoung-Joo;Bae, Hoon-Sik;Oh, Do-Hoon
    • Progress in Medical Physics
    • /
    • v.21 no.4
    • /
    • pp.332-339
    • /
    • 2010
  • We aimed to setup an adaptive radiation therapy platform using cone-beam CT (CBCT) and multileaf collimator (MLC) log data and also intended to analyze a trend of dose calculation errors during the procedure based on a phantom study. We took CT and CBCT images of Catphan-600 (The Phantom Laboratory, USA) phantom, and made a simple step-and-shoot intensity-modulated radiation therapy (IMRT) plan based on the CT. Original plan doses were recalculated based on the CT ($CT_{plan}$) and the CBCT ($CBCT_{plan}$). Delivered monitor unit weights and leaves-positions during beam delivery for each MLC segment were extracted from the MLC log data then we reconstructed delivered doses based on the CT ($CT_{recon}$) and CBCT ($CBCT_{recon}$) respectively using the extracted information. Dose calculation errors were evaluated by two-dimensional dose discrepancies ($CT_{plan}$ was the benchmark), gamma index and dose-volume histograms (DVHs). From the dose differences and DVHs, it was estimated that the delivered dose was slightly greater than the planned dose; however, it was insignificant. Gamma index result showed that dose calculation error on CBCT using planned or reconstructed data were relatively greater than CT based calculation. In addition, there were significant discrepancies on the edge of each beam while those were less than errors due to inconsistency of CT and CBCT. $CBCT_{recon}$ showed coupled effects of above two kinds of errors; however, total error was decreased even though overall uncertainty for the evaluation of delivered dose on the CBCT was increased. Therefore, it is necessary to evaluate dose calculation errors separately as a setup error, dose calculation error due to CBCT image quality and reconstructed dose error which is actually what we want to know.

Analysis and Implementation of Web Based Log System for The Education of Software Developing Process (소프트웨어 개발 프로세스 교육을 위한 웹기반 로그 시스템의 구현 및 분석)

  • Park, Chiyeon;Yoo, Wook-Sung
    • The Journal of Korean Association of Computer Education
    • /
    • v.9 no.4
    • /
    • pp.55-61
    • /
    • 2006
  • The Personal Software Process(PSP) is a rigorous, measurements based process designed to help software developers produce high-quality codes. Learning PSP requires substantial and tedious record keeping including clerical computations with plenty of data occurred at every project. The required task reduces the educational effect and motive by time consuming characteristic and easy occurrence of errors. To alleviate these problems, a web-based PSP log system having streamlined mechanism of data manipulation is designed and implemented at this study. Three years of experiment shows that the system not only improves productivity and accuracy of the process but also allows students and instructors to focus on learning and teaching PSP, rather than PSP data collection.

  • PDF

Improved efficiency of numerical modeling using the expanding domain method with a logarithmic grid (영역확장법 및 로그격자를 이용한 수치모델링 효율 향상 연구)

  • Hong, Bo-Ram;Bae, Ho-Seuk;Ha, Wan-Soo;Chung, Woo-Keen
    • Journal of Advanced Marine Engineering and Technology
    • /
    • v.40 no.1
    • /
    • pp.75-80
    • /
    • 2016
  • Numerical modeling based on the finite difference method has been widely used with improved computer technology. However, high-capacity computing resources are required for this technique. To overcome this limitation, we propose an algorithm the employs a logarithmic grid in conjunction with the expanding domain method. The proposed algorithm was verified through comparison with numerical results obtained with a conventional method. The results confirmed that our algorithm can improve computational efficiency.

Asset Pricing From Log Stochastic Volatility Model: VKOSPI Index (로그SV 모형을 이용한 자산의 가치평가에 관한 연구: VKOSPI 지수)

  • Oh, Yu-Jin
    • The Korean Journal of Applied Statistics
    • /
    • v.24 no.1
    • /
    • pp.83-92
    • /
    • 2011
  • This paper examines empirically Durham's (2008) asset pricing models to the KOSPI200 index. This model Incorporates the VKOSPI index as a proxy for 1 month integrated volatility. This approach uses option prices to back out implied volatility states with an explicitly speci ed risk-neutral measure and risk premia estimated from the data. The application uses daily observations of the KOSPI200 and VKOSPI indices from January 2, 2003 to September 24, 2010. The empirical results show that non-affine model perform better than affine model.

Screening and Clustering for Time-course Yeast Microarray Gene Expression Data using Gaussian Process Regression (효모 마이크로어레이 유전자 발현데이터에 대한 가우시안 과정 회귀를 이용한 유전자 선별 및 군집화)

  • Kim, Jaehee;Kim, Taehoun
    • The Korean Journal of Applied Statistics
    • /
    • v.26 no.3
    • /
    • pp.389-399
    • /
    • 2013
  • This article introduces Gaussian process regression and shows its application with time-course microarray gene expression data. Gene screening for yeast cell cycle microarray expression data is accomplished with a ratio of log marginal likelihood that uses Gaussian process regression with a squared exponential covariance kernel function. Gaussian process regression fitting with each gene is done and shown with the nine top ranking genes. With the screened data the Gaussian model-based clustering is done and its silhouette values are calculated for cluster validity.

인공 신경망과 서포트 벡터 머신을 사용한 태양 양성자 플럭스 예보

  • Nam, Ji-Seon;Mun, Yong-Jae;Lee, Jin-Lee;Ji, Eun-Yeong;Park, Jin-Hye;Park, Jong-Yeop
    • The Bulletin of The Korean Astronomical Society
    • /
    • v.37 no.2
    • /
    • pp.129.1-129.1
    • /
    • 2012
  • 서포트 벡터 머신(Support Vector Machine, SVM)과 인공신경망 모형(Neural Network, NN)을 사용하여 태양 양성자 현상(Solar proton event, SPE)의 플럭스 세기를 예측해 보았다. 이번 연구에서는 1976년부터 2011년까지 10MeV이상의 에너지를 가진 입자가 10개 cm-1 sec-1 ster -1 이상 입사할 경우를 태양 양성자 현상으로 정의한 NOAA의 태양 고에너지 입자 리스트와 GOE위성의 X-ray 플레어 데이터를 사용하였다. 여기에서 C, M, X 등급의 플레어와 관련있는 178개 이벤트를 모델의 훈련을 위한 데이터(training data) 89개와 예측을 위한 데이터(prediction data) 89개로 구분하였다. 플러스 세기의 예측을 위하여, 우리는 로그 플레어 세기, 플레어 발생위치, Rise time(플레어 시작시간부터 최대값까지의 시간)을 모델 입력인자로 사용하였다. 그 결과 예측된 로그 플럭스 세기와 관측된 로그 플럭스 세기 사이의 상관계수는 SVM과 NN에서 각각 0.32와 0.39의 값을 얻었다. 또한 두 값 사이의 평균 제곱근 오차(Root mean square error)는 SVM에서 1.17, NN에서는 0.82로 나왔다. 예측된 플럭스 세기와 관측된 플럭스 세기의 차이를 계산해 본 결과, 오차 범위가 1이하인 경우가 SVM에서는 약 68%이고 NN에서는 약 80%의 분포를 보였다. 이러한 결과로부터 우리는 NN모델이 SVM모델보다 플럭스 세기를 잘 예측하는 것을 알 수 있었다.

  • PDF

Bayesian Testing for the Equality of K-Lognormal Populations (부분 베이즈요인을 이용한 K개로 로그정규분포의 상등에 관한 베이지안 다중검정)

  • 문경애;김달호
    • The Korean Journal of Applied Statistics
    • /
    • v.14 no.2
    • /
    • pp.449-462
    • /
    • 2001
  • 베이지안 다중 검정방법(multiple hypothesis test)은 여러 통계모형에서 성공적인 결과를 주는 것으로 알려져있다. 일반적으로, 베이지안 가설검정은 고려중인 모형에 대한 사후확률을 계산하여 가장 높은 확률은 갖는 모형을 선택하기 때문에 귀무가설의 기각여부에만 관심을 가지는 고전적인 분산분석 검정과는 달리 좀 더 구체적인 모형을 선택할 수 있는 장점이 있다. 이 논문에서는 독립이면서 로그정규분포를 따르는 K($\geq$3)개 모집단의 모수에 대한 가설 검정방법으로 O’Hagan(1995)이 제안한 부분 베이즈 요인을 이용한 베이지안 방법을 제안한다. 이 때 모수에 대한 사전분포로는 무정보적 사전분포를 사용한다. 제안한 검정 방법의 유용성을 알아보기 위하여 실제 자료의 분석과 모의 실험을 이용하여 고전적인 검정방법과 그 결과를 비교한다.

  • PDF

A Searching Method using Usage Algorithm for SCORM-based Virtual Learning Contents (이용도를 적용한 SCORM 기반 학습 컨텐츠 검색 방법)

  • Hyun, Young-Soon;Cho, Dong-Sub
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.647-650
    • /
    • 2005
  • 본 논문에서는 가상교육 표준안으로 주목받고 있는 SCORM(Sharable Content Object Reference Model) 기반 학습 컨텐츠의 효과적인 재사용과 공유를 위해 기존의 컨텐츠 검색방법에 사용자의 이용도를 적용하는 검색시스템을 설계하였다. 이용도를 적용한 컨텐츠 검색은 학습자의 학습활동을 모니터링하여 컨텐츠에 접근한 시간 등의 로그정보를 저장한 다음에 그 로그 정보들을 분석하여 매달마다 컨텐츠별로 학습자 수와 이용시간 등의 통계값을 구한다. 이렇게 구한 통계값을 이용하여 각 컨텐츠 마다 그 달의 학습자 이용도값을 계산해 낸다. 그리고 이 이용도 값은 학습자가 컨텐츠 검색을 할 시에 적용되어 검색된 컨텐츠 결과들이 이용도 값이 큰 순으로 정렬되어 보여지도록 한다. 따라서 사용자는 수많은 컨텐츠들 중에서 원하는 학습 컨텐츠를 검색할 때 신뢰도 있고, 많은 사람들이 이용한 컨텐츠에 쉽고 빠르게 접근할 수 있게 된다.

  • PDF

Automatic Learning of Bayesian Probabilistic Model for Mobile Life Landmark Reasoning (모바일 라이프 특이성 추론을 위한 베이지안 확률 모델의 자동 학습)

  • Hwang, Keum-Sung;Cho, Sung-Bae
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.10c
    • /
    • pp.362-366
    • /
    • 2007
  • 다양한 기능과 센서를 탑재한 최신 모바일 디바이스는 사용자의 위치, 전화기록, SMS, 사진, 동영상 등 사용자에 관한 다양한 정보를 지속적으로 수집할 수 있기 때문에 개인의 생활을 이해하고 다양한 서비스를 제공할 수 있는 가능성을 가지고 있다. 하지만, 모바일 장치의 성능 제약 및 환경 불확실성으로 인해 아직까지 많은 연구 과제들이 남아 있다. 본 논문에서는 이러한 모바일 환경의 문제를 극복하기 위해 베이지안 네트워크를 이용한 라이프 로그 분석 모델 및 자동 학습 방법을 제안한다. 제안하는 베이지안 네트워크 모델은 모듈화 되어서 계산량은 감소되었으며, 자동 학습 방법을 통해 지속적인 업데이트가 가능하다. 이는 제안하는 방법이 복잡한 확률 모델을 자동으로 분할하는 방법과 분할된 상태에서의 유기적인 추론 방법을 포함하고 있기에 가능하다. 실험에서는 실제 모바일 장치에서 수집된 로그 데이터를 이용하여 제안하는 방법에 의한 실험 결과를 분석하고 분할을 통한 효율성 향상을 논의 한다.

  • PDF

Processing Multiple Continuous Queries by sharing common join operations (공통 조인 작업 공유를 통한 다중 연속 질의 처리)

  • Park, Hong-Kyu;Lee, Won-Suk
    • 한국IT서비스학회:학술대회논문집
    • /
    • 2008.11a
    • /
    • pp.187-190
    • /
    • 2008
  • 데이터 스트림이란 제한 없이 끊임없이 흘러 들어오는 일련의 많은 양의 데이터 객체들을 의미하며, 센서 데이터 처리, 인터넷 트래픽 분석, 웹 서버 로그와 같은 다양한 트랜잭션 로그 분석등과 관련된 수많은 응용 분야에 적용 가능하기 때문에 이들을 처리 하기 위해 많은 연구가 진행되었다. 데이트 스트림을 처리하기 위해서는 미리 등록된 질의들(연속 질의)을 새롭게 들어오는 스트림 데이터들로 계산하여 그 결과를 계속적으로 생성하여야 하므로 연속 질의들은 스트림 데이터가 들어올 때마다 반복적으로 수행되며, 데이터 스트림은 매우 빠르게 입력되는 특성을 가지고 있기 때문에 보다 빠르게 질의를 처리하여야만 한다. 본 논문에서는 다수의 조인 연속 질의들이 시스템에 등록되어 있을 때, 이들을 보다 빠르게 처리할 수 있도록 여러 개의 질의에 반복적으로 적용되는 조인 연산들을 공유함으로써 최적의 질의 계획을 생성하는 기법을 제안한다.

  • PDF