• Title/Summary/Keyword: 모형 업데이트

Search Result 37, Processing Time 0.028 seconds

A Development of JPEG-LS Platform for Mirco Display Environment in AR/VR Device. (AR/VR 마이크로 디스플레이 환경을 고려한 JPEG-LS 플랫폼 개발)

  • Park, Hyun-Moon;Jang, Young-Jong;Kim, Byung-Soo;Hwang, Tae-Ho
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.14 no.2
    • /
    • pp.417-424
    • /
    • 2019
  • This paper presents the design of a JPEG-LS codec for lossless image compression from AR/VR device. The proposed JPEG-LS(: LosSless) codec is mainly composed of a context modeling block, a context update block, a pixel prediction block, a prediction error coding block, a data packetizer block, and a memory block. All operations are organized in a fully pipelined architecture for real time image processing and the LOCO-I compression algorithm using improved 2D approach to compliant with the SBT coding. Compared with a similar study in JPEG-LS, the Block-RAM size of proposed STB-FLC architecture is reduced to 1/3 compact and the parallel design of the predication block could improved the processing speed.

A Study on the War Simulation and Prediction Using Bayesian Inference (베이지안 추론을 이용한 전쟁 시뮬레이션과 예측 연구)

  • Lee, Seung-Lyong;Yoo, Byung Joo;Youn, Sangyoun;Bang, Sang-Ho;Jung, Jae-Woong
    • The Journal of the Korea Contents Association
    • /
    • v.21 no.11
    • /
    • pp.77-86
    • /
    • 2021
  • A method of constructing a war simulation based on Bayesian Inference was proposed as a method of constructing heterogeneous historical war data obtained with a time difference into a single model. A method of applying a linear regression model can be considered as a method of predicting future battles by analyzing historical war results. However it is not appropriate for two heterogeneous types of historical data that reflect changes in the battlefield environment due to different times to be suitable as a single linear regression model and violation of the model's assumptions. To resolve these problems a Bayesian inference method was proposed to obtain a post-distribution by assuming the data from the previous era as a non-informative prior distribution and to infer the final posterior distribution by using it as a prior distribution to analyze the data obtained from the next era. Another advantage of the Bayesian inference method is that the results sampled by the Markov Chain Monte Carlo method can be used to infer posterior distribution or posterior predictive distribution reflecting uncertainty. In this way, it has the advantage of not only being able to utilize a variety of information rather than analyzing it with a classical linear regression model, but also continuing to update the model by reflecting additional data obtained in the future.

Deep-learning Prediction Based Molecular Structure Virtual Screening (딥러닝 예측 기반의 OLED 재료 분자구조 가상 스크리닝)

  • Jeon, Yerin;Lee, Kyu-Hwang;Lee, Hokyung
    • Korean Chemical Engineering Research
    • /
    • v.58 no.2
    • /
    • pp.230-234
    • /
    • 2020
  • A system that uses deep-learning techniques to predict properties from molecular structures has been developed to apply to chemical, biological and material studies. Based on the database where molecular structure and property information are accumulated, a deep-learning model looking for the relationship between the structure and the property can eventually provide a property prediction for the new molecular structure. In addition, experiments on the actual properties of the selected molecular structure will be carried out in parallel to carry out continuous verification and model updates. This allows for the screening of high-quality molecular structures from large quantities of molecular structures within a short period of time, and increases the efficiency and success rate of research. In this paper, we would like to introduce the overall composition of the materiality prediction system using deep-learning and the cases applied in the actual excavation of new structures in LG Chem.

Application of K-BASINRR developed for Continuous Rainfall Runoff Analysis to Yongdam Dam Test Bed (장기유출해석을 위하여 개발된 K-BASINRR의 용담댐 시험유역 적용)

  • Kim, Yeonsu;Jung, Ji Young;Noh, Joonwoo;Kim, Sung Hoon
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2017.05a
    • /
    • pp.211-211
    • /
    • 2017
  • 장기유출해석 모델은 수자원의 안정적인 확보와 이용, 유역단위 기초자료 조사관리 등을 위하여 수자원 장기종합계획 및 전국유역조사사업 등에 활용되고 있다. 주로 국외에서 개발된 모형이 활용되고 있어, 국내의 여건에 맞추어 편의성이 개선된 모형을 찾는 것은 매우 어려운 일이다. 또한, 유출해석을 수행하기에 앞서 지속적으로 업데이트된 모델에 대한 객관적인 평가를 수행한 사례는 드물다. 따라서, 본 연구에서는 국내에서 주로 활용되고 있는 장기유출해석모델(TANK, SWAT, SSARR, PRMS 등)에 대한 비교검토를 토대로 각종 사업과의 연계성, 계산의 효율성, 정확도 등을 고려하여 USGS에서 개발한 PRMS v.4.0.2를 기반으로 국내유역에 활용이 가능하도록 개선한 $K-BASIN^{RR}$ 및 입력자료 전처리기를 개발하였다. PRMS 모형은 융설 및 지하수 흐름 등 다양한 기능을 포함하여 강우유출 분석에 활용성 높은 모형으로 평가받고 있으나, 국내 OS환경 및 활용 단위계에서 활용성이 떨어지는 단점이 있다. 본 연구에서는 소스코드 개선 및 GUI구축을 통하여 PC 환경에서 구동이 쉽도록 재구성하였고, 사용자 편의성 확보를 위한 입력자료 전처리기를 개발함으로써 수자원단위지도 3.0, 임상도 재분류 테이블, 토양도 재분류 테이블의 DB화 및 모형의 구동을 위한 HRU분할, 입력자료 생성이 가능하도록 하였다. 매개변수 최적화를 위하여 하천 유량뿐만 아니라 기저유출량을 대상으로 Monte-Carlo 시뮬레이션 기반의 매개변수를 최적화 기능을 탑재하였다. 개발된 모형의 적용성 평가를 위하여 용담댐 시험유역을 대상으로 11년 간(2005-2015)의 강우 및 온도자료를 입력자료로 활용하여 모의한 결과 샘플의 개수에 따라 NSE(Nash-Sutcliffe Efficiency)를 0.9까지 추정이 가능함을 파악하였다. 또한, 유출량과 기저유출에 대하여 동시에 최적화를 수행하는 경우 NSE를 유출량에 대하여 0.8, 기저유출량에 대하여 0.6까지 추정이 가능하였다. 최적화된 모의 결과에 대한 검토를 위하여 계산증발산량을 측정증발산량과 비교한 결과, 유사한 패턴을 나타내는 것을 확인할 수 있었다. 본 연구에서 개발한 $K-BASIN^{RR}$을 활용하는 경우 장기유출해석 업무에 효율성 및 정확도를 향상할 수 있을 것으로 판단된다.

  • PDF

A Software Reliability Cost Model Based on the Shape Parameter of Lomax Distribution (Lomax 분포의 형상모수에 근거한 소프트웨어 신뢰성 비용모형에 관한 연구)

  • Yang, Tae-Jin
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.9 no.2
    • /
    • pp.171-177
    • /
    • 2016
  • Software reliability in the software development process is an important issue. Software process improvement helps in finishing with reliable software product. Infinite failure NHPP software reliability models presented in the literature exhibit either constant, monotonic increasing or monotonic decreasing failure occurrence rates per fault. In this study, reliability software cost model considering shape parameter based on life distribution from the process of software product testing was studied. The cost comparison problem of the Lomax distribution reliability growth model that is widely used in the field of reliability presented. The software failure model was used the infinite failure non-homogeneous Poisson process model. The parameters estimation using maximum likelihood estimation was conducted. For analysis of software cost model considering shape parameter. In the process of change and large software fix this situation can scarcely avoid the occurrence of defects is reality. The conditions that meet the reliability requirements and to minimize the total cost of the optimal release time. Studies comparing emissions when analyzing the problem to help kurtosis So why Kappa efficient distribution, exponential distribution, etc. updated in terms of the case is considered as also worthwhile. In this research, software developers to identify software development cost some extent be able to help is considered.

Evaluation on applicability of on/off-line parameter calibration techniques in rainfall-runoff modeling (온·오프라인 매개변수 보정기법에 따른 강우-유출해석 적용성 평가)

  • Lee, Dae Eop;Kim, Yeon Su;Yu, Wan Sik;Lee, Gi Ha
    • Journal of Korea Water Resources Association
    • /
    • v.50 no.4
    • /
    • pp.241-252
    • /
    • 2017
  • This study aims to evaluate applicability of both online and offline parameter calibration techniques on rainfall-runoff modeling using a conceptual lumped hydrologic model. To achieve the goal, the storage function model was selected and then two different automatic calibration techniques: SCE-UA (offline method) and particle filter (online method) were applied to calibrate the optimal parameter sets for 9 rainfall events in the Cheoncheon catchment, upper area of the Yongdam multi-purpose dam. In order to assess reproducibility of hydrographs from the parameter sets of both techniques, the observed discharge of each event was divided into low flow (below average flow) and high flow (over average flow). The results show that the particle filter method, updating the parameters in real-time, provides more stable reproducibility than the SCE-UA method regardless of low and high flow. The optimal parameters estimated by SCE-UA are very sensitive to the selected objective functions used in this study: RMSE and HMLE. In particular, the parameter sets from RMSE and HMLE demonstrate superior goodness-of-fit values for high flow and low flow periods, respectively.

Development of weekly rainfall-runoff model for drought outlooks (가뭄전망을 위한 주간 강우-유출 모형의 개발 및 적용)

  • Kang, Shinuk;Chun, Gunil;Nam, Woosung;Park, Jinhyeog
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2019.05a
    • /
    • pp.214-214
    • /
    • 2019
  • 가뭄이 '심함' 단계 이상 도달 시에는 매주 수문분석을 수행하여 가뭄전망을 수행하여야 한다. 이를 위해서는 기상청의 강수량과 기온 등의 기상예측 자료가 필요하다. 현재 기상청에서는 3개월 기상전망으로 월단위 강수량과 평균기온을 매월 제공하고 있다. 1개월 전망에서 4주의 강수량합과 평균기온을 제공하고 있다. 하지만, 향후 4주간을 전망하는 1개월 전망에서는 1주단위의 강수량과 평균기온이 아닌, 4주간의 강수량합과 평균기온을 1주일 단위로 업데이트해 WINS에 제공하고 있다. 1주단위의 강수량과 평균기온을 취득하기 어려워, 평년 일단위 강수량과 평균기온 자료를 사용하여 4주간의 자료를 1주 단위로 분할하는 방법을 사용하였다. 주간단위 수문자료의 처리를 위해 국제표준기구(ISO)에서 제시하는 기준(ISO 8601)에 따랐다. ISO 8601은 월요일부터 일요일까지를 1주로 정의하며 현재 사용하고 있는 날짜체계와 1대1로 대응되도록 하였다. 예를 들면 1981년 2월 22일은 '1981-W07-7' 또는 '1981W077'로 표시한다. 표시된 형식은 1981년 7번째 주 일요일을 뜻한다. 이 기준에 따라 수문자료를 정리할 수 있도록 프로그램을 개발하였다. 주간 단위 잠재증발산량 계산은 월잠재증발산량 프로그램을 1주단위로 계산할 수 있도록 수정 및 보완하여 개발하였다. 수정 및 보완한 부분은 외기복사(外氣輻射)량 계산부분이다. 외기복사량은 지구가 태양을 1년 주기로 공전하므로 특정 위도에서 특정날짜에 따라 복사량이 달라지므로 주간단위의 월요일부터 일요일에 해당하는 날짜의 외기복사량을 각각 계산하고 이를 평균하여 주간단위 대푯값으로 사용하도록 하였다. 계산된 주간단위 외기복사량과 최고 최저기온을 입력하여 Hargreaves식에 의해 잠재증발산량을 계산한다. 융적설을 포함한 주단위 강우-유출 모형의 매개변수를 추정하기 위해 전국 24개 지점의 수문자료를 사용하였다. abcd 모형과 융적설모듈의 초기값 포함 11개 매개변수를 SCE-UA 전역최적화 알고리즘으로 추정하였다. 추정된 유역의 매개변수는 토양배수, 토양심도, 수문지질, 유역특성인자를 사용한 군집분석 결과에 의해 113개 중권역에 할당하였다. 개발된 주간단위 강우-유출 모형은 비교적 단기 가뭄전망을 위해 사용된다. 계산된 유량은 자연유량이며, 전국 취수장 수량, 하수처리장 방류수, 회귀수를 반영하여 지점별 유량을 계산하여 가뭄전망에 사용되고 있다.

  • PDF

PDA Personalized Agent System (PDA용 개인화 에이전트 시스템)

  • 표석진;박영택
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2002.11a
    • /
    • pp.345-352
    • /
    • 2002
  • 무선 인터넷을 이용하는 사용자는 정보의 양의 따른 시간적 통신비용의 증가 문제로 개인화 에이전트가 사용자의 관심에 따라 서비스를 제공하는 기능과 맞춤화된 정보를 제공하는 기능, 지식 기반 방식으로 정보를 예측하는 기능을 가지기를 바라고 있다. 본 논문에서는 이와 같이 무선 인터넷을 사용하는 사용자를 위한 PDA 개인화 에이전트 시스템을 구축하고자 한다. PDA 개인화 에이전트 시스템 구축을 위해 프로파일 기반의 에이전트 엔진과 사용자 프로파일을 이용한 지식기반 방식을 사용한다. 사용자가 웹페이지에서 행하는 행위들을 모니터링하여 사용자가 관심 가지는 문서를 파악하고 정보 검색을 통해 얻어진 문서를 분석하여 사용자 각각의 관심 문서로 나누어 서비스하게 된다. 모니터링 되어진 문서를 효과적으로 분석하기 위해 unsupervised clustering 기계학습 방식인 Cobweb을 이용한다. unsupervised 기계 학습은 conceptual 방식을 이용하여 검색되어진 정보를 사용자의 관심 분야별로 clustering한다. 클러스터링을 통해 얻어진 결과를 다시 기계학습을 통해 사용자 관심문서에 대한 프로파일을 생성하게 된다. 이렇게 만들어진 프로파일을 룰(Rule)로 만들어 이를 기반으로 사용자에게 서비스하게 된다. 이러한 룰은 사용자의 모니터링 결과로 얻어지기 때문에 주기적으로 업데이트하게 된다. 제안하는 시스템은 인터넷신문이나 웹진 등에서 사용자들에게 뉴스를 전달하기 위한 목적으로 생성하는 뉴스문서를 특정 대상으로 선정하였고 사용자 정보를 이용한 검색을 실시하고 결과로 얻어진 정보를 정보 분류를 통해 PDA나 휴대폰을 통해 사용자에게 제공한다. 상품을 검색하기 위한 검색노력을 줄이고, 검색된 대안들로부터 구매자와 시스템이 웹상에서 서로 상호작용(interactivity) 하여 해를 찾고, 제약조건과 규칙들에 의해 적합한 해를 찾아가는 방법을 제시한다. 본 논문은 구성기반 예로서 컴퓨터 부품조립을 사용해서 Template-based reasoning 예를 보인다 본 방법론은 검색노력을 줄이고, 검색에 있어 Feasibility와 Admissibility를 보장한다.매김할 수 있는 중요한 계기가 될 것이다.재무/비재무적 지표를 고려한 인공신경망기법의 예측적중률이 높은 것으로 나타났다. 즉, 로지스틱회귀 분석의 재무적 지표모형은 훈련, 시험용이 84.45%, 85.10%인 반면, 재무/비재무적 지표모형은 84.45%, 85.08%로서 거의 동일한 예측적중률을 가졌으나 인공신경망기법 분석에서는 재무적 지표모형이 92.23%, 85.10%인 반면, 재무/비재무적 지표모형에서는 91.12%, 88.06%로서 향상된 예측적중률을 나타내었다.ting LMS according to increasing the step-size parameter $\mu$ in the experimentally computed. learning curve. Also we find that convergence speed of proposed algorithm is increased by (B+1) time proportional to B which B is the number of recycled data buffer without complexity of compu

  • PDF

The Effect of Vocational Training on Employment Outcome in Korea's Training Credit Program (내일배움카드제 훈련이 취업성과에 미치는 영향)

  • Kim, Yong-seong
    • Journal of Labour Economics
    • /
    • v.43 no.1
    • /
    • pp.1-34
    • /
    • 2020
  • As the economic environment rapidly changes, the ability to flexibly adapt has become a vital skill which is primarily attained through education and training. Subsequently, it is essential that the effects of vocational eduction and training are closely examined to see if they are fulfilling their goals; specifically, whether they bolster the chances of gaining employment. To that end, the endogenous aspects of training variables must be controlled. This study critically assesses the approaches of current literature in regards to tackling the endogeneity issue, and investigates the effects of vocational training through various econometric models. The results failed to reveal any positive effects of Korea's vocational training on employment. However, the negative effects were also not large enough to be significant. Additionally, the marginal effects were weaker for women and older age groups-which show a disparity between men and women-than for men and younger age groups, respectively. A more comprehensive and in-depth analysis will be needed of these results using recent data and detailed information about the training process.

  • PDF

An Efficient 3D Inversion of MT Data Using Approximate Sensitivities (효율적인 3차원 MT 역산을 위한 다양한 감도의 이용)

  • Han, Nu-Ree;Nam, Myung-Jin;Kim, Hee-Joon;Lee, Tae-Jong;Song, Yoon-Ho;Suh, Jung-Hee
    • Geophysics and Geophysical Exploration
    • /
    • v.10 no.4
    • /
    • pp.259-267
    • /
    • 2007
  • An efficient algorithm for inverting static-shifted magnetotelluric (MT) data has been proposed to produce a three-dimensional (3D) resistivity model. In the Gauss-Newton approach, computational costs associated with construction of a full sensitivity matrix usually make 3D MT inversion impractical. This computational difficulty may be overcome by using approximate sensitivities. We use four kinds of sensitivities in particular orders in the inversion process. These sensitivities are computed 1) analytically for an initial, homogeneous earth, 2) exactly for a current model, 3) approximately by the Broyden method, and 4) approximately using the previous adjoint fields. Inversion experiments with static-shifted synthetic and field MT data indicate that inversion results are highly dependent on characteristics of data and thus applying various combinations of sensitivities is helpful in obtaining a good image of the subsurface structure with reasonable computation time.