• Title/Summary/Keyword: 보정 프로그램

Search Result 436, Processing Time 0.032 seconds

Application of machine learning technique for runoff prediction in watershed with limited data (자료 과소 유역 유출 모의을 위한 머신러닝 기법 적용)

  • Jeung, Minhyuk;Beom, Jina;Park, Minkyeong;Jeong, Jiyeon;Yoon, Kwangsik
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.254-254
    • /
    • 2021
  • 기후변화로 인한 자연재해는 해마다 크게 증가하고있으며, 홍수 및 가뭄의 강도와 빈도 증가, 지구온난화로 인한 하천 건천화 등 많은 문제들이 대두되고 있다. 특히, 물 순환과정의 핵심요소로 설명되는 유출량의 변동은 용수 공급과 홍수 대응 및 관리, 하천생태계 유지를 위한 환경에 영향을 미치고 있다. 따라서, 갈수량, 풍수량 등을 산정하여 하천별 유황특성을 결정하는 방법을 사용하고 있으나, 이와같은 지표는 계측자료가 과소한 경우 하천의 유황특성을 세부적으로 이해하고 정량적으로 제시하는데에 한계가있다. 따라서, 미계측 유역에서 Soil and Water Assessment Tool (SWAT)과 같은 수리해석모델이 광범위하게 이용되고있으며, SWAT 모델은 유역의 수치표고모형, 토양 특성, 토지이용 현황, 기상 현황, 유역의 매개변수 등을 반영하여 모델이 구동되고 있다. 하지만, 광범위하게 이용되고 적용성이 입증된 모델임에도 불구하고 입력자료의 불확실성 및 조사되지 않은 영농활동 등으로 인해 결과에 불확실성이 내포되어있으며, 불확실성을 줄이기 위해 실측된 하천의 유량 자료를 이용하여 검정 및 보정작업을 거치고 있다. 모델의 보정 방법으로는 SWAT-CUP과 같은 프로그램 이용되고 있지만, 모델에서 이용되는 매개변수로는 보정할수 있는 범위가 한정적이기 때문에 모델의 정확성을 높이는데에 한계가 있다. 따라서, 본 연구에서는 선암천 유역을 대상으로 모델의 매개변수를 보정하지 않고도 머신러닝 기법을 이용하여 모델의 결과를 향상시켰다. 보정 결과, 유량의 경우 R2가 0.42에서 0.91으로 향상되었으며, 특히 고유량 구간에서의 정확성이 매우 향상되었다. 본 연구에서 평가된 SWAT+머신러닝 결합 모형은 향후 모델 구동에 필요한 입력자료가 부족한 경우와 빠른 검정 및 보정 작업이 필요할 경우 활용될수 있을것으로 판단된다.

  • PDF

우리나라 DGPS 구축 및 운영현황

  • Choe, Yeong-Jong
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • v.2
    • /
    • pp.153-156
    • /
    • 2006
  • 국제해사기구(IMO) 권고에 따라 도입된 우리나라의 해양용 DGPS 기준국 구축과 국무총리 훈령에 의거 추진 중인 내륙용 DGPS 기준국의 운영현황 등을 기술하고 DGPS 기준국과 GPS 상시관측소간의 서로 다른 제원에 따른 후처리데이터의 신뢰도 품질체크를 TEQC 프로그램을 통해 비교 ${\cdot}$ 분석했다.

  • PDF

A Study on the Enhanced Tubes for Electric Utility Steam Condensers (발전소 응축기용 전열 촉진관에 대한 연구)

  • 김내현
    • Proceedings of the Korea Society for Energy Engineering kosee Conference
    • /
    • 1995.05a
    • /
    • pp.207-212
    • /
    • 1995
  • 본 연구에서는 발전소 응축기를 시뮬레이션 할 수 있는 프로그램을 개발하였다. 관 내외 측 열전달계수의 계산에는 기존 상관식들과 응축 모델을 사용하였고 $\varepsilon$-NTU 방법을 사용하여 응축기를 해석하였다. 실제 응축기를 모사하기 위하여 관다발 보정계수 및 화울링 계수도 도입하였다. 이 프로그램을 사용하여 기존 평관을 대체할 전열촉진관의 형상을 도출하였다. 시뮬레이션 결과 전열촉진관을 사용하면 증기 응축 온도를 6 - 8 $^{\circ}C$ 정도 낮출 수 있음을 알 수 있었다.

  • PDF

Comparison and Analysis of ICC Monitor Profiles (색 관리용 모니터 프로파일의 비교 분석)

  • 김홍석;박승옥;정연우
    • Proceedings of the Optical Society of Korea Conference
    • /
    • 2001.02a
    • /
    • pp.274-275
    • /
    • 2001
  • 컬러영상은 디스플레이 장치의 색 특성에 따라 색이 다르게 나타나며 또한 프린터로 출력된 인쇄물의 컬러 또한 장치의 특성과 잉크의 재질에 따라 색이 다르게 출력된다. 이에 장치 독립적인 색을 재현하고자 ICC (International Color Consortium )에서는 영상 입출력 장치들 간의 장치 독립적인 색을 표현하기 위한 ICC 프로파일을 제시하였으며, 현재 많은 색 보정 프로그램들이 이것을 따른다. 이로 인해 현재 출시되는 입출력 장치들은 ICC 프로파일을 기본으로 제공하고 있으나. 현재 배포되는 ICC 프로파일이 담고있는 정보를 바탕으로 IC 프로파일들의 문제점을 알아보고자 ICC 프로파일을 해독하는 프로그램을 제작하여 일반적으로 많이 사용되는 디스플레이 장치들의 프로파일을 읽어 데이터를 비교ㆍ분석하였다. (중략)

  • PDF

Development of Component Based Rigorous Geocoding Algorithm for ERS SAR (컴포넌트 기반의 ERS SAR 엄밀지형보정 알고리즘 개발)

  • Sohn, Hong-Gyoo;Park, Choung-Hwan;Lee, Hyung-Ki;Lee, Ki-Sun
    • 한국지형공간정보학회:학술대회논문집
    • /
    • 2002.03a
    • /
    • pp.150-155
    • /
    • 2002
  • SAR 시스템은 능동적 센서로 마이크로파라 불리우는 전자기파를 직접 지상에 보내고 돌아오는 신호의 위상과 진폭을 이용하여 영상으로 나타내는 간섭성 시스템이다. 이러한 영상의 특성으로 인해 날씨나 태양의 유 무에 상관없이 영상을 취득할 수 있는 장점이 있다. 또한, 최근에는 기존의 다중분광 위성영상과의 SAR 영상의 Data Fusion을 통해 지상의 새로운 정성적 정보를 취득하려는 시도 등 나날이 그 활용성이 증대되고 있는 상황이다. 그러나 SAR 영상의 광범위한 활용을 위해서는 먼저 영상의 지형보정이 선행되어야 한다. 따라서 본 연구에서는 SAR 영상의 활용을 위해서 선행되어야 할 지형보정의 알고리즘을 컴포넌트 기반의 프로그램으로 구현하고 대상연구지역에 대한 적용을 통해 그 활용성과 가능성을 보여주고자 한다. 연구대상지역은 ERS-1, ERS-2 SAR로 촬영된 대전광역시와 그 주변지역으로 해당 SAR 영상에 대하여 엄밀지형보정 알고리즘과 경사거리 영상을 지상거리 영상으로 변환하는 알고리즘을 개발하여 적용하였다. 실험결과 공칭해상도 30m의 ERS 영상에 대하여 39.7m(X방향으로 24.5m, Y방향으로 31.3m)의 수평오차를 나타내었으며 경사거리 영상의 지상거리 영상으로의 변환도 원활하게 수행됨을 알 수 있었다. 마지막으로 본 연구를 통해 연구된 모든 알고리즘은 컴포넌트 기반으로 설계하고 구현되어 향후 국내 SAR 처리기술 개발에 있어서 공유할 수 있도록 하였다.

  • PDF

Metal artifact SUV estimation by using attenuation correction image and non attenuation correction image in PET-CT (PET-CT에서 감쇠보정 영상과 비감쇠보정 영상을 통한 Metal Artifact 보정에 대한 고찰)

  • Kim, June;Kim, Jae-II;Lee, Hong-Jae;Kim, Jin-Eui
    • The Korean Journal of Nuclear Medicine Technology
    • /
    • v.20 no.2
    • /
    • pp.21-26
    • /
    • 2016
  • Purpose Because of many advantages, PET-CT Scanners generally use CT Data for attenuation correction. By using CT based attenuation correction, we can get anatomical information, reduce scan time and make more accurate correction of attenuation. However in case metal artifact occurred during CT scan, CT-based attenuation correction can induce artifacts and quantitative errors that can affect the PET images. Therefore this study infers true SUV of metal artifact region from attenuation corrected image count -to- non attenuation corrected image count ratio. Materials and Methods Micro phantom inserted $^{18}F-FDG$ 4mCi was used for phantom test and Biograph mCT S(40) is used for medical test equipment. We generated metal artifact in micro phantom by using metal. Then we acquired both metal artifact region of correction factor and non metal artifact region of correction factor by using attenuation correction image count -to- non attenuation correction image count ratio. In case of clinical image, we reconstructed both attenuation corrected images and non attenuation corrected images of 10 normal patient($66{\pm}15age$) who examined PET-CT scan in SNUH. After that, we standardize several organs of correction factor by using attenuation corrected image count -to- non attenuation corrected count ratio. Then we figured out metal artifact region of correction factor by using metal artifact region of attenuation corrected image count -to- non attenuation corrected count ratio And we compared standard organs correction factor with metal artifact region correction factor. Results according to phantom test results, metal artifact induce overestimation of correction factor so metal artifact region of correction factors are 12% bigger than the non metal artifact region of correction factors. in case of clinical test, correction factor of organs with high CT number(>1000) is $8{\pm}0.5%$, correction factor of organs with CT number similar to soft tissue is $6{\pm}2%$ and correction factor of organs with low CT number(-100>) is $3{\pm}1%$. Also metal artifact correction factors are 20% bigger than soft tissue correction factors which didn't happened metal artifact. Conclusion metal artifact lead to overestimation of attenuation coefficient. because of that, SUV of metal artifact region is overestimated. Thus for more accurate quantitative evaluation, using attenuation correction image count -to-non attenuation correction image count ratio is one of the methods to reduce metal artifact affect.

  • PDF

An Iterative, Interactive and Unified Seismic Velocity Analysis (반복적 대화식 통합 탄성파 속도분석)

  • Suh Sayng-Yong;Chung Bu-Heung;Jang Seong-Hyung
    • Geophysics and Geophysical Exploration
    • /
    • v.2 no.1
    • /
    • pp.26-32
    • /
    • 1999
  • Among the various seismic data processing sequences, the velocity analysis is the most time consuming and man-hour intensive processing steps. For the production seismic data processing, a good velocity analysis tool as well as the high performance computer is required. The tool must give fast and accurate velocity analysis. There are two different approches in the velocity analysis, batch and interactive. In the batch processing, a velocity plot is made at every analysis point. Generally, the plot consisted of a semblance contour, super gather, and a stack pannel. The interpreter chooses the velocity function by analyzing the velocity plot. The technique is highly dependent on the interpreters skill and requires human efforts. As the high speed graphic workstations are becoming more popular, various interactive velocity analysis programs are developed. Although, the programs enabled faster picking of the velocity nodes using mouse, the main improvement of these programs is simply the replacement of the paper plot by the graphic screen. The velocity spectrum is highly sensitive to the presence of the noise, especially the coherent noise often found in the shallow region of the marine seismic data. For the accurate velocity analysis, these noise must be removed before the spectrum is computed. Also, the velocity analysis must be carried out by carefully choosing the location of the analysis point and accuarate computation of the spectrum. The analyzed velocity function must be verified by the mute and stack, and the sequence must be repeated most time. Therefore an iterative, interactive, and unified velocity analysis tool is highly required. An interactive velocity analysis program, xva(X-Window based Velocity Analysis) was invented. The program handles all processes required in the velocity analysis such as composing the super gather, computing the velocity spectrum, NMO correction, mute, and stack. Most of the parameter changes give the final stack via a few mouse clicks thereby enabling the iterative and interactive processing. A simple trace indexing scheme is introduced and a program to nike the index of the Geobit seismic disk file was invented. The index is used to reference the original input, i.e., CDP sort, directly A transformation techinique of the mute function between the T-X domain and NMOC domain is introduced and adopted to the program. The result of the transform is simliar to the remove-NMO technique in suppressing the shallow noise such as direct wave and refracted wave. However, it has two improvements, i.e., no interpolation error and very high speed computing time. By the introduction of the technique, the mute times can be easily designed from the NMOC domain and applied to the super gather in the T-X domain, thereby producing more accurate velocity spectrum interactively. The xva program consists of 28 files, 12,029 lines, 34,990 words and 304,073 characters. The program references Geobit utility libraries and can be installed under Geobit preinstalled environment. The program runs on X-Window/Motif environment. The program menu is designed according to the Motif style guide. A brief usage of the program has been discussed. The program allows fast and accurate seismic velocity analysis, which is necessary computing the AVO (Amplitude Versus Offset) based DHI (Direct Hydrocarn Indicator), and making the high quality seismic sections.

  • PDF

Accuracy and Stability of Temperature and Salinity from Autonomous Profiling CTD Floats (ARGO Float) (자동 수직물성관측 뜰개(ARGO Float)로 얻은 수온과 염분의 정확도와 안정도)

  • 오경희;박영규;석문식
    • The Sea:JOURNAL OF THE KOREAN SOCIETY OF OCEANOGRAPHY
    • /
    • v.9 no.4
    • /
    • pp.204-211
    • /
    • 2004
  • Autonomous profiling CTD floats are a useful tool for observing the oceans. We, however, cannot perform post-deployment calibration of the CTD's attached to the floats, and the assessment of the accuracy and stability of the profile data from the floats is one of the important issues in the delayed mode quality control of the profiles. Variations in salinity in the intermediate level of East Sea is comparable to the accuracy of salinity data required by the international Argo Program, which is 0.01. Therefore, we can assess the credibility of salinity data from the floats deployed in the East Sea using three independent methods while considering the East Sea as a salinity calibration bath. The methods utilized here are 1) comparison of high quality CTD data and float data obtained at similar locations at similar time, 2) comparison of float data obtained at similar locations at similar time, and 3) investigation of long term stability and accuracy of salinity data from parking depths. All three methods show that without any calibration, the salinity data satisfy the accuracy criterion by the Argo Program. While assuming that the intermediate level temperature in the East Sea is as homogeneous as the salinity, we have applied the three methods to temperature data. We found that the accuracy of temperature reading is 0.01$^{\circ}C$, which is about twice larger than the requirement by the Argo Program, 0.005$^{\circ}C$. This does not mean that the temperature readings are inaccurate, because the intermediate level temperature does vary spacially and temporally more than the accuracy interval required by the Argo Program. If we take into account the variation in the intermediate level temperature, the accuracy of temperature data from the floats is not significantly different from that proposed by the Argo Program. Therefore, one could use both temperature and salinity profiles from the floats assessed in this study without calibration.

Monte Carlo simulation for the transport of ion in matter (물질내의 이온수송에 대한 Monte Carlo 전산모사)

    • Journal of the Korean Vacuum Society
    • /
    • v.5 no.4
    • /
    • pp.292-300
    • /
    • 1996
  • The scattering of incident ions and target atoms in the amorphous solid matters are calculated by Monte Carlo simulation method. The experimentally derived universal scattering cross-section of Kalbitzer and Oetzmann is used to describe nuclear scattering. For electronic energy loss, the Lindhard-Scharff and Bethe formula are used. Comparing the ion scattering formulas and ranges with the known results of experiment and other programs, we find our results are good agreement with others.

  • PDF

효율적인 Flat 관측을 위한 AutoFlat 프로그램 개발

  • Kim, Dong-Heun;Yun, Yo-Ra;Lee, Chung-Uk;Im, Hong-Seo;Lee, Yong-Sam
    • The Bulletin of The Korean Astronomical Society
    • /
    • v.36 no.1
    • /
    • pp.66.1-66.1
    • /
    • 2011
  • 천체망원경을 이용한 측광관측은 주로 CCD를 이용하여 이루어지고 있으며, CCD를 이용한 측광관측은 CCD를 구성하는 픽셀마다 양자효율이 일정하지 않기 때문에 Flat 관측을 이용하여 보정을 하고 있다. 한편, Flat 관측은 주로 빈 하늘을 찍는 Sky Flat 방법을 이용하고 있으나, Sky Flat을 관측하는 방법은 계절에 따라 시작 시간이 다르고, 제한적인 관측 시간 내에 관측자의 판단으로 이루어지고 있는 실정이다. 특히 제한적인 관측시간은 관측자의 상당한 신중함을 요구하고 있어 노출시간 조절 및 시작 시간을 지나게 되면 Sky Flat 영상을 얻지 못하는 경우도 있다. 이러한 제약 조건에서 효율적인 Flat관측을 하기위해 AutoFlat 프로그램을 개발하였다. AutoFlat 프로그램은 5초 노출로 빈 하늘을 찍으며 관측된 이미지에서 정해진 하늘의 밝기가 되면 자동으로 노출 시간을 계산하고, 각각의 필터별로 관측을 하는 동시에 적절한 이름을 주어 자동으로 저장하게 되어 있다. 이번 연구에서 개발한 AutoFlat 프로그램은 관측자가 Flat 관측을 진행하지 않아도 안정적이면서 효율적인 Flat 관측을 수행하여 앞으로 CCD를 이용한 측광 관측에서 유용하게 사용될 것으로 기대된다.

  • PDF