• Title/Summary/Keyword: 최적분류기준

Search Result 118, Processing Time 0.037 seconds

Advanced National Base Map by Using High-Resolution Digital Aerial Photograph (고해상도 디지털 항공사진을 이용한 국가기본도 고도화 방안)

  • Lee, Hyun-Jik;Koo, Dae-Sung;Park, Chan-Ho
    • Journal of Korean Society for Geospatial Information Science
    • /
    • v.18 no.1
    • /
    • pp.135-143
    • /
    • 2010
  • The national base map has its value sand roles as the basic spatial information of the nation. The current national base map that is a 1/5,000 digital map, however, has failed to perform its roles as basic spatial information due to the limitations with its quality and accuracy and requires measures to complement them. Thus this study set out to suggest ways to advance the current 1/5,000 national base map, selected topography and natural features of a digital map that could be made with GSD 0.25m digital aerial photographs, and set up the optimal ways to make a digital map by conducting an experiment of making an optimal digital map with such photographs. It also analyzed the map made with GSD 0.25m digital aerial photographs for accuracy and usability. In order to establish a set of criteria of making a digital map with GSD 0.25m digital aerial photographs, the investigator carried out analyses and picked topography and natural features items, which include 9 large categories, 31 medium categories, and 509 small categories. Then an experiment of making a digital map was conducted according to the digital map making method. As a result, solid drawing was selected as the optimal way to making a digital map, and the optimal process was established. Using the research achievements, a model digital map was made with GSD 0.25mm digital aerial photographs. The map recorded about two times horizontal and vertical location accuracy than the old 1/5,000 digital map and was capable of detailed descriptions of topography and natural features. A new national base map made with GSD 0.25m digital aerial photographs will provide reliable spatial data, thus increasing the level of satisfaction among people and the level of advancement of national base maps.

A Study on the Prediction of Rock Classification Using Shield TBM Data and Machine Learning Classification Algorithms (쉴드 TBM 데이터와 머신러닝 분류 알고리즘을 이용한 암반 분류 예측에 관한 연구)

  • Kang, Tae-Ho;Choi, Soon-Wook;Lee, Chulho;Chang, Soo-Ho
    • Tunnel and Underground Space
    • /
    • v.31 no.6
    • /
    • pp.494-507
    • /
    • 2021
  • With the increasing use of TBM, research has recently been conducted in Korea to analyze TBM data with machine learning techniques to predict the ground in front of TBM, predict the exchange cycle of disk cutters, and predict the advance rate of TBM. In this study, classification prediction of rock characteristics of slurry shield TBM sites was made by combining traditional rock classification techniques and machine learning techniques widely used in various fields with machine data during TBM excavation. The items of rock characteristic classification criteria were set as RQD, uniaxial compression strength, and elastic wave speed, and the rock conditions for each item were classified into three classes: class 0 (good), 1 (normal), and 2 (poor), and machine learning was performed on six class algorithms. As a result, the ensemble model showed good performance, and the LigthtGBM model, which showed excellent results in learning speed as well as learning performance, was found to be optimal in the target site ground. Using the classification model for the three rock characteristics set in this study, it is believed that it will be possible to provide rock conditions for sections where ground information is not provided, which will help during excavation work.

Real-time data transmission through congestion control based on optimal AQM in high-speed network environment (고속 네트워크 환경에서 최적AQM기반의 혼잡제어를 통한 실시간 데이터 전송)

  • Hwang, Seong-Kyu
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.25 no.7
    • /
    • pp.923-929
    • /
    • 2021
  • TCP communication and packet communication require transmission control technology to ensure high quality and high reliability. However, in the case of real-time data transmission, an inefficient transmission problem occurs. In order to overcome this problem and transmit the packet reliability, in general, early congestion control using the buffer level as an index was used. Control of the congestion control point and the cancellation point is delayed because the point at which congestion is controlled is based on the buffer level. Therefore, in this paper, not only the buffer level indicator, but also the ideal buffer level, which determines the packet discard probability, is classified so that the transmission rate and buffer level that measure network congestion are close to the level above the optimal setting. As a result, it was shown that the average buffer level can be directly controlled by maintaining the average buffer level by the ideal buffer level set in the experiment to prove the proposed method.

The weight analysis research in developing a similarity classification problem of malicious code based on attributes (속성기반 악성코드 유사도 분류 문제점 개선을 위한 가중치 분석 연구)

  • Chung, Yong-Wook;Noh, Bong-Nam
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.23 no.3
    • /
    • pp.501-514
    • /
    • 2013
  • A grouping process through the similarity comparison is required to effectively classify and respond a malicious code. When we have a use of the past similarity criteria to be used in the comparison method or properties it happens a increased problem of false negatives and false positives. Therefore, in this paper we apply to choose variety of properties to complement the problem of behavior analysis on the heuristic-based of 2nd step in malicious code auto analysis system, and we suggest a similarity comparison method applying AHP (analytic hierarchy process) for properties weights that reflect the decision-making technique. Through the similarity comparison of malicious code, configured threshold is set to the optimum point between detection rates and false positives rates. As a grouping experiment about unknown malicious it distinguishes each group made by malicious code generator. We expect to apply it as the malicious group information which includes a tracing of hacking types and the origin of malicious codes in the future.

Hydrogeological Site Monitoring in Low and Intermediate Level Radioactive Waste Disposal Facilities (중·저준위 방사성 폐기물 처분시설의 부지 감시 현황)

  • Chung-Mo Lee;Soon Il OK;Seongyeon Jung;Sieun Kim
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.17-17
    • /
    • 2023
  • 국내의 부지특성 및 감시 관련 규정은 원자력 안전위원회 고시 제2021-16호 제4조(세부지침)와 원자력 안전위원회 고시 제2021-17호 제16조에 의거하고, 국외는 국제원자력기구(IAEA: International Atomic Energy Agency)에서 안전기준을 제시하고 있다(IAEA, 2011). 따라서 국내 중·저준위 방사성폐기물 처분시설은 2006년부터 광역 지질을 포함한 부지 지질/지형, 기상, 수문, 수리지질, 인문사회 등을 망라한 조사를 시행하여 부지 현황에 대한 분석 및 안정성 평가를 수행한다. 부지감시의 수문·지구화학 분야에서는 현장 수질 측정 6항목과 실내 분석 26항목을 감시하고 있으나, 본 연구는 이 중 9개 항목(EC, Na, K, Ca, Mg, SiO2, Cl, SO4, HCO3)을 선정하여 분석하였다. 연구 목적은 물시료 분석자료의 주성분-다중선형회귀-군집 분석과 Piper Diagram 분석결과로부터 해수와 담수(지하수)와의 특성분석 및 해수 영향을 분석하는 것이다. 현장 부지내 지하수 7개 관정(GM-1, 2, 4, 5, 6, 7, 8)과 해수 2개 지점(Sea-1, 2)을 대상으로 통계학적 주성분 분석결과, 대부분의 지하수는2개~4개의 요인으로 구분되고, 해수와의 유사성을 해석하기 위해 확인한 관정은 GM-5, GM-6, GM-1 지점으로 분류되었다. 상기와 같이 해수의 영향을 확인하기 위해 해수 2개 지점과 동일한 군집으로 분류되는 지하수는 GM-5 관정으로 확인되었고, 해안선에서 가까운 GM-5 관정과 같이 유사한 거리에 분포한 지하수 GM-1, 2, 4 관정은 2개 혹은 3개의 최적 군집으로 분류하였을 때도 GM-5와는 다른 특성을 보여주었다. 이는 해안과 인접하더라도 수질은 다른 지질학적 특성(지형, 기상, 단열대 등)에 따라 영향받았음을 지시한다.

  • PDF

3D Film Image Classification Based on Optimized Range of Histogram (히스토그램의 최적폭에 기반한 3차원 필름 영상의 분류)

  • Lee, Jae-Eun;Kim, Young-Bong;Kim, Jong-Nam
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.22 no.2
    • /
    • pp.71-78
    • /
    • 2021
  • In order to classify a target image in a cluster of images, the difference in brightness between the object and the background is mainly concerned, which is not easy to classify if the shape of the object is blurred and the sharpness is low. However, there are a few studies attempted to solve these problems, and there is still the problem of not properly distinguishing between wrong pattern and right pattern images when applied to actual data analysis. In this paper, we propose an algorithm that classifies 3D films into sharp and blurry using the width of the pixel values histogram. This algorithm determines the width of the right and wrong images based on the width of the pixel distributions. The larger the width histogram, the sharp the image, while the shorter the width histogram the blurry the image. Experiments show that the proposed algorithm reflects that the characteristics of these histograms allows classification of all wrong images and right images. To determine the reliability and validity of the proposed algorithm, we compare the results with the other obtained from preprocessed 3D films. We then trained the 3D films using few-shot learning algorithm for accurate classification. The experiments verify that the proposed algorithm can perform higher without complicated computations.

Storm sewer network simplification technique for improving efficiency of urban flood forecasting (도시침수예측 효율 향상을 위한 관망간소화 기법 제시)

  • Sang Bo Sim;Hyung-Jun Kim
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.269-269
    • /
    • 2023
  • 기후 변화로 인한 강우 패턴의 변화는 도심지 방재성능 목표를 상회하는 홍수로 이어져 침수피해를 가중시키고 있다. 이로 인한 도시침수 피해를 저감하기 위하여 도시침수 예측모형 개발이 활발히 이루어지고 있으나, 대규모 관망으로 이루어진 복잡한 도심지 우수관망을 모의하기 때문에 분석속도가 느려 실시간 예측 적용에 한계점이 있다. 도시침수 분석에 가장 많이 활용되는 대표적인 모형인 SWMM(Storm Water Management Model)은 복잡한 관망을 비교적 빠르고 정확히 해석할 수 있어 유용하지만, 이 또한 대도심의 우수관망 모의 시 많은 시간이 소요되며, 관망 정밀도 기준이 정의되어 있지 않아 분석에 어려움이 있다. 이러한 문제점을 해결하기 위하여 본 연구에서는 관망 간소화 기법(유역면적의 밀도, 관거 직경, 관로의 길이 등)을 적용하고, 이에 따른 주요 지선과 간선의 수위 변화와 침수흔적도를 비교하여 분석결과의 정확성을 담보하는 관망 간소화 수준을 파악하고 도시침수 분석 시 적정 간소화 기준과 자동 간소화 방안을 제시하고자 한다. 도시침수 분석 시 우수관망 자동 간소화를 위하여 Python을 활용한 코드를 작성하였으며, SWMM의 .inp 파일을 읽어들여 Dataframe형태로 저장한 후 분석을 위한 데이터 가공, 간소화 기준에 따른 분류, 간소화 대상 수리·수문인자 연산, 인접 간선에 연결, 간소화된 .inp파일 저장의 총 6단계로 구성하였다. 연구 대상지역은 도림천 유역으로 설정하였으며, 초기자료는 맨홀 30,469, 관거 32,443, 소유역 30,586개로 이루어져 있으며, 모의 시간은 약 2시간 30분이 소요되었다. 유역면적 100x100 미만을 대상으로 수행 시 맨홀 9,965, 관거 10,464, 소유역 9,240개로 관거의 복잡도가 약 1/3 감소하였으며, 모의 시간은 약 43분으로 기존대비 약 72% 단축되는 것으로 나타났다. 실제 침수가 발생한 주요지점들을 비교한 결과 R2 0.85 ~ 0.92로 예측모형의 정확도에 큰 영향을 끼치지 않는 것으로 나타났다. 도시침수모형 최적 간소화를 통해 모형의 복잡성을 줄이고, 계산량을 줄여 모형의 수행시간을 단축시킬 수 있으며, 불필요한 우수관망을 제거하거나 병합함으로써, 모형의 예측력 향상과 분석과 해석에 효율적으로 사용될 수 있을 것으로 기대한다.

  • PDF

도시권하천의 수자원 최적관리방안

  • 심순보;이세현
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 1986.07a
    • /
    • pp.179-180
    • /
    • 1986
  • 우리나라 도시권 하천의 특성은 크게 두가지 경우로 나눌 수 있다. 첫째는 대하천의 분류를 끼고 그 중·하류에 위치하여 상류에 수자원의 정량적·정성적 조절 역활을 하는 다목적 댐을 가진 경우와, 큰 하천의 지류이거나 자체 유역내에 수자원의 정량적·정성적 조절 능력을 가진 시설을 갖지 못한 경우라고 볼 수 있다. 수도권 지역의 한강 분류와 부산권의 낙동강 하류, 대청댐 하류-금강 하구언 지역 등은 모두 다 상류에 수자원의 정량적·정성적인 조절 능력을 가진 다목적 댐을 가진 도시권을 가지고 있다. 한편 대구권은 낙동강 제1 지류 금호강 하류에 위치하고 있으며 청주권은 금강의 지류인 무심천 하류에 대전권은 대전천 하류 및 갑천 유역에 위치하고 있으나 상류에 수자원 조절용 댐이나 도시하천의 수질관리를 위한 적정 시설물이 없는 형편이다. 이러한 도시하천의 수자원의 정량적인 문제점은 해당 도시로부터 많은 각종 용수 수요가 급증하고 있는 반면, 공급할 수 있는 능력의 한계성이 크다는 것이다. 직상류에 팔당댐이 운용되고 있는 한강의 경우, 팔당댐은 한전에 의하여 발전전용댐으로 건설되어 저수 및 갈수기엔 하류의 각종 요수 수요를 충족시키기 위한 하천 유지 용수의 공급을 현재로서는 제도상 보장받지 못하고 있으며, 금강 하류의 인접지역(전주, 이리, 군산 등)에 광역 금강 상수도 망으로서 용수 공급을 하고 있으나 대청댐으로서는 하류지역의 요구에 맞추어 댐 운영을 할 수 있는 여건에 있지 못한 실정이다. 대구권이 있는 금호강은 상류에 영천댐이 운영되고 있으나 이는 유역 변경하여 포항 지역에 용수 공급을 하고 있으나 막상 금호강 자체유역에는 안정된 하천 유지용수를 공급할 수 있다. 청주권의 무심천도 계획상은 대청댐의 물을 공급 받을수도 있도록 되어 있으나 현실상으로 상수도 원수로서의 공급마저도 매년 심한 원수 수질 문제(5-6월, 10월경의 취수장 부근의 부영양화 현상으로 인한 악취와 물 맛의 문제)를 1984년부터 겪고 있다. 이와 같이 도시권 하천의 수자원은 자연적, 인위적, 경제적, 법적, 제도적 여러 제한 요소로서 특성을 가지고 있으며 이는 날로 심해 가고 있는 실정이다. 그러므로 최적 물관리 시스템의 개발이 새로이 시작하는 수자원 개발 사업에서는 계획 단계에서부터 절실히 요구되는 바이며 기존 시설물의 관리 운영은 과감히 그 운영 관리 기준을 보완 재 정비하여야 할 것이다. 지금까지 대부분의 수자원 종합 개발 계획이 홍수방이나 용수 공급 및 수력 개발 등에 주력하여 왔으나 이제는 보다 더 수자원의 환경 보전적 차원과 도시의 안정적 발달을 위한 지역 및 권역 계획과 연계지워져서 양적인 안정 공급과 더불어 질적인 향상과 연계지워서 경제-사회적 요구에 부응할 수 있도록 도시권의 수자원을 최적 관리할 수 있는 방안을 강구하여야 할 것이다. 이는 각 도시 하천의 수자원의 정량적·정성적인 특성 및 제한 요소를 충분히 감안하여 수요-공급 개념에 의하여 과감히 기존 시설(예: 팔당댐의 운영, 대청댐의 운영 등)의 관리 운영 체계를 개선하여 나가야 할 것이며, 수질 보전적-환경 보전 차원에서 저수관리 체계를 확고히 할 수 있는 방안을 강구하여야 할 것이다.

  • PDF

WQI Class Prediction of Sihwa Lake Using Machine Learning-Based Models (기계학습 기반 모델을 활용한 시화호의 수질평가지수 등급 예측)

  • KIM, SOO BIN;LEE, JAE SEONG;KIM, KYUNG TAE
    • The Sea:JOURNAL OF THE KOREAN SOCIETY OF OCEANOGRAPHY
    • /
    • v.27 no.2
    • /
    • pp.71-86
    • /
    • 2022
  • The water quality index (WQI) has been widely used to evaluate marine water quality. The WQI in Korea is categorized into five classes by marine environmental standards. But, the WQI calculation on huge datasets is a very complex and time-consuming process. In this regard, the current study proposed machine learning (ML) based models to predict WQI class by using water quality datasets. Sihwa Lake, one of specially-managed coastal zone, was selected as a modeling site. In this study, adaptive boosting (AdaBoost) and tree-based pipeline optimization (TPOT) algorithms were used to train models and each model performance was evaluated by metrics (accuracy, precision, F1, and Log loss) on classification. Before training, the feature importance and sensitivity analysis were conducted to find out the best input combination for each algorithm. The results proved that the bottom dissolved oxygen (DOBot) was the most important variable affecting model performance. Conversely, surface dissolved inorganic nitrogen (DINSur) and dissolved inorganic phosphorus (DIPSur) had weaker effects on the prediction of WQI class. In addition, the performance varied over features including stations, seasons, and WQI classes by comparing spatio-temporal and class sensitivities of each best model. In conclusion, the modeling results showed that the TPOT algorithm has better performance rather than the AdaBoost algorithm without considering feature selection. Moreover, the WQI class for unknown water quality datasets could be surely predicted using the TPOT model trained with satisfactory training datasets.

Increasing Accuracy of Classifying Useful Reviews by Removing Neutral Terms (중립도 기반 선택적 단어 제거를 통한 유용 리뷰 분류 정확도 향상 방안)

  • Lee, Minsik;Lee, Hong Joo
    • Journal of Intelligence and Information Systems
    • /
    • v.22 no.3
    • /
    • pp.129-142
    • /
    • 2016
  • Customer product reviews have become one of the important factors for purchase decision makings. Customers believe that reviews written by others who have already had an experience with the product offer more reliable information than that provided by sellers. However, there are too many products and reviews, the advantage of e-commerce can be overwhelmed by increasing search costs. Reading all of the reviews to find out the pros and cons of a certain product can be exhausting. To help users find the most useful information about products without much difficulty, e-commerce companies try to provide various ways for customers to write and rate product reviews. To assist potential customers, online stores have devised various ways to provide useful customer reviews. Different methods have been developed to classify and recommend useful reviews to customers, primarily using feedback provided by customers about the helpfulness of reviews. Most shopping websites provide customer reviews and offer the following information: the average preference of a product, the number of customers who have participated in preference voting, and preference distribution. Most information on the helpfulness of product reviews is collected through a voting system. Amazon.com asks customers whether a review on a certain product is helpful, and it places the most helpful favorable and the most helpful critical review at the top of the list of product reviews. Some companies also predict the usefulness of a review based on certain attributes including length, author(s), and the words used, publishing only reviews that are likely to be useful. Text mining approaches have been used for classifying useful reviews in advance. To apply a text mining approach based on all reviews for a product, we need to build a term-document matrix. We have to extract all words from reviews and build a matrix with the number of occurrences of a term in a review. Since there are many reviews, the size of term-document matrix is so large. It caused difficulties to apply text mining algorithms with the large term-document matrix. Thus, researchers need to delete some terms in terms of sparsity since sparse words have little effects on classifications or predictions. The purpose of this study is to suggest a better way of building term-document matrix by deleting useless terms for review classification. In this study, we propose neutrality index to select words to be deleted. Many words still appear in both classifications - useful and not useful - and these words have little or negative effects on classification performances. Thus, we defined these words as neutral terms and deleted neutral terms which are appeared in both classifications similarly. After deleting sparse words, we selected words to be deleted in terms of neutrality. We tested our approach with Amazon.com's review data from five different product categories: Cellphones & Accessories, Movies & TV program, Automotive, CDs & Vinyl, Clothing, Shoes & Jewelry. We used reviews which got greater than four votes by users and 60% of the ratio of useful votes among total votes is the threshold to classify useful and not-useful reviews. We randomly selected 1,500 useful reviews and 1,500 not-useful reviews for each product category. And then we applied Information Gain and Support Vector Machine algorithms to classify the reviews and compared the classification performances in terms of precision, recall, and F-measure. Though the performances vary according to product categories and data sets, deleting terms with sparsity and neutrality showed the best performances in terms of F-measure for the two classification algorithms. However, deleting terms with sparsity only showed the best performances in terms of Recall for Information Gain and using all terms showed the best performances in terms of precision for SVM. Thus, it needs to be careful for selecting term deleting methods and classification algorithms based on data sets.