• Title/Summary/Keyword: 분할 학습 알고리즘

Search Result 257, Processing Time 0.023 seconds

Case study on flood water level prediction accuracy of LSTM model according to condition of reference hydrological station combination (참조 수문관측소 구성 조건에 따른 LSTM 모형 홍수위예측 정확도 검토 사례 연구)

  • Lee, Seungho;Kim, Sooyoung;Jung, Jaewon;Yoon, Kwang Seok
    • Journal of Korea Water Resources Association
    • /
    • v.56 no.12
    • /
    • pp.981-992
    • /
    • 2023
  • Due to recent global climate change, the scale of flood damage is increasing as rainfall is concentrated and its intensity increases. Rain on a scale that has not been observed in the past may fall, and long-term rainy seasons that have not been recorded may occur. These damages are also concentrated in ASEAN countries, and many people in ASEAN countries are affected, along with frequent occurrences of flooding due to typhoons and torrential rains. In particular, the Bandung region which is located in the Upper Chitarum River basin in Indonesia has topographical characteristics in the form of a basin, making it very vulnerable to flooding. Accordingly, through the Official Development Assistance (ODA), a flood forecasting and warning system was established for the Upper Citarium River basin in 2017 and is currently in operation. Nevertheless, the Upper Citarium River basin is still exposed to the risk of human and property damage in the event of a flood, so efforts to reduce damage through fast and accurate flood forecasting are continuously needed. Therefore, in this study an artificial intelligence-based river flood water level forecasting model for Dayeu Kolot as a target station was developed by using 10-minute hydrological data from 4 rainfall stations and 1 water level station. Using 10-minute hydrological observation data from 6 stations from January 2017 to January 2021, learning, verification, and testing were performed for lead time such as 0.5, 1, 2, 3, 4, 5 and 6 hour and LSTM was applied as an artificial intelligence algorithm. As a result of the study, good results were shown in model fit and error for all lead times, and as a result of reviewing the prediction accuracy according to the learning dataset conditions, it is expected to be used to build an efficient artificial intelligence-based model as it secures prediction accuracy similar to that of using all observation stations even when there are few reference stations.

Sorghum Panicle Detection using YOLOv5 based on RGB Image Acquired by UAV System (무인기로 취득한 RGB 영상과 YOLOv5를 이용한 수수 이삭 탐지)

  • Min-Jun, Park;Chan-Seok, Ryu;Ye-Seong, Kang;Hye-Young, Song;Hyun-Chan, Baek;Ki-Su, Park;Eun-Ri, Kim;Jin-Ki, Park;Si-Hyeong, Jang
    • Korean Journal of Agricultural and Forest Meteorology
    • /
    • v.24 no.4
    • /
    • pp.295-304
    • /
    • 2022
  • The purpose of this study is to detect the sorghum panicle using YOLOv5 based on RGB images acquired by a unmanned aerial vehicle (UAV) system. The high-resolution images acquired using the RGB camera mounted in the UAV on September 2, 2022 were split into 512×512 size for YOLOv5 analysis. Sorghum panicles were labeled as bounding boxes in the split image. 2,000images of 512×512 size were divided at a ratio of 6:2:2 and used to train, validate, and test the YOLOv5 model, respectively. When learning with YOLOv5s, which has the fewest parameters among YOLOv5 models, sorghum panicles were detected with mAP@50=0.845. In YOLOv5m with more parameters, sorghum panicles could be detected with mAP@50=0.844. Although the performance of the two models is similar, YOLOv5s ( 4 hours 35 minutes) has a faster training time than YOLOv5m (5 hours 15 minutes). Therefore, in terms of time cost, developing the YOLOv5s model was considered more efficient for detecting sorghum panicles. As an important step in predicting sorghum yield, a technique for detecting sorghum panicles using high-resolution RGB images and the YOLOv5 model was presented.

Feature Vector Extraction and Classification Performance Comparison According to Various Settings of Classifiers for Fault Detection and Classification of Induction Motor (유도 전동기의 고장 검출 및 분류를 위한 특징 벡터 추출과 분류기의 다양한 설정에 따른 분류 성능 비교)

  • Kang, Myeong-Su;Nguyen, Thu-Ngoc;Kim, Yong-Min;Kim, Cheol-Hong;Kim, Jong-Myon
    • The Journal of the Acoustical Society of Korea
    • /
    • v.30 no.8
    • /
    • pp.446-460
    • /
    • 2011
  • The use of induction motors has been recently increasing with automation in aeronautical and automotive industries, and it playes a significant role. This has motivated that many researchers have studied on developing fault detection and classification systems of an induction motor in order to minimize economical damage caused by its fault. With this reason, this paper proposed feature vector extraction methods based on STE (short-time energy)+SVD (singular value decomposition) and DCT (discrete cosine transform)+SVD techniques to early detect and diagnose faults of induction motors, and classified faults of an induction motor into different types of them by using extracted features as inputs of BPNN (back propagation neural network) and multi-layer SVM (support vector machine). When BPNN and multi-lay SVM are used as classifiers for fault classification, there are many settings that affect classification performance: the number of input layers, the number of hidden layers and learning algorithms for BPNN, and standard deviation values of Gaussian radial basis function for multi-layer SVM. Therefore, this paper quantitatively simulated to find appropriate settings for those classifiers yielding higher classification performance than others.

Design and Implementation of MPEG-21 Testbed (MPEG-21 Testbed의 설계 및 구현)

  • 손정화;권혁민;손현식;조영란;김만배
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2002.11a
    • /
    • pp.139-143
    • /
    • 2002
  • 1990 년대 후반부터 다양한 디지털 통신망을 이용하여 멀티미디어 컨텐츠 서비스가 가능하게 되었다. 하지만, 멀티미디어 컨텐츠의 전달 및 이용을 위한 기반 구조들의 독자적 발전 및 다양한 통합적 관리 체계 시스템으로 인해, 멀티미디어 컨텐츠 표현 방식의 호환성 문제, 혼재하는 네트워크 전달 방식과 단말 방식의 호환성 문제 등의 잠재적인 문제점이 발생한다. 이런 문제의 대안으로 현재 존재하는 기술 및 기반 구조들 사이의 연동을 통한 큰 프레임워크인 MPEG-21이 진행 중이다. MPEG-21 의 목표는 표준화 목표를 구체화하는 것부터 진행하여, 최종적으로 “다양한 네트워크 환경과 단말기에 있어서, 투명하고 통합적으로 멀티미디어 자원의 이용을 가능하게 하는 것”이다. 본 논문에서는 현재 표준화 작업이 진행 중인 MPEG-21 을 기반으로 하는 Testbed를 제안한다. Testbed는 server, client, DIA(Digital Item Adaptation) 의 세 모듈로 구성된다. Server 의 역할은 멀티미디어 컨텐츠를 Digital Item(DI)으로 생성하고, client 가 DI를 요구할 경우 DIA 모듈을 통해서 변환된 DI를 client 에게 제공한다. DIA 모듈은 server 에서 동작되며 client로부터 요청된 DI를 분석하고 client로부터 전송된 환경 정보를 이용하여 client 환경에 적합하게 변환된 (adapted) DI를 생성하는 것이 주 기능이다. Client 는 server 에 저장되어 있는 DI를 선택하고 user preference, terminal capability 등의 필요한 정보를 server로 전송한다. Testbed 에서는 스포츠 경기의 동영상, 정지 영상, 경기 내용 역사를 기록한 파일 등의 DI를 이용한다. 표현 언어는 XML이며, HTTP 기반의 Web 환경에서 구동되도록 설계된다.스템 사이에 의미 있는 데이터 전송, 지식 획득을 위해 정보 기술 분야에서 활용해야 할 영역으로 XML Web Services, Multi-agent Systems, 전문가 컴뮤니티를 위한 그룹웨어 연구 개발에 관해 사례 중심으로 발표한다.다 신선한 공기를 넣어 주었을 때는 배의 발달이 많이 늦어져 배양 3주째에 다른 처리보다 배의 수가 훨씬 적었다. 체세포배가 발달하는 동안에는 산소를 많이 요구하지 않으나 성숙하는 동안에는 산소를 많이 요구하는 것으로 생각된다.적인 것으로 나타났다. 다만, 곡선형은 물론 직선형에서도 열교환 튜브의 배치밀도, 튜브 길이 및 두께 등의 변화에 따른 최적화 연구가 수반되어야 할 것으로 판단된다.에서 제공된 API는 객체기반 제작/편집 도구에 응용되어 다양한 멀티미디어 컨텐츠 제작에 사용되었다.x factorization (NMF), generative topographic mapping (GTM)의 구조와 학습 및 추론알고리즘을소개하고 이를 DNA칩 데이터 분석 평가 대회인 CAMDA-2000과 CAMDA-2001에서 사용된cancer diagnosis 문제와 gene-drug dependency analysis 문제에 적용한 결과를 살펴본다.0$\mu$M이 적당하며, 초기배발달을 유기할 때의 효과적인 cysteamine의 농도는 25~50$\mu$M인 것으로 판단된다.N)A(N)/N을 제시하였다(A(N)=N에 대한 A값). 위의 실험식을 사용하여 헝가리산 Zempleni 시료(15%$S_{XRD}$)의 기본입자분포로부터 %$S_{XRD}$를 계산한 결과, 16%$S_{XRD}$의 결과값을 얻을 수 있었다. 따라서, 본 연구에서 도출한 관계식들이 유효함을 확인할 수 있었다.계식들이 유효함을 확인할 수 있었다.할 때 약간의 증가

  • PDF

Effect of Soil Heating on Lateral Shooting in White Spined Cucumber. (지중가온이 백침계 오이의 측지 발생에 미치는 영향)

  • 이상규;성기철;김광용;고관달
    • Proceedings of the Korean Society for Bio-Environment Control Conference
    • /
    • 2001.04b
    • /
    • pp.71-72
    • /
    • 2001
  • 최근 수출오이의 재배 면적이 계속증가 추세에 있어 '99년 현재 143ha에 달하고 있다. 그러나 수출오이는 국내 오이와 재배방법이 상당히 달라 국내 오이는 주지착과형이지만 수출오이는 측지착과형으로 측지의 발생여부에 따라 수확량의 차이가 심하다. 따라서 수출오이의 성공여부는 측지발생을 어느정도 시키느냐에 달려 있다고 해도 과언이 아니다. 그런데 수출오이의 재배시기는 우리나라에서 재배환경이 가장 불량한 겨울철(10-2월)로, 저온 및 투광량 부족 등으로 인하여 측지발생율이 매우 저조하다. 따라서 본 시험은 수출오이의 측지 발생율을 높이고자 지중가온기 설치 여부에 따른 효과를 구명하고자 실시하였다. 그 결과, 생육(Table 1)은 접수의 줄기 직경이 지중가온 처리시 10.22mm로, 무가온의 8.64mm보다 굵었고, 엽장과 엽폭에 있어서도 지중가온 처리가 무가온 처리보다 좋았다. 곡과 발생수에 있어서도 지중가온 처리는 주당 0.73개가 발생하였으나, 무가온은 1.26개가 발생되어 지중가온 처리시 무가온에 비해서 생육이 좋아지고, 곡과 발생이 적었다. 주당 측지발생수(Table 2)는 지중가온구가 13.7개였고, 무가온구는 11.7개로 지중가온을 하면 측지발생수가 증가함을 알수 있었다. 또한 상품수확과수에 있어서도 지중가온구는 주당 45개인데 반해 지중무가온구는 38개였으며 따라서 전체적인 수량이 10a당 8,100kg으로, 무가온구의 6,840kg보다 18%의 증수효과가 있었다. 따라서 수출오이재배시 지중가온을 하면, 측지발생수가 증가하고 특히 장측지(Fig. 1)가 다수 발생하여 측지 수확과수가 증가하며, 곡과 등 기형과 발생이 감소하여 상품수량이 증가되므로써 기존 지중 무가온 재배에 비해 14% 소득향상 효과를 기대할 수 있다.시 생장이 둔화되었다. 밀폐시킨 삼각플라스크에서 자라는 Cell은 상태도 좋지 않고 전반적인 증식량도 적었다. Cell은 환기정도에 민감한 것으로 판단되며 삼각플라스크에서 약 35일 정도의 생장 주기를 가지는 것으로 사료된다. 배양 3주까지는 플라스틱 뚜껑으로 밀폐시킨 bottle에서 가장 많은 체세포배를 얻었다. Air filter를 달아 2일 마다 신선한 공기를 넣어 주었을 때는 배의 발달이 많이 늦어져 배양 3주째에 다른 처리보다 배의 수가 훨씬 적었다. 체세포배가 발달하는 동안에는 산소를 많이 요구하지 않으나 성숙하는 동안에는 산소를 많이 요구하는 것으로 생각된다.적인 것으로 나타났다. 다만, 곡선형은 물론 직선형에서도 열교환 튜브의 배치밀도, 튜브 길이 및 두께 등의 변화에 따른 최적화 연구가 수반되어야 할 것으로 판단된다.에서 제공된 API는 객체기반 제작/편집 도구에 응용되어 다양한 멀티미디어 컨텐츠 제작에 사용되었다.x factorization (NMF), generative topographic mapping (GTM)의 구조와 학습 및 추론알고리즘을소개하고 이를 DNA칩 데이터 분석 평가 대회인 CAMDA-2000과 CAMDA-2001에서 사용된cancer diagnosis 문제와 gene-drug dependency analysis 문제에 적용한 결과를 살펴본다.0$\mu$M이 적당하며, 초기배발달을 유기할 때의 효과적인 cysteamine의 농도는 25~50$\mu$M인 것으로 판단된다.N)A(N)/N을 제시하였다(A(N)=N에 대한 A값). 위의 실험식을 사용하여 헝가리산 Zempleni 시료(15%$S_{XRD}$)의 기본입자분포로부터 %$S_{XRD}

  • PDF

Rough Set Analysis for Stock Market Timing (러프집합분석을 이용한 매매시점 결정)

  • Huh, Jin-Nyung;Kim, Kyoung-Jae;Han, In-Goo
    • Journal of Intelligence and Information Systems
    • /
    • v.16 no.3
    • /
    • pp.77-97
    • /
    • 2010
  • Market timing is an investment strategy which is used for obtaining excessive return from financial market. In general, detection of market timing means determining when to buy and sell to get excess return from trading. In many market timing systems, trading rules have been used as an engine to generate signals for trade. On the other hand, some researchers proposed the rough set analysis as a proper tool for market timing because it does not generate a signal for trade when the pattern of the market is uncertain by using the control function. The data for the rough set analysis should be discretized of numeric value because the rough set only accepts categorical data for analysis. Discretization searches for proper "cuts" for numeric data that determine intervals. All values that lie within each interval are transformed into same value. In general, there are four methods for data discretization in rough set analysis including equal frequency scaling, expert's knowledge-based discretization, minimum entropy scaling, and na$\ddot{i}$ve and Boolean reasoning-based discretization. Equal frequency scaling fixes a number of intervals and examines the histogram of each variable, then determines cuts so that approximately the same number of samples fall into each of the intervals. Expert's knowledge-based discretization determines cuts according to knowledge of domain experts through literature review or interview with experts. Minimum entropy scaling implements the algorithm based on recursively partitioning the value set of each variable so that a local measure of entropy is optimized. Na$\ddot{i}$ve and Booleanreasoning-based discretization searches categorical values by using Na$\ddot{i}$ve scaling the data, then finds the optimized dicretization thresholds through Boolean reasoning. Although the rough set analysis is promising for market timing, there is little research on the impact of the various data discretization methods on performance from trading using the rough set analysis. In this study, we compare stock market timing models using rough set analysis with various data discretization methods. The research data used in this study are the KOSPI 200 from May 1996 to October 1998. KOSPI 200 is the underlying index of the KOSPI 200 futures which is the first derivative instrument in the Korean stock market. The KOSPI 200 is a market value weighted index which consists of 200 stocks selected by criteria on liquidity and their status in corresponding industry including manufacturing, construction, communication, electricity and gas, distribution and services, and financing. The total number of samples is 660 trading days. In addition, this study uses popular technical indicators as independent variables. The experimental results show that the most profitable method for the training sample is the na$\ddot{i}$ve and Boolean reasoning but the expert's knowledge-based discretization is the most profitable method for the validation sample. In addition, the expert's knowledge-based discretization produced robust performance for both of training and validation sample. We also compared rough set analysis and decision tree. This study experimented C4.5 for the comparison purpose. The results show that rough set analysis with expert's knowledge-based discretization produced more profitable rules than C4.5.

Rainfall image DB construction for rainfall intensity estimation from CCTV videos: focusing on experimental data in a climatic environment chamber (CCTV 영상 기반 강우강도 산정을 위한 실환경 실험 자료 중심 적정 강우 이미지 DB 구축 방법론 개발)

  • Byun, Jongyun;Jun, Changhyun;Kim, Hyeon-Joon;Lee, Jae Joon;Park, Hunil;Lee, Jinwook
    • Journal of Korea Water Resources Association
    • /
    • v.56 no.6
    • /
    • pp.403-417
    • /
    • 2023
  • In this research, a methodology was developed for constructing an appropriate rainfall image database for estimating rainfall intensity based on CCTV video. The database was constructed in the Large-Scale Climate Environment Chamber of the Korea Conformity Laboratories, which can control variables with high irregularity and variability in real environments. 1,728 scenarios were designed under five different experimental conditions. 36 scenarios and a total of 97,200 frames were selected. Rain streaks were extracted using the k-nearest neighbor algorithm by calculating the difference between each image and the background. To prevent overfitting, data with pixel values greater than set threshold, compared to the average pixel value for each image, were selected. The area with maximum pixel variability was determined by shifting with every 10 pixels and set as a representative area (180×180) for the original image. After re-transforming to 120×120 size as an input data for convolutional neural networks model, image augmentation was progressed under unified shooting conditions. 92% of the data showed within the 10% absolute range of PBIAS. It is clear that the final results in this study have the potential to enhance the accuracy and efficacy of existing real-world CCTV systems with transfer learning.