• 제목/요약/키워드: Neural Tensor Network

검색결과 59건 처리시간 0.023초

딥러닝을 활용한 다목적댐 유입량 예측 (Prediction of multipurpose dam inflow using deep learning)

  • 목지윤;최지혁;문영일
    • 한국수자원학회논문집
    • /
    • 제53권2호
    • /
    • pp.97-105
    • /
    • 2020
  • 최근 데이터 예측 방법으로 인공신경망(Artificial Neural Network, ANN)분야에 대한 관심이 높아졌으며, 그 중 시계열 데이터 예측에 특화된 LSTM(Long Short-Term Memory)모형은 수문 시계열자료의 예측방법으로도 활용되고 있다. 본 연구에서는 구글에서 제공하는 딥러닝 오픈소스 라이브러리인 텐서플로우(TensorFlow)를 활용하여 LSTM모형을 구축하고 금강 상류에 위치한 용담다목적댐의 유입량을 예측하였다. 분석 자료로는 WAMIS에서 제공하는 용담댐의 2006년부터 2018년까지의 시간당 유입량 자료를 사용하였으며, 예측된 유입량과 관측 유입량의 비교를 통하여 평균제곱오차(RMSE), 평균절대오차(MAE), 용적오차(VE)를 계산하고 모형의 학습변수에 따른 정확도를 평가하였다. 분석결과, 모든 모형이 고유량에서의 정확도가 낮은 것으로 나타났으며, 이와 같은 문제를 해결하기 위하여 용담댐 유역의 시간당 강수량 자료를 추가 학습 자료로 활용하여 분석한 결과, 고유량에 대한 예측의 정확도가 높아지는 것을 알 수 있었다.

Prediction of the DO concentration using the machine learning algorithm: case study in Oncheoncheon, Republic of Korea

  • Lim, Heesung;An, Hyunuk;Choi, Eunhyuk;Kim, Yeonsu
    • 농업과학연구
    • /
    • 제47권4호
    • /
    • pp.1029-1037
    • /
    • 2020
  • The machine learning algorithm has been widely used in water-related fields such as water resources, water management, hydrology, atmospheric science, water quality, water level prediction, weather forecasting, water discharge prediction, water quality forecasting, etc. However, water quality prediction studies based on the machine learning algorithm are limited compared to other water-related applications because of the limited water quality data. Most of the previous water quality prediction studies have predicted monthly water quality, which is useful information but not enough from a practical aspect. In this study, we predicted the dissolved oxygen (DO) using recurrent neural network with long short-term memory model recurrent neural network long-short term memory (RNN-LSTM) algorithms with hourly- and daily-datasets. Bugok Bridge in Oncheoncheon, located in Busan, where the data was collected in real time, was selected as the target for the DO prediction. The 10-month (temperature, wind speed, and relative humidity) data were used as time prediction inputs, and the 5-year (temperature, wind speed, relative humidity, and rainfall) data were used as the daily forecast inputs. Missing data were filled by linear interpolation. The prediction model was coded based on TensorFlow, an open-source library developed by Google. The performance of the RNN-LSTM algorithm for the hourly- or daily-based water quality prediction was tested and analyzed. Research results showed that the hourly data for the water quality is useful for machine learning, and the RNN-LSTM algorithm has potential to be used for hourly- or daily-based water quality forecasting.

합성곱 신경망을 이용한 손상된 볼트의 이미지 분류 (Image Classification of Damaged Bolts using Convolution Neural Networks)

  • Lee, Soo-Byoung;Lee, Seok-Soon
    • 항공우주시스템공학회지
    • /
    • 제16권4호
    • /
    • pp.109-115
    • /
    • 2022
  • 딥러닝 기법과 컴퓨터 비전 기술을 융합한 합성곱 신경망 알고리즘은 고성능 컴퓨팅 시스템을 기반으로 이미지 데이터의 분류를 가용하게 한다. 본 논문에서는 합성곱 신경망 알고리즘을 대표적인 딥러닝 프레임워크인 텐서플로와 학습 기법을 이용하여 구현하고 이미지 분류 문제에 적용한다. 모델의 지도학습에 필요한 데이터는 동일 종류의 볼트를 이용하여 나사산이 정상인 볼트와 나사산이 손상된 볼트로 구분하여 이미지를 생성하였다. 소량의 이미지 데이터를 이용한 학습 모델은 좋은 성능으로 볼트의 손상을 탐지하였다. 그리고 모델의 내부 구성에 따른 학습 성능을 비교하기 위해 합성곱 신경망 내 컨볼루션 레이어의 개수를 변경하고 과적합 회피기법을 선택 적용하여 이미지 분류 성능을 확인하였다.

딥러닝 합성곱에서 데이터 재사용에 최적화된 GPGPU 설계 (Design of an Optimized GPGPU for Data Reuse in DeepLearning Convolution)

  • 남기훈;이광엽;정준모
    • 전기전자학회논문지
    • /
    • 제25권4호
    • /
    • pp.664-671
    • /
    • 2021
  • 본 논문은 합성곱 신경망에 데이터 재사용 방법을 효과적으로 적용하여 연산 횟수와 메모리 접근 횟수를 줄일 수 있는 GPGPU구조를 제안한다. 합성곱은 kernel과 입력 데이터를 이용한 2차원 연산으로 kernel이 slide하는 방법으로 연산이 이루어 진다. 이때, 합성곱 연산이 완료될 때 까지 kernel을 캐시메모리로 부터 전달 받는 것이 아니고 내부 레지스터를 이용하는 재사용 방법을 제안한다. SIMT방법으로 명령어가 실행되는 GPGPU의 원리 이용하여 데이터 재사용의 효과를 높이기 위해 합성곱에 직렬 연산 방식을 적용하였다. 본 논문에서는 레지스터기반 데이터 재사용을 위하여 kernel을 4×4로 고정하고 이를 효과적으로 지원하기 위한 warp 크기와 레지스터 뱅크를 갖는 GPGPU를 설계하였다. 설계된 GPGPU의 합성곱 신경망에 대한 성능을 검증하기 위해 FPGA로 구현한 뒤 LeNet을 실행시키고 TensorFlow를 이용한 비교 방법으로 AlexNet에 대한 성능을 측정하였다. 측정결과 AlexNet기준 1회 학습 속도는 0.468초이며 추론 속도는 0.135초이다.

딥 러닝 기술 이용한 얼굴 표정 인식에 따른 이모티콘 추출 연구 (A Study on the Emoticon Extraction based on Facial Expression Recognition using Deep Learning Technique)

  • 정봉재;장범
    • 한국인공지능학회지
    • /
    • 제5권2호
    • /
    • pp.43-53
    • /
    • 2017
  • In this paper, the pattern of extracting the same expression is proposed by using the Android intelligent device to identify the facial expression. The understanding and expression of expression are very important to human computer interaction, and the technology to identify human expressions is very popular. Instead of searching for the emoticons that users often use, you can identify facial expressions with acamera, which is a useful technique that can be used now. This thesis puts forward the technology of the third data is available on the website of the set, use the content to improve the infrastructure of the facial expression recognition accuracy, in order to improve the synthesis of neural network algorithm, making the facial expression recognition model, the user's facial expressions and similar e xpressions, reached 66%.It doesn't need to search for emoticons. If you use the camera to recognize the expression, itwill appear emoticons immediately. So this service is the emoticons used when people send messages to others, and it can feel a lot of convenience. In countless emoticons, there is no need to find emoticons, which is an increasing trend in deep learning. So we need to use more suitable algorithm for expression recognition, and then improve accuracy.

Application of Deep Learning to the Forecast of Flare Classification and Occurrence using SOHO MDI data

  • Park, Eunsu;Moon, Yong-Jae;Kim, Taeyoung
    • 천문학회보
    • /
    • 제42권2호
    • /
    • pp.60.2-61
    • /
    • 2017
  • A Convolutional Neural Network(CNN) is one of the well-known deep-learning methods in image processing and computer vision area. In this study, we apply CNN to two kinds of flare forecasting models: flare classification and occurrence. For this, we consider several pre-trained models (e.g., AlexNet, GoogLeNet, and ResNet) and customize them by changing several options such as the number of layers, activation function, and optimizer. Our inputs are the same number of SOHO)/MDI images for each flare class (None, C, M and X) at 00:00 UT from Jan 1996 to Dec 2010 (total 1600 images). Outputs are the results of daily flare forecasting for flare class and occurrence. We build, train, and test the models on TensorFlow, which is well-known machine learning software library developed by Google. Our major results from this study are as follows. First, most of the models have accuracies more than 0.7. Second, ResNet developed by Microsoft has the best accuracies : 0.77 for flare classification and 0.83 for flare occurrence. Third, the accuracies of these models vary greatly with changing parameters. We discuss several possibilities to improve the models.

  • PDF

A Study on the Facial Expression Recognition using Deep Learning Technique

  • Jeong, Bong Jae;Kang, Min Soo;Jung, Yong Gyu
    • International Journal of Advanced Culture Technology
    • /
    • 제6권1호
    • /
    • pp.60-67
    • /
    • 2018
  • In this paper, the pattern of extracting the same expression is proposed by using the Android intelligent device to identify the facial expression. The understanding and expression of expression are very important to human computer interaction, and the technology to identify human expressions is very popular. Instead of searching for the symbols that users often use, you can identify facial expressions with a camera, which is a useful technique that can be used now. This thesis puts forward the technology of the third data is available on the website of the set, use the content to improve the infrastructure of the facial expression recognition accuracy, to improve the synthesis of neural network algorithm, making the facial expression recognition model, the user's facial expressions and similar expressions, reached 66%. It doesn't need to search for symbols. If you use the camera to recognize the expression, it will appear symbols immediately. So, this service is the symbols used when people send messages to others, and it can feel a lot of convenience. In countless symbols, there is no need to find symbols, which is an increasing trend in deep learning. So, we need to use more suitable algorithm for expression recognition, and then improve accuracy.

AI-BASED Monitoring Of New Plant Growth Management System Design

  • Seung-Ho Lee;Seung-Jung Shin
    • International journal of advanced smart convergence
    • /
    • 제12권3호
    • /
    • pp.104-108
    • /
    • 2023
  • This paper deals with research on innovative systems using Python-based artificial intelligence technology in the field of plant growth monitoring. The importance of monitoring and analyzing the health status and growth environment of plants in real time contributes to improving the efficiency and quality of crop production. This paper proposes a method of processing and analyzing plant image data using computer vision and deep learning technologies. The system was implemented using Python language and the main deep learning framework, TensorFlow, PyTorch. A camera system that monitors plants in real time acquires image data and provides it as input to a deep neural network model. This model was used to determine the growth state of plants, the presence of pests, and nutritional status. The proposed system provides users with information on plant state changes in real time by providing monitoring results in the form of visual or notification. In addition, it is also used to predict future growth conditions or anomalies by building data analysis and prediction models based on the collected data. This paper is about the design and implementation of Python-based plant growth monitoring systems, data processing and analysis methods, and is expected to contribute to important research areas for improving plant production efficiency and reducing resource consumption.

k-익명화 알고리즘에서 기계학습 기반의 k값 예측 기법 실험 및 구현 (Experiment and Implementation of a Machine-Learning Based k-Value Prediction Scheme in a k-Anonymity Algorithm)

  • ;장성봉
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제9권1호
    • /
    • pp.9-16
    • /
    • 2020
  • 빅 데이터를 연구 목적으로 제3자에게 배포할 때 프라이버시 정보를 보호하기 위해서 k-익명화 기법이 널리 사용되어 왔다. k-익명화 기법을 적용할 때, 해결 해야할 어려운 문제 중의 하나는 최적의 k값을 결정하는 것이다. 현재는 대부분 전문가의 직관에 근거하여 수동으로 결정되고 있다. 이러한 방식은 익명화의 성능을 떨어뜨리고 시간과 비용을 많이 낭비하게 만든다. 이러한 문제점을 해결하기 위해서 기계학습 기반의 k값 결정방식을 제안한다. 본 논문에서는 제안된 아이디어를 실제로 적용한 구현 및 실험 내용에 대해서 서술 한다. 실험에서는 심층 신경망을 구현하여 훈련하고 테스트를 수행 하였다. 실험결과 훈련 에러는 전형적인 신경망에서 보여지는 패턴을 나타냈으며, 테스트 실험에서는 훈련에러에서 나타나는 패턴과는 다른 패턴을 보여주고 있다. 제안된 방식의 장점은 k값 결정시 시간과 비용을 줄일 수 있다는 장점이 있다.

'인공지능', '기계학습', '딥 러닝' 분야의 국내 논문 동향 분석 (Trend Analysis of Korea Papers in the Fields of 'Artificial Intelligence', 'Machine Learning' and 'Deep Learning')

  • 박홍진
    • 한국정보전자통신기술학회논문지
    • /
    • 제13권4호
    • /
    • pp.283-292
    • /
    • 2020
  • 4차 산업혁명의 대표적인 이미지 중 하나인 인공지능은 2016년 알파고 이후에 인공지능 인식이 매우 높아져 있다. 본 논문은 학국교육학술정보원에서 제공하는 국내 논문 중 '인공지능', '기계학습', '딥 러닝'으로 검색된 국내 발표 논문에 대해서 분석하였다. 검색된 논문은 약 1만여건이며 논문 동향을 파악하기 위해 빈도분석과 토픽 모델링, 의미 연결망을 이용하였다. 추출된 논문을 분석한 결과, 2015년에 비해 2016년에는 인공지능 분야는 600%, 기계학습은 176%, 딥 러닝 분야는 316% 증가하여 알파고 이후에 인공지능 분야의 연구가 활발히 진행됨을 확인할 수 있었다. 또한, 2018년 부터는 기계학습보다 딥 러닝 분야가 더 많이 연구 발표되고 있다. 기계학습에서는 서포트 벡터 머신 모델이, 딥 러닝에서는 텐서플로우를 이용한 컨볼루션 신경망이 많이 활용되고 있음을 알 수 있었다. 본 논문은 '인공지능', '기계학습', '딥 러닝' 분야의 향후 연구 방향을 설정하는 도움을 제공할 수 있다.