• 제목/요약/키워드: Improved deep learning

검색결과 548건 처리시간 0.022초

Dual-scale BERT using multi-trait representations for holistic and trait-specific essay grading

  • Minsoo Cho;Jin-Xia Huang;Oh-Woog Kwon
    • ETRI Journal
    • /
    • 제46권1호
    • /
    • pp.82-95
    • /
    • 2024
  • As automated essay scoring (AES) has progressed from handcrafted techniques to deep learning, holistic scoring capabilities have merged. However, specific trait assessment remains a challenge because of the limited depth of earlier methods in modeling dual assessments for holistic and multi-trait tasks. To overcome this challenge, we explore providing comprehensive feedback while modeling the interconnections between holistic and trait representations. We introduce the DualBERT-Trans-CNN model, which combines transformer-based representations with a novel dual-scale bidirectional encoder representations from transformers (BERT) encoding approach at the document-level. By explicitly leveraging multi-trait representations in a multi-task learning (MTL) framework, our DualBERT-Trans-CNN emphasizes the interrelation between holistic and trait-based score predictions, aiming for improved accuracy. For validation, we conducted extensive tests on the ASAP++ and TOEFL11 datasets. Against models of the same MTL setting, ours showed a 2.0% increase in its holistic score. Additionally, compared with single-task learning (STL) models, ours demonstrated a 3.6% enhancement in average multi-trait performance on the ASAP++ dataset.

농산물 생산성 향상을 위한 딥러닝 기반 농업 의사결정시스템 (The Agriculture Decision-making System(ADS) based on Deep Learning for improving crop productivity)

  • 박진욱;안희학;이병관
    • 한국정보전자통신기술학회논문지
    • /
    • 제11권5호
    • /
    • pp.521-530
    • /
    • 2018
  • 본 논문에서 제안하는 "농산물 생산성 향상을 위한 딥러닝 기반 농업 의사결정 시스템"에서는 정밀농업을 지원하는 농장의 위치 정보를 기반으로 기상 정보를 수집하고, 수집한 기상 정보와 농작물의 실시간 데이터를 이용하여, 작물의 현재 상태를 예측하고 그 결과를 농장 관리인에게 알려준다. 제안하는 시스템은 첫째, 정밀농업을 지원하는 농장의 위치 정보를 기반으로 기상 정보를 수집하는 ICM(Information Collection System)을 설계하고, 둘째, 딥러닝 알고리즘을 기반으로 현재 날씨에 따라 농장 토지의 탄소, 수소, 산소, 질소, 수분 함유량이 재배하고 있는 작물에 적합특정 작물을 재배하기 좋은 상태인지 판단하는 DRCM(Deep learning based Risk Calculation Module)을 설계하고, 셋째, DRCM의 결과를 기반으로 사용자에게 작물의 상태를 점검할 것을 알려주는 메시지를 전송하는 RNM(Risk Notification Module)을 설계한다. 제안하는 시스템은 기존의 시스템과 비교하였을 때, 데이터양의 증가로 인해 발생하는 정확도 감소 비율이 낮고, 분석 단계에 비지도학습을 적용하기 때문에 안정성을 향상 시킬 수 있다. 결과적으로 농장 데이터 분석 성공률이 약 5.15%가량 향상되었고, 환경 변화에 따른 작물 성장의 위험한 상태정보 다양하게 적용하였을 때, 위험한 상태정보에 대하여 상세하게 추론할 수 있었다. 이는 다양한 내 외부 환경으로부터 발생할 수 있는 작물의 질병을 미연에 예방할 수 있고, 작물이 성장하는데 최적화된 환경을 제공할 수 있는 효과를 나타낸다.

딥러닝을 이용한 한국어 Head-Tail 토큰화 기법과 품사 태깅 (Korean Head-Tail Tokenization and Part-of-Speech Tagging by using Deep Learning)

  • 김정민;강승식;김혁만
    • 대한임베디드공학회논문지
    • /
    • 제17권4호
    • /
    • pp.199-208
    • /
    • 2022
  • Korean is an agglutinative language, and one or more morphemes are combined to form a single word. Part-of-speech tagging method separates each morpheme from a word and attaches a part-of-speech tag. In this study, we propose a new Korean part-of-speech tagging method based on the Head-Tail tokenization technique that divides a word into a lexical morpheme part and a grammatical morpheme part without decomposing compound words. In this method, the Head-Tail is divided by the syllable boundary without restoring irregular deformation or abbreviated syllables. Korean part-of-speech tagger was implemented using the Head-Tail tokenization and deep learning technique. In order to solve the problem that a large number of complex tags are generated due to the segmented tags and the tagging accuracy is low, we reduced the number of tags to a complex tag composed of large classification tags, and as a result, we improved the tagging accuracy. The performance of the Head-Tail part-of-speech tagger was experimented by using BERT, syllable bigram, and subword bigram embedding, and both syllable bigram and subword bigram embedding showed improvement in performance compared to general BERT. Part-of-speech tagging was performed by integrating the Head-Tail tokenization model and the simplified part-of-speech tagging model, achieving 98.99% word unit accuracy and 99.08% token unit accuracy. As a result of the experiment, it was found that the performance of part-of-speech tagging improved when the maximum token length was limited to twice the number of words.

도심로 주행을 위한 딥러닝 기반 객체 검출 및 거리 추정 알고리즘 적용 (Application of Deep Learning-based Object Detection and Distance Estimation Algorithms for Driving to Urban Area)

  • 서주영;박만복
    • 한국ITS학회 논문지
    • /
    • 제21권3호
    • /
    • pp.83-95
    • /
    • 2022
  • 본 논문은 자율주행 차량 적용을 위한 객체 검출과 거리 추정을 수행하는 시스템을 제안한다. 객체 검출은 최근 활발하게 사용되는 딥러닝 모델 YOLOv4의 특성을 이용해서 입력 이미지 비율에 맞춰 분할 grid를 조정하고 자체 데이터셋으로 전이학습된 네트워크로 수행한다. 검출된 객체까지의 거리는 bounding box와 homography를 이용해 추정한다. 실험 결과 제안하는 방법에서 전반적인 검출 성능 향상과 실시간에 가까운 처리 속도를 보였다. 기존 YOLOv4 대비 전체 mAP는 4.03% 증가했다. 도심로 주행시 빈출하는 보행자, 차량 및 공사장 고깔(cone), PE드럼(drum) 등의 객체 인식 정확도가 향상되었다. 처리 속도는 약 55 FPS이다. 거리 추정 오차는 X 좌표 평균 약 5.25m, Y 좌표 평균 0.97m으로 나타났다.

DWT 기반 딥러닝 잡음소거기에서 웨이블릿 최적화 (Optimizing Wavelet in Noise Canceler by Deep Learning Based on DWT)

  • 정원석;이행우
    • 한국전자통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.113-118
    • /
    • 2024
  • 본 논문에서는 음향신호의 배경잡음을 소거하기 위한 시스템에서 최적의 wavelet을 제안한다. 이 시스템은 기존의 단구간 푸리에변환(STFT: Short Time Fourier Transform) 대신 이산 웨이블릿변환(DWT: Discrete Wavelet Transform)을 수행한 후 심층학습과정을 통하여 잡음소거 성능을 개선하였다. DWT는 다해상도 대역통과필터 기능을 하며 각 레벨에서 모 웨이블릿을 시간 이동시키고 크기를 스케일링한 여러 웨이블릿을 이용하여 변환 파라미터를 구한다. 여기서 음성을 분석하는데 가장 적합한 모(mother) 웨이블릿을 선정하기 위해 여러 웨이블릿에 대한 잡음소거 성능을 실험하였다. 본 연구에서 여러 웨이블릿에 대한 잡음소거시스템의 성능을 검증하기 위하여 Tensorflow와 Keras 라이브러리를 사용한 시뮬레이션 프로그램을 작성하고 가장 많이 사용되는 4개의 wavelet에 대해 모의실험을 수행하였다. 실험 결과, Haar 또는 Daubechies 웨이블릿을 사용하는 경우가 가장 우수한 잡음소거 성능을 나타냈으며 타 웨이블릿을 사용하는 경우보다 평균자승오차(MSE: Mean Square Error)가 크게 개선되는 것을 볼 수 있었다.

실시간 이미지 처리 방법을 이용한 개선된 차선 인식 경로 추종 알고리즘 개발 (Development of an Improved Geometric Path Tracking Algorithm with Real Time Image Processing Methods)

  • 서은빈;이승기;여호영;신관준;최경호;임용섭
    • 자동차안전학회지
    • /
    • 제13권2호
    • /
    • pp.35-41
    • /
    • 2021
  • In this study, improved path tracking control algorithm based on pure pursuit algorithm is newly proposed by using improved lane detection algorithm through real time post-processing with interpolation methodology. Since the original pure pursuit works well only at speeds below 20 km/h, the look-ahead distance is implemented as a sigmoid function to work well at an average speed of 45 km/h to improve tracking performance. In addition, a smoothing filter was added to reduce the steering angle vibration of the original algorithm, and the stability of the steering angle was improved. The post-processing algorithm presented has implemented more robust lane recognition system using real-time pre/post processing method with deep learning and estimated interpolation. Real time processing is more cost-effective than the method using lots of computing resources and building abundant datasets for improving the performance of deep learning networks. Therefore, this paper also presents improved lane detection performance by using the final results with naive computer vision codes and pre/post processing. Firstly, the pre-processing was newly designed for real-time processing and robust recognition performance of augmentation. Secondly, the post-processing was designed to detect lanes by receiving the segmentation results based on the estimated interpolation in consideration of the properties of the continuous lanes. Consequently, experimental results by utilizing driving guidance line information from processing parts show that the improved lane detection algorithm is effective to minimize the lateral offset error in the diverse maneuvering roads.

산업제어시스템의 이상 탐지 성능 개선을 위한 데이터 보정 방안 연구 (Research on Data Tuning Methods to Improve the Anomaly Detection Performance of Industrial Control Systems)

  • 전상수;이경호
    • 정보보호학회논문지
    • /
    • 제32권4호
    • /
    • pp.691-708
    • /
    • 2022
  • 머신러닝과 딥러닝의 기술이 보편화되면서 산업제어시스템의 이상(비정상) 탐지 연구에도 적용이 되기 시작하였다. 국내에서는 산업제어시스템의 이상 탐지를 위한 인공지능 연구를 활성화시키기 위하여 HAI 데이터셋을 개발하여 공개하였고, 산업제어시스템 보안위협 탐지 AI 경진대회를 시행하고 있다. 이상 탐지 연구들은 대개 기존의 딥러닝 학습 알고리즘을 변형하거나 다른 알고리즘과 함께 적용하는 앙상블 학습 모델의 방법을 통해 향상된 성능의 학습 모델을 만드는 연구가 대부분 이었다. 본 연구에서는 학습 모델과 데이터 전처리(pre-processing)의 개선을 통한 방법이 아니라, 비정상 데이터를 탐지하여 라벨링 한 결과를 보정하는 후처리(post-processing) 방법으로 이상 탐지의 성능을 개선시키는 연구를 진행하였고, 그 결과 기존 모델의 이상 탐지 성능 대비 약 10%이상의 향상된 결과를 확인하였다.

IoT 정보 수집을 위한 확률 기반의 딥러닝 클러스터링 모델 (Probability-based Deep Learning Clustering Model for the Collection of IoT Information)

  • 정윤수
    • 디지털융복합연구
    • /
    • 제18권3호
    • /
    • pp.189-194
    • /
    • 2020
  • 최근 IoT 네트워크는 이기종의 IoT 장치에서 발생하는 데이터를 효율적으로 처리하기 위해서 다양한 클러스터링 기법들이 연구되고 있다. 그러나, 기존 클러스터링 기법들은 정적으로 네트워크를 분할하는데 초점을 맞추고 있어서 이동이 가능한 IoT 장치에는 기존 클러스터링 기법들이 적합하지 않다. 본 논문에서는 에지 네트워크를 이용하여 IoT 장치의 정보를 수집·분석하기 위한 확률적 딥러닝 기반의 동적 클러스터링 모델을 제안한다. 제안 모델은 수집된 정보의 속성값의 빈도수를 확률적으로 딥러닝에 적용하여 서브넷을 구축한다. 구축된 서브넷은 시드로 추출된 연계 정보를 계층적 구조로 그룹핑할 때 사용하며, IoT 장치에 대한 동적 클러스터링의 속도 및 정확도를 향상시킨다. 성능평가 결과, 제안모델은 기존 모델에 비해 데이터 처리 시간이 평균 13.8% 향상되었고, 서버의 오버헤드는 기존 모델보다 평균 10.5% 낮게 나타났다. 서버에서 IoT 정보를 추출할 때의 정확도는 기존모델보다 평균 8.7% 향상되었다.

LSTM 기반 딥러닝 알고리즘을 적용한 상수도시스템 누수인지 모델 개발 (Development of leakage detection model in water distribution networks applying LSTM-based deep learning algorithm)

  • 이찬욱;유도근
    • 한국수자원학회논문집
    • /
    • 제54권8호
    • /
    • pp.599-606
    • /
    • 2021
  • 지하에 매설되어 있는 사회기반시설물 중 하나인 상수도시스템은 정수처리된 물을 수용가에게 수송 및 공급하는 기능을 가지고 있다. 최근들어, 계측능력이 향상됨에 따라 유량데이터에 의한 딥러닝기법을 적용한 누수 인지 및 탐지와 관련한 연구가 다수 수행되고 있다. 본 연구에서는 현재까지 상수도 분야에 적용되지 않은 LSTM 기반의 딥러닝 알고리즘을 활용하여 누수발생에 대한 인지 모형을 개발하였다. 가정한 데이터를 기반으로 모형에 대한 검증을 수행하였으며 2% 이상의 누수가 발생한 경우에 대하여 모두 인식이 가능한 것으로 나타났다. 향후, 제안된 모형을 토대로 유량 데이터 예측부분에 있어서 보다 정밀한 결과가 도출 될 수 있을것으로 판단된다.

딥러닝 기반 OCR 인식 엔진의 정확도 향상을 위한 전/후처리기 기술 구현 (Implementation of Pre-Post Process for Accuraty Improvement of OCR Recognition Engine Based on Deep-Learning Technology)

  • 장창복;김기봉
    • 융합정보논문지
    • /
    • 제12권1호
    • /
    • pp.163-170
    • /
    • 2022
  • 4차산업 혁명이 도래함에 따라 AI 기술을 적용하는 솔루션 개발이 활발하게 이루어지고 있다. 2017년도부터 금융권, 보험사를 중심으로 AI 기반 RPA(Robotic Process Automation)을 이용한 업무 자동화 솔루션 도입이 이루어지기 시작했으며, 최근에는 RPA 솔루션 도입 단계를 지나 확산하는 시기로 진입하고 있다. 이러한 RPA 솔루션을 이용한 업무 자동화 중에서 각 종 문서들을 이용한 업무 자동화에는 문서내의 문자 정보를 얼마나 정확하게 인식하는지가 매우 중요하다. 이러한 문자 인식은 최근 딥러닝 기술을 도입함으로써 그 정확도가 많이 높아졌지만, 여전히 완벽한 인식 정확도 갖는 인식 모델은 존재하지 않는다. 따라서, 본 논문에서는 딥러닝 기반 문자 인식 엔진에 전/후 처리기 기술을 적용할 경우 얼마나 정확도가 향상되는지를 확인하고 RPA 인식 엔진과 연계 기술을 구현하였다.