• Title/Summary/Keyword: 딥러닝 기법

Search Result 1,104, Processing Time 0.029 seconds

Embedded artificial intelligence system development for action estimation on construction site (사용자 행동예측을 위한 임베디드 인공지능 엔진 및 시스템 기술 개발)

  • Song, Hyok;Choi, Inkyu;Ko, Minsoo;Yoo, Jisang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.226-227
    • /
    • 2021
  • 딥러닝을 활용한 영상 분석 기술은 GPU 하드웨어의 발전으로 인하여 소프트웨어 기반 처리 기술이 급격히 발전하였고 기존 패턴 분석 기술 대비 높은 정확도를 보여주고 있다. PC나 특정 하드웨어에서 동작하는 소프트웨어 기반 영상분석기술은 적용분야의 한계가 발생하였다. 신경망 기술을 하드웨어로 구현한 NPU(Network processing unit)의 개발로 고가의 플랫폼이 아닌 임베디드 플랫폼에서의 딥러닝 구현이 가능해졌다. 반면에 하드웨어에서 활용 가능한 네트워크가 제한적임으로 인하여 구현 가능한 딥러닝 모델의 크기, 메모리 등의 한계가 있으며 시시각각 변하는 딥러닝 기술에 기반한 최신모델 또는 고성능 모델을 구동하기에는 한계가 발생하였다. 이를 해결하기 위하여 본 연구에서는 Distillation 기법을 적용한 임베디드 시스템을 개발하고 이에 기반한 딥러닝 모델의 구현 및 상황에 따른 가변적 딥러닝 모델의 적용이 가능한 시스템을 구현하였다.

  • PDF

A Feasibility Study on Application of a Deep Convolutional Neural Network for Automatic Rock Type Classification (자동 암종 분류를 위한 딥러닝 영상처리 기법의 적용성 검토 연구)

  • Pham, Chuyen;Shin, Hyu-Soung
    • Tunnel and Underground Space
    • /
    • v.30 no.5
    • /
    • pp.462-472
    • /
    • 2020
  • Rock classification is fundamental discipline of exploring geological and geotechnical features in a site, which, however, may not be easy works because of high diversity of rock shape and color according to its origin, geological history and so on. With the great success of convolutional neural networks (CNN) in many different image-based classification tasks, there has been increasing interest in taking advantage of CNN to classify geological material. In this study, a feasibility of the deep CNN is investigated for automatically and accurately identifying rock types, focusing on the condition of various shapes and colors even in the same rock type. It can be further developed to a mobile application for assisting geologist in classifying rocks in fieldwork. The structure of CNN model used in this study is based on a deep residual neural network (ResNet), which is an ultra-deep CNN using in object detection and classification. The proposed CNN was trained on 10 typical rock types with an overall accuracy of 84% on the test set. The result demonstrates that the proposed approach is not only able to classify rock type using images, but also represents an improvement as taking highly diverse rock image dataset as input.

Dam Inflow Prediction using Deep Learning Model based on Continuous Simulation (연속형 모의 기반의 딥러닝 모델을 활용한 댐 유입량 예측 및 평가)

  • Heo, Jae-Yeong;Bae, Deg-Hyo
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.122-122
    • /
    • 2021
  • 전 세계적인 기후변화로 인해 태풍과 집중호우의 빈도와 규모가 증가하고 있으며 그로 인해 수재해 대응과 수자원 관리에 많은 어려움이 따른다. 댐 운영은 이러한 수자원 관리의 중요한 요소이며 정확한 댐 유입량의 예측은 효율적인 댐 운영과 관리의 필수적인 부분이다. 최근에는 여러 분야에서 활용되고 있는 딥러닝 모델을 활용하여 댐 유입량 예측에 관한 다수의 연구들이 수행되고 있다. 특히, 수문 시계열의 장기적인 특성과 비선형적인 관계를 고려하기 위해 연속형 모의를 기반으로 하는 딥러닝 모델의 적용 및 평가와 관련 연구의 필요성이 대두되고 있다. 본 연구에서는 연속형 모의를 기반으로 하는 딥러닝 모델을 활용하여 댐 유입량 예측을 수행하고자 하며 이의 적용성을 평가하고자 한다. 적용 대상 지역으로는 안동댐 상류 유역을 선정하였으며 2006년부터 2020년까지의 시 단위 강우 및 댐 유입량 자료를 활용하였다. 선행시간(1~6시간)별 예측 유입량과 관측 유입량의 비교를 통한 정량적 평가를 수행하였다. 또한 입력 자료에 대한 과거 기간, 모델 구성, 손실함수 등에 대한 조건별 평가를 통해 예측 정확도의 변화에 대한 분석을 수행하였다. 본 연구결과를 통해, 딥러닝 기반의 댐 유입량 예측 정확도에 대한 향상과 실시간 예측을 위한 딥러닝 모델의 활용성 증대에 기여할 것으로 기대된다. 향후, 강우 예보 자료를 연계한 딥러닝 기반의 실시간 댐 유입량 예측 기법을 제안하고 이의 활용성을 평가하고자 한다.

  • PDF

Research on Pothole Detection using Feature-Level Ensemble of Pretrained Deep Learning Models (사전 학습된 딥러닝 모델들의 피처 레벨 앙상블을 이용한 포트홀 검출 기법 연구)

  • Ye-Eun Shin;Inki Kim;Beomjun Kim;Younghoon Jeon;Jeonghwan Gwak
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.35-38
    • /
    • 2023
  • 포트홀은 주행하는 자동차와 접촉이 이뤄지면 차체나 운전자에게 충격을 주고 제어를 잃게 하여 도로 위 안전을 위협할 수 있다. 포트홀의 검출을 위한 국내 동향으로는 진동을 이용한 방식과 신고시스템 이용한 방식과 영상 인식을 기반한 방식이 있다. 이 중 영상 인식 기반 방식은 보급이 쉽고 비용이 저렴하나, 컴퓨터 비전 알고리즘은 영상의 품질에 따라 정확도가 달라지는 문제가 있었다. 이를 보완하기 위해 영상 인식 기반의 딥러닝 모델을 사용한다. 따라서, 본 논문에서는 사전 학습된 딥러닝 모델의 정확도 향상을 위한 Feature Level Ensemble 기법을 제안한다. 제안된 기법은 사전 학습된 CNN 모델 중 Test 데이터의 정확도 기준 Top-3 모델을 선정하여 각 딥러닝 모델의 Feature Map을 Concatenate하고 이를 Fully-Connected(FC) Layer로 입력하여 구현한다. Feature Level Ensemble 기법이 적용된 딥러닝 모델은 평균 대비 3.76%의 정확도 향상을 보였으며, Top-1 모델인 ShuffleNet보다 0.94%의 정확도 향상을 보였다. 결론적으로 본 논문에서 제안된 기법은 사전 학습된 모델들을 이용하여 각 모델의 다양한 특징을 통해 기존 모델 대비 정확도의 향상을 이룰 수 있었다.

  • PDF

CNN Architecture for Accurately and Efficiently Learning a 3D Triangular Mesh (3차원 삼각형 메쉬를 정확하고 효율적으로 학습하기 위한 CNN 아키텍처)

  • Hong Eun Na;Jong-Hyun Kim
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.369-372
    • /
    • 2023
  • 본 논문에서는 삼각형 구조로 구성된 3차원 메쉬(Mesh)에서 합성곱 신경망(Convolution Neural Network, CNN)을 응용하여 정확도가 높은 새로운 학습 표현 기법을 제시한다. 우리는 메쉬를 구성하고 있는 폴리곤의 edge와 face의 로컬 특징을 기반으로 학습을 진행한다. 일반적으로 딥러닝은 인공신경망을 수많은 계층 형태로 연결한 기법을 말하며, 주요 처리 대상은 1, 2차원 데이터 형태인 오디오 파일과 이미지였다. 인공지능에 대한 연구가 지속되면서 3차원 딥러닝이 도입되었지만, 기존의 학습과는 달리 3차원 딥러닝은 데이터의 확보가 쉽지 않다. 혼합현실과 메타버스 시장의 확대로 인해 3차원 모델링 시장이 증가하고, 기술의 발전으로 데이터를 획득할 수 있는 방법이 생겼지만, 3차원 데이터를 직접적으로 학습에 이용하는 방식으로 적용하는 것은 쉽지 않다. 그렇게 때문에 본 논문에서는 산업 현장에서 이용되는 데이터인 메쉬 구조를 폴리곤의 최소 단위인 삼각형 형태로 구성하여 학습 데이터를 구성해 기존의 방법보다 정확도가 높은 학습 기법을 제안한다.

  • PDF

A Study of Automatic Deep Learning Data Generation by Considering Private Information Protection (개인정보 보호를 고려한 딥러닝 데이터 자동 생성 방안 연구)

  • Sung-Bong Jang
    • The Journal of the Convergence on Culture Technology
    • /
    • v.10 no.1
    • /
    • pp.435-441
    • /
    • 2024
  • In order for the large amount of collected data sets to be used as deep learning training data, sensitive personal information such as resident registration number and disease information must be changed or encrypted to prevent it from being exposed to hackers, and the data must be reconstructed to match the structure of the built deep learning model. Currently, these tasks are performed manually by experts, which takes a lot of time and money. To solve these problems, this paper proposes a technique that can automatically perform data processing tasks to protect personal information during the deep learning process. In the proposed technique, privacy protection tasks are performed based on data generalization and data reconstruction tasks are performed using circular queues. To verify the validity of the proposed technique, it was directly implemented using C language. As a result of the verification, it was confirmed that data generalization was performed normally and data reconstruction suitable for the deep learning model was performed properly.

A Study on Radar Rainfall Prediction Method based on Deep Learning (딥러닝 기반의 레이더 강우예측 기법에 관한 연구)

  • Heo, Jae-Yeong;Yoon, Seong Sim;Lim, Ye Jin;Bae, Deg-Hyo
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2022.05a
    • /
    • pp.128-128
    • /
    • 2022
  • 최근 호우의 빈도와 규모는 증가하는 추세이며 이에 따른 홍수 피해는 많은 피해를 야기하고 있다. 이러한 관점에서 홍수 피해에 대한 선제적 대응을 위한 요소로써 초단시간 강우예측 정보의 중요성은 매우 높다. 특히, 레이더 자료 기반의 강우예측은 수치예보모델과 비교하여 3시간 이내의 짧은 선행시간 이내의 높은 정확도를 갖고 있어 홍수예보에 다수 활용되고 있다. 최근에는 강우자료의 복잡한 관계와 특징을 고려하기 위해 딥러닝 기반의 강우예측 활용 사례가 증가하고 있으나 국내 적용 사례는 적어 관련 연구가 요구되는 실정이다. 본 연구에서는 레이더 강우를 활용한 딥러닝 기반의 강우예측 기법을 제안하고 이에 대한 적용성을 평가하고자 한다. 2차원 레이더 강우자료의 특징과 시계열 특성을 고려하기 위한 심층신경망 구조를 제안하였으며 기존 딥러닝 모형과의 비교를 통해 활용 가능성을 제시하고자 하였다. 적용 대상지역은 한강 유역으로 선정하였다. 정성적 평가를 위해 임계성공지수(CSI)를 활용하여 예측 강우에 대한 정확도를 평가하였으며 정량적 평가를 위해 예측 강우와 관측 강우의 상관관계를 분석하였다. 평가 결과, 제안하는 방법이 기존 모형과 비교하여 예측오차의 범위가 적고 강우의 위치 변화를 잘 반영하는 것으로 나타났다. 본 연구결과는 초단기간 강우예측 자료를 활용하는 홍수예보의 정확도 향상에 기여할 것으로 기대된다.

  • PDF

Deep Learning-Based Dynamic Scheduling with Multi-Agents Supporting Scalability in Edge Computing Environments (멀티 에이전트 에지 컴퓨팅 환경에서 확장성을 지원하는 딥러닝 기반 동적 스케줄링)

  • JongBeom Lim
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.12 no.9
    • /
    • pp.399-406
    • /
    • 2023
  • Cloud computing has been evolved to support edge computing architecture that combines fog management layer with edge servers. The main reason why it is received much attention is low communication latency for real-time IoT applications. At the same time, various cloud task scheduling techniques based on artificial intelligence have been proposed. Artificial intelligence-based cloud task scheduling techniques show better performance in comparison to existing methods, but it has relatively high scheduling time. In this paper, we propose a deep learning-based dynamic scheduling with multi-agents supporting scalability in edge computing environments. The proposed method shows low scheduling time than previous artificial intelligence-based scheduling techniques. To show the effectiveness of the proposed method, we compare the performance between previous and proposed methods in a scalable experimental environment. The results show that our method supports real-time IoT applications with low scheduling time, and shows better performance in terms of the number of completed cloud tasks in a scalable experimental environment.

Performance Analysis of Wireless Communication Systems Using Deep Learning Based Transmit Power Control in Nakagami Fading Channels (나카가미 페이딩 채널에서 딥러닝 기반 송신 전력 제어 기법을 이용하는 무선통신 시스템에 대한 성능 분석)

  • Kim, Donghyeon;Kim, Dongyon;Lee, In-Ho
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.24 no.6
    • /
    • pp.744-750
    • /
    • 2020
  • In this paper, we propose a deep learning based transmit power control (TPC) scheme to improve the spectral and energy efficiency of wireless communication systems. In the wireless communication system, the positions of multiple transceivers follow a uniform distribution, and the performances of spectral and energy efficiency for the proposed TPC scheme are analyzed assuming the Nakagami fading channels. The proposed TPC scheme uses batch normalization to improve spectral and energy efficiency in deep learning based training. Through simulation, we compare the results of the spectral and energy efficiency of the proposed TPC scheme and the conventional one for various area sizes that limit the position range of the transceivers and Nakagami fading factors. Comparing the performance results, we verify that the proposed scheme provides better performance than the conventional one.

STL-Attention based Traffic Prediction with Seasonality Embedding (계절성 임베딩을 고려한 STL-Attention 기반 트래픽 예측)

  • Yeom, Sungwoong;Choi, Chulwoong;Kolekar, Shivani Sanjay;Kim, Kyungbaek
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.95-98
    • /
    • 2021
  • 최근 비정상적인 네트워크 활동 감지 및 네트워크 서비스 프로비저닝과 같은 다양한 분야에서 응용되는 네트워크 트래픽 예측 기술이 네트워크 통신 문제에 의한 트래픽의 결측 및 네트워크 유저의 불규칙한 활동에 의한 비선형 특성 때문에 발생하는 성능 저하를 극복하기 위해 딥러닝 신경망에 대한 연구가 활성화되고 있다. 이 딥러닝 신경망 중 시계열 딥러닝 신경망은 단기 네트워크 트래픽 볼륨을 예측할 때 낮은 오류율을 보인다. 하지만, 시계열 딥러닝 신경망은 기울기 소멸 및 폭발과 같은 비선형성, 다중 계절성 및 장기적 의존성 문제와 같은 한계를 보여준다. 이 논문에서는 계절성 임베딩을 고려한 주의 신경망 기반 트래픽 예측 기법을 제안한다. 제안하는 기법은 STL 분해 기법을 통해 분해된 트래픽 트랜드, 계절성, 잔차를 이용하여 일별 및 주별 계절성을 임베딩하고 이를 주의 신경망을 기반으로 향후 트래픽을 예측한다.