• Title/Summary/Keyword: Deep Learning based System

검색결과 1,207건 처리시간 0.029초

엔터프라이즈 환경의 딥 러닝을 활용한 이미지 예측 시스템 아키텍처 (Using the Deep Learning for the System Architecture of Image Prediction)

  • 천은영;최성자
    • 디지털융복합연구
    • /
    • 제17권10호
    • /
    • pp.259-264
    • /
    • 2019
  • 본 논문에서는 엔터프라이즈 환경에서의 딥 러닝에 대한 이미지 예측 시스템 아키텍처를 제안한다. 엔터프라이즈 환경에 대해 인공지능 플랫폼으로 변환을 쉽게 하고, 인공지능 플랫폼이 파이선에 집중되어서 자바 중심의 엔터프라이즈 개발이 어려운 단점을 개선하기 위해 자바 중심의 아키텍처에서도 충분한 딥 러닝 서비스의 개발과 수정이 가능하도록 한다. 또한, 제안된 환경을 토대로 이미지 예측 실험을 통해 기존에 학습된 딥 러닝 아키텍처 환경에서의 정확도가 높은 예측 시스템을 제안한다. 실험을 통해 딥 러닝이 수행되기 위해 제공된 이미지 예에서 95.23%의 정확도를 보이며, 제안된 모델은 유사한 다른 모델에 비교해 96.54%의 정확도를 보인다. 제시된 아키텍처를 활용하여 활발한 엔터프라이즈급 환경의 딥 러닝 서비스가 개발 및 제공될 것으로 보이며, 기존 엔터프라이즈 환경이 딥 러닝 아키텍처가 탑재된 환경으로 전환이 활발히 이루어질 것이다.

비지도학습의 딥 컨벌루셔널 자동 인코더를 이용한 셀 이미지 분류 (Cell Images Classification using Deep Convolutional Autoencoder of Unsupervised Learning)

  • 칼렙;박진혁;권오준;이석환;권기룡
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.942-943
    • /
    • 2021
  • The present work proposes a classification system for the HEp-2 cell images using an unsupervised deep feature learning method. Unlike most of the state-of-the-art methods in the literature that utilize deep learning in a strictly supervised way, we propose here the use of the deep convolutional autoencoder (DCAE) as the principal feature extractor for classifying the different types of the HEp-2 cell images. The network takes the original cell images as the inputs and learns to reconstruct them in order to capture the features related to the global shape of the cells. A final feature vector is constructed by using the latent representations extracted from the DCAE, giving a highly discriminative feature representation. The created features will be fed to a nonlinear classifier whose output will represent the final type of the cell image. We have tested the discriminability of the proposed features on one of the most popular HEp-2 cell classification datasets, the SNPHEp-2 dataset and the results show that the proposed features manage to capture the distinctive characteristics of the different cell types while performing at least as well as the actual deep learning based state-of-the-art methods.

딥러닝과 단기매매전략을 결합한 암호화폐 투자 방법론 실증 연구 (An Empirical Study on the Cryptocurrency Investment Methodology Combining Deep Learning and Short-term Trading Strategies)

  • 이유민;이민혁
    • 지능정보연구
    • /
    • 제29권1호
    • /
    • pp.377-396
    • /
    • 2023
  • 암호화폐시장이 지속해서 성장함에 따라 하나의 새로운 금융시장으로 발전하였다. 이러한 암호화폐시장에 관한 투자전략 연구의 필요성 또한 대두되고 있다. 본 연구에서는 단기매매전략과 딥러닝을 결합한 암호화폐 투자 방법론에 대해 실증분석을 진행하였다. 투자 대상의 암호화폐를 이더리움으로 설정하고, 과거 데이터를 기반으로 최적의 파라미터를 찾아 이를 활용하여 실험 모델의 투자 성과를 분석하였다. 실험 모델은 변동성돌파전략, LSTM(Long Short Term Memory)모델, 이동평균 교차 전략, 그리고 단일 모델들을 결합한 결합 모델이다. 변동성돌파전략은 일 단위로 변동성이 크게 상승할 때 매수하고 당일 종가에 매도하는 단기매매전략이며, LSTM모델은 시계열 데이터에 적합한 딥러닝 모델인 LSTM을 활용하여 얻은 예측 종가를 이용한 매매방법이다. 이동평균 교차 전략은 단기 이동평균선이 교차할 때 매매를 결정하는 방법이다. 결합 모델은 변동성돌파전략의 매수 조건과 변동성돌파전략의 목표 매수가보다 LSTM의 예측 종가가 큰 경우 매수하는 조건이 동시에 만족하면 매수하는 규칙이다. 결합 모델은 변동성돌파전략과 LSTM모델의 파생 변수를 활용해 매수 조건에 AND와 OR를 사용하여 만든 매매 규칙이다. 실험 결과, 단일 모델보다 결합 모델에서 투자 성과가 우수함을 확인하였다. 특히, 데일리 트레이딩과 매수 후 보유의 누적수익률은 -50%이하인 것에 비해 결합 모델은 +11.35%의 높은 누적수익률을 달성하여 하락이 지속되던 투자 기간에도 기술적으로 방어하며 수익을 낼 수 있음을 확인하였다. 본 연구는 기존의 딥러닝기반 암호화폐 가격 예측에서 나아가 변동성이 큰 암호화폐시장에서 딥러닝과 단기매매전략을 결합하여 투자 성과를 개선하였다는 점에서 학술적 의의가 있으며, 실제 투자 시 적용 가능성을 보여주었다는 점에서 실무적 의의가 있다.

Deep Convolutional Neural Network를 이용한 주차장 차량 계수 시스템 (Parking Lot Vehicle Counting Using a Deep Convolutional Neural Network)

  • 림 쿠이 송;권장우
    • 한국ITS학회 논문지
    • /
    • 제17권5호
    • /
    • pp.173-187
    • /
    • 2018
  • 본 논문에서는 주차장 관리 시스템의 한 부분으로 차량 계수를 위한 감시 카메라 시스템의 컴퓨터 비전과 심층 학습 기반 기법을 제안하고자 한다. You Only Look Once 버전 2 (YOLOv2) 탐지기를 적용하고 YOLOv2 기반의 심층 컨볼루션 신경망(CNN)을 다른 아키텍처와 두 가지 모델로 구성하였다. 제안 된 아키텍처의 효과를 Udacity의 자체 운전 차량 데이터 세트를 사용하여 설명하였다. 학습 및 테스트 결과, 자동차, 트럭 및 보행자 탐지 시 원래 구조(YOLOv2)의 경우 47.89%의 mAP를 나타내는 것에 비하여, 제안하는 모델의 경우 64.30 %의 mAP를 달성하여 탐지 정확도가 향상되었음을 증명하였다.

구글 맵 API를 이용한 딥러닝 기반의 드론 자동 착륙 기법 설계 (Design of Deep Learning-Based Automatic Drone Landing Technique Using Google Maps API)

  • 이지은;문형진
    • 산업융합연구
    • /
    • 제18권1호
    • /
    • pp.79-85
    • /
    • 2020
  • 최근 원격조종과 자율조종이 가능한 무인항공기(RPAS:Remotely Piloted Aircraft System)가 택배 드론, 소방드론, 구급 드론, 농업용 드론, 예술 드론, 드론 택시 등 각 산업 분야와 공공기관에서의 관심과 활용이 높아지고 있다. 자율조종이 가능한 무인드론의 안정성 문제는 앞으로 드론 산업의 발달과 함께 진화하면서 해결해야 할 가장 큰 과제이기도 하다. 드론은 자율비행제어 시스템이 지정한 경로로 비행하고 목적지에 정확하게 자동 착륙을 수행할 수 있어야 한다. 본 연구는 드론의 센서와 GPS의 위치 정보의 오류를 보완하는 방법으로서 착륙지점 영상을 통해 드론의 도착 여부를 확인하고 정확한 위치에서의 착륙을 제어하는 기법을 제안한다. 서버에서 도착지 영상을 구글맵 API로부터 수신받아 딥러닝으로 학습하고, 드론에 NAVIO2와 라즈베리파이, 카메라를 장착하여 착륙지점의 이미지를 촬영한 다음 이미지를 서버에 전송한다. Deep Learning으로 학습된 결과와 비교하여 임계치에 맞게 드론의 위치를 조정한 후 착륙지점에 자동으로 착륙할 수 있다.

딥러닝 기법을 활용한 위성 관측 해수면 온도 자료의 결측부 복원에 관한 연구 (Restoration of Missing Data in Satellite-Observed Sea Surface Temperature using Deep Learning Techniques)

  • 박원빈;최흥배;한명수;엄호식;송용식
    • 해양환경안전학회지
    • /
    • 제29권6호
    • /
    • pp.536-542
    • /
    • 2023
  • 인공위성은 최첨단 기술로써 시공간적 관측제약이 적어 해양 사고에 효과적 대응과 해양 변동 특성 분석 등으로 각국의 국가기관들이 위성 정보를 활용하고 있다. 하지만 고해상도 위성 관측 기반 해수면 온도 자료(Operational Sea Surface Temperature and Sea Ice Analysis, OSTIA)는 위성의 기기적, 또는 지리적 오류와 구름으로 인해 낮게 관측되거나 공백으로 처리되며 이를 복원하기까지 수 시간이 소요된다. 본 연구는 최신 딥러닝 기반 알고리즘인 LaMa 기법을 활용하여 결측된 OSTIA 자료를 복원하고, 그 성능을 기존에 이용되어 온 세 가지 영상처리 기법들의 성능과 비교하여 평가하였다. 결정계수(R2)와 평균절대오차(MAE) 값을 이용하여 각 기법의 위성 영상 복원 성능을 평가한 결과, LaMa 알고리즘을 적용하였을 때의 R2과 MAE 값이 각각 0.9 이상, 0.5℃ 이하로, 기존에 사용되어 온 쌍 선형보간법, 쌍삼차보간법, DeepFill v1 기법을 적용한 것보다 더 우수한 성능을 보였다. 향후에는 현업 위성 자료 제공 시스템에 LaMa 기법을 적용하여 그 가능성을 평가해 보고자 한다.

딥 러닝 기반 얼굴 메쉬 데이터 디노이징 시스템 (A Deep Learning-Based Face Mesh Data Denoising System)

  • 노지현;임현승;김종민
    • 전기전자학회논문지
    • /
    • 제23권4호
    • /
    • pp.1250-1256
    • /
    • 2019
  • 3차원 프린터나 깊이 카메라 등을 이용하면 실세계의 3차원 메쉬 데이터를 손쉽게 생성할 수 있지만, 이렇게 생성된 데이터에는 필연적으로 불필요한 노이즈가 포함되어 있다. 따라서, 온전한 3차원 메쉬 데이터를 얻기 위해서는 메쉬 디노이징 작업이 필수적이다. 하지만 기존의 수학적인 디노이징 방법들은 전처리 작업이 필요하며 3차원 메쉬의 일부 중요한 특징들이 사라지는 문제점이 있다. 본 논문에서는 이러한 문제를 해결하기 위해 딥 러닝 기반의 3차원 메쉬 디노이징 기법을 소개한다. 구체적으로 본 논문에서는 인코더와 디코더로 구성된 컨볼루션 기반 오토인코더 모델을 제안한다. 메쉬 데이터에 적용하는 컨볼루션 연산은 메쉬 데이터를 구성하고 있는 각각의 정점과 그 주변의 정점들 간의 관계를 고려하여 디노이징을 수행하며, 컨볼루션이 완료되면 학습 속도 향상을 위해 샘플링 연산을 수행한다. 실험 결과, 본 논문에서 제안한 오토인코더 모델이 기존 방식보다 더 빠르고 더 높은 품질의 디노이징된 데이터를 생성함을 확인하였다.

자동 치아 분할용 종단 간 시스템 개발을 위한 선결 연구: 딥러닝 기반 기준점 설정 알고리즘 (Prerequisite Research for the Development of an End-to-End System for Automatic Tooth Segmentation: A Deep Learning-Based Reference Point Setting Algorithm)

  • 서경덕;이세나;진용규;양세정
    • 대한의용생체공학회:의공학회지
    • /
    • 제44권5호
    • /
    • pp.346-353
    • /
    • 2023
  • In this paper, we propose an innovative approach that leverages deep learning to find optimal reference points for achieving precise tooth segmentation in three-dimensional tooth point cloud data. A dataset consisting of 350 aligned maxillary and mandibular cloud data was used as input, and both end coordinates of individual teeth were used as correct answers. A two-dimensional image was created by projecting the rendered point cloud data along the Z-axis, where an image of individual teeth was created using an object detection algorithm. The proposed algorithm is designed by adding various modules to the Unet model that allow effective learning of a narrow range, and detects both end points of the tooth using the generated tooth image. In the evaluation using DSC, Euclid distance, and MAE as indicators, we achieved superior performance compared to other Unet-based models. In future research, we will develop an algorithm to find the reference point of the point cloud by back-projecting the reference point detected in the image in three dimensions, and based on this, we will develop an algorithm to divide the teeth individually in the point cloud through image processing techniques.

An Integrated Accurate-Secure Heart Disease Prediction (IAS) Model using Cryptographic and Machine Learning Methods

  • Syed Anwar Hussainy F;Senthil Kumar Thillaigovindan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권2호
    • /
    • pp.504-519
    • /
    • 2023
  • Heart disease is becoming the top reason of death all around the world. Diagnosing cardiac illness is a difficult endeavor that necessitates both expertise and extensive knowledge. Machine learning (ML) is becoming gradually more important in the medical field. Most of the works have concentrated on the prediction of cardiac disease, however the precision of the results is minimal, and data integrity is uncertain. To solve these difficulties, this research creates an Integrated Accurate-Secure Heart Disease Prediction (IAS) Model based on Deep Convolutional Neural Networks. Heart-related medical data is collected and pre-processed. Secondly, feature extraction is processed with two factors, from signals and acquired data, which are further trained for classification. The Deep Convolutional Neural Networks (DCNN) is used to categorize received sensor data as normal or abnormal. Furthermore, the results are safeguarded by implementing an integrity validation mechanism based on the hash algorithm. The system's performance is evaluated by comparing the proposed to existing models. The results explain that the proposed model-based cardiac disease diagnosis model surpasses previous techniques. The proposed method demonstrates that it attains accuracy of 98.5 % for the maximum amount of records, which is higher than available classifiers.

Movie Box-office Prediction using Deep Learning and Feature Selection : Focusing on Multivariate Time Series

  • Byun, Jun-Hyung;Kim, Ji-Ho;Choi, Young-Jin;Lee, Hong-Chul
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권6호
    • /
    • pp.35-47
    • /
    • 2020
  • 박스 오피스 예측은 영화 이해관계자들에게 중요하다. 따라서 정확한 박스 오피스 예측과 이에 영향을 미치는 주요 변수를 선별하는 것이 필요하다. 본 논문은 영화의 박스 오피스 예측 정확도 향상을 위해 다변량 시계열 데이터 분류와 주요 변수 선택 방법을 제안한다. 연구 방법으로 한국 영화 일별 데이터를 KOBIS와 NAVER에서 수집하였고, 랜덤 포레스트(Random Forest) 방법으로 주요 변수를 선별하였으며, 딥러닝(Deep Learning)으로 다변량 시계열을 예측하였다. 한국의 스크린 쿼터제(Screen Quota) 기준, 딥러닝을 이용하여 영화 개봉 73일째 흥행 예측 정확도를 주요 변수와 전체 변수로 비교하고 통계적으로 유의한지 검정하였다. 딥러닝 모델은 다층 퍼셉트론(Multi-Layer Perceptron), 완전 합성곱 신경망(Fully Convolutional Neural Networks), 잔차 네트워크(Residual Network)로 실험하였다. 결과적으로 주요 변수를 잔차 네트워크에 사용했을 때 예측 정확도가 약 93%로 가장 높았다.