• 제목/요약/키워드: Deep Convolutional Neural Networks

검색결과 408건 처리시간 0.027초

CARDB를 이용한 반복적인 업-다운 샘플링 네트워크 기반의 단일 영상 초해상도 복원 (Single Image Super-Resolution Using CARDB Based on Iterative Up-Down Sampling Architecture)

  • 김인구;유송현;정제창
    • 방송공학회논문지
    • /
    • 제25권2호
    • /
    • pp.242-251
    • /
    • 2020
  • 최근 단일 영상 초해상도에 깊은 합성 곱 신경망을 적용한 알고리듬이 많이 연구되었다. 현존하는 딥러닝 기반 초해상도 기법들은 네트워크의 후반부에 해상도를 업샘플링 하는 구조를 가진다. 이러한 구조는 저해상도에서 고해상도로 한 번에 매핑을 하기에 많은 정보를 예측하는 높은 확대율에서 비효율적인 구조를 가진다. 본 논문에서는 반복적인 업-다운 샘플링 구조를 기반으로 하여 채널 집중 잔여 밀집 블록을 이용한 단일 영상 초해상도 기법을 제안한다. 제안한 알고리듬은 저해상도와 고해상도의 매핑 관계를 효율적으로 예측하여 높은 확대율에서 기존의 알고리듬에 비해 최대 0.14dB 성능 향상과 개선된 주관적 화질을 보여준다.

인공지능 기반 구글넷 딥러닝과 IoT를 이용한 의류 분류 (Classification of Clothing Using Googlenet Deep Learning and IoT based on Artificial Intelligence)

  • 노순국
    • 스마트미디어저널
    • /
    • 제9권3호
    • /
    • pp.41-45
    • /
    • 2020
  • 최근 4차 산업혁명 관련 IT기술 중에서 머신러닝과 딥러닝으로 대표되는 인공지능과 사물인터넷은 다양한 연구를 통해 여러 분야에서 우리 실생활에 적용되고 있다. 본 논문에서는 사물인터넷과 객체인식 기술을 활용한 인공지능을 적용하여 의류를 분류하고자 한다. 이를 위해 이미지 데이터셋은 웹캠과 라즈베리파이를 이용하여 의류를 촬영하고, 촬영된 이미지 데이터를 전이학습된 컨벌루션 뉴럴 네트워크 인공지능망인 구글넷에 적용하였다. 의류 이미지 데이터셋은 온전한 이미지 900개와 손상이 있는 이미지 900 그리고 총 1800개를 가지고 상하의 2개의 카테고리로 분류하였다. 분류 측정 결과는 온전한 의류 이미지에서는 약 97.78%의 정확도를 보였다. 결론적으로 이러한 측정결과와 향후 더 많은 이미지 데이터의 보완을 통해 사물인터넷 기반 플랫폼상에서 인공지능망을 활용한 여타 사물들의 객체 인식에 대한 적용 가능성을 확인하였다.

음성인식 성능 개선을 위한 다중작업 오토인코더와 와설스타인식 생성적 적대 신경망의 결합 (Combining multi-task autoencoder with Wasserstein generative adversarial networks for improving speech recognition performance)

  • 고조원;고한석
    • 한국음향학회지
    • /
    • 제38권6호
    • /
    • pp.670-677
    • /
    • 2019
  • 음성 또는 음향 이벤트 신호에서 발생하는 배경 잡음은 인식기의 성능을 저하시키는 원인이 되며, 잡음에 강인한 특징을 찾는데 많은 노력을 필요로 한다. 본 논문에서는 딥러닝을 기반으로 다중작업 오토인코더(Multi-Task AutoEncoder, MTAE) 와 와설스타인식 생성적 적대 신경망(Wasserstein GAN, WGAN)의 장점을 결합하여, 잡음이 섞인 음향신호에서 잡음과 음성신호를 추정하는 네트워크를 제안한다. 본 논문에서 제안하는 MTAE-WGAN는 구조는 구배 페널티(Gradient Penalty) 및 누설 Leaky Rectified Linear Unit (LReLU) 모수 Parametric ReLU (PReLU)를 활용한 변수 초기화 작업을 통해 음성과 잡음 성분을 추정한다. 직교 구배 페널티와 파라미터 초기화 방법이 적용된 MTAE-WGAN 구조를 통해 잡음에 강인한 음성특징 생성 및 기존 방법 대비 음소 오인식률(Phoneme Error Rate, PER)이 크게 감소하는 성능을 보여준다.

Automatic Detection System of Underground Pipe Using 3D GPR Exploration Data and Deep Convolutional Neural Networks

  • Son, Jeong-Woo;Moon, Gwi-Seong;Kim, Yoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권2호
    • /
    • pp.27-37
    • /
    • 2021
  • 본 논문에서는 관로를 자동으로 검출하는 지하 관로 자동 탐색 시스템을 제안한다. 시간에 따른 지반변화, 관로 시공 불일치 등 여러 가지 요인으로 실제 관로의 위치가 지하 관로 도면과 일치하지 않는다. 이로 인하여 굴착공사나 관로 노후화에 의한 여러 사고가 발생한다. 사고를 방지하기 위해 GPR(지표 투과 레이더, Ground Penetrating Radar) 탐사를 통해 지하시설물을 찾아내는 작업이 이루어지고 있지만, 분석을 담당할 수 있는 전문가의 수가 부족하다. GPR 데이터는 매우 방대하며 분석과정에도 오랜 시간이 걸리기 때문이다. 이에 본 논문에서는 3D GPR 데이터를 자동으로 분석하기 위해 딥 러닝 기술인 3D 이미지 분할을 사용하고, 이에 적합한 데이터 생성 알고리즘을 제안한다. 또한 GPR 데이터 특성에 맞는 데이터 증강 기법, 데이터 전처리 모듈을 제안한다. 실험 결과를 통해 제안한 시스템은 F1 Score 40.4%의 성능을 보였으며 이를 통해 이미지 분할을 이용한 관로 분석의 가능성을 확인하였다.

Automatic Anatomical Classification Model of Esophagogastroduodenoscopy Images Using Deep Convolutional Neural Networks for Guiding Endoscopic Photodocumentation

  • Park, Jung-Whan;Kim, Yoon;Kim, Woo-Jin;Nam, Seung-Joo
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권3호
    • /
    • pp.19-28
    • /
    • 2021
  • 위내시경 촬영은 조기에 위 병변을 진단하기 위해서 주로 사용한다. 하지만 위내시경을 했음에도 불구하고 위 내부를 자세히 관찰하지 못해서 10~20% 위 병변을 놓치는 경우가 생기는 것으로 보고되고 있다. 미국, 영국, 일본 등의 일부 국가와 세계내시경협회(Wold Endoscopy Organization)에서는 위내시경 시에 맹점 없는 관찰을 위해서 반드시 촬영해야 할 부위에 대한 촬영지침을 제안한 바 있다. 이에 본 논문에서는 수련의가 내시경을 하는 데 있어 위 내부를 자동으로 맹점 없이 관찰하는데 필요한 딥러닝 기술인 해부학적 분류모델을 제안한다. 제안한 모델은 위내시경 이미지에 적합한 전처리 모듈과 데이터 증강 기술들을 사용한다. 실험결과를 통해 최대 F1 점수 99.6% 분류 성능을 확인하였다. 또한, 실제 데이터를 통한 실험결과에서도 에러율이 4% 미만을 보였다. 이러한 성능을 바탕으로 설명 가능한 모델임을 보여 임상에서의 사용 가능성을 확인하였다.

딥러닝 기반 미얀마 문자의 특징 추출 및 인식 (Feature Extraction and Recognition of Myanmar Characters Based on Deep Learning)

  • 옴마킨;이성근
    • 한국전자통신학회논문지
    • /
    • 제17권5호
    • /
    • pp.977-984
    • /
    • 2022
  • 최근 동남아시아의 경제발전에 따라 정보기기의 활용이 광범위하게 확산되고 있으며, 지능적 문자인식을 이용한 응용서비스에 대한 수요가 증가하고 있다. 본 논문은 동남아시아 국가 중 하나인 미얀마 문자에 대한 딥러닝 기반 특징 추출 및 인식에 대해 논한다. 특징 추출에는 미얀마 알파벳(33자)과 숫자(10자리)를 사용한다. 본 논문은 9개의 특징을 추출하고 3개 이상의 새로운 특징을 제안한다. 각 문자와 숫자의 특징을 추출하여 성공적인 결과로 표현하였다. 인식 부분에서는 합성곱 신경망을 사용하여 문자 구분에 대한 실행을 평가한다. 제안한 알고리즘은 캡처된 이미지 데이터 세트에 구현되고, 이에 대한 성능을 평가한다. 입력 데이터 세트에 대한 모델의 정밀도는 96%이며 실시간 입력 이미지를 사용한다.

A novel framework for correcting satellite-based precipitation products in Mekong river basin with discontinuous observed data

  • Xuan-Hien Le;Giang V. Nguyen;Sungho Jung;Giha Lee
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2023년도 학술발표회
    • /
    • pp.173-173
    • /
    • 2023
  • The Mekong River Basin (MRB) is a crucial watershed in Asia, impacting over 60 million people across six developing nations. Accurate satellite-based precipitation products (SPPs) are essential for effective hydrological and watershed management in this region. However, the performance of SPPs has been varied and limited. The APHRODITE product, a unique gauge-based dataset for MRB, is widely used but is only available until 2015. In this study, we present a novel framework for correcting SPPs in the MRB by employing a deep learning approach that combines convolutional neural networks and encoder-decoder architecture to address pixel-by-pixel bias and enhance accuracy. The DLF was applied to four widely used SPPs (TRMM, CMORPH, CHIRPS, and PERSIANN-CDR) in MRB. For the original SPPs, the TRMM product outperformed the other SPPs. Results revealed that the DLF effectively bridged the spatial-temporal gap between the SPPs and the gauge-based dataset (APHRODITE). Among the four corrected products, ADJ-TRMM demonstrated the best performance, followed by ADJ-CDR, ADJ-CHIRPS, and ADJ-CMORPH. The DLF offered a robust and adaptable solution for bias correction in the MRB and beyond, capable of detecting intricate patterns and learning from data to make appropriate adjustments. With the discontinuation of the APHRODITE product, DLF represents a promising solution for generating a more current and reliable dataset for MRB research. This research showcased the potential of deep learning-based methods for improving the accuracy of SPPs, particularly in regions like the MRB, where gauge-based datasets are limited or discontinued.

  • PDF

스마트폰 다종 데이터를 활용한 딥러닝 기반의 사용자 동행 상태 인식 (A Deep Learning Based Approach to Recognizing Accompanying Status of Smartphone Users Using Multimodal Data)

  • 김길호;최상우;채문정;박희웅;이재홍;박종헌
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.163-177
    • /
    • 2019
  • 스마트폰이 널리 보급되고 현대인들의 생활 속에 깊이 자리 잡으면서, 스마트폰에서 수집된 다종 데이터를 바탕으로 사용자 개인의 행동을 인식하고자 하는 연구가 활발히 진행되고 있다. 그러나 타인과의 상호작용 행동 인식에 대한 연구는 아직까지 상대적으로 미진하였다. 기존 상호작용 행동 인식 연구에서는 오디오, 블루투스, 와이파이 등의 데이터를 사용하였으나, 이들은 사용자 사생활 침해 가능성이 높으며 단시간 내에 충분한 양의 데이터를 수집하기 어렵다는 한계가 있다. 반면 가속도, 자기장, 자이로스코프 등의 물리 센서의 경우 사생활 침해 가능성이 낮으며 단시간 내에 충분한 양의 데이터를 수집할 수 있다. 본 연구에서는 이러한 점에 주목하여, 스마트폰 상의 다종 물리 센서 데이터만을 활용, 딥러닝 모델에 기반을 둔 사용자의 동행 상태 인식 방법론을 제안한다. 사용자의 동행 여부 및 대화 여부를 분류하는 동행 상태 분류 모델은 컨볼루션 신경망과 장단기 기억 순환 신경망이 혼합된 구조를 지닌다. 먼저 스마트폰의 다종 물리 센서에서 수집한 데이터에 존재하는 타임 스태프의 차이를 상쇄하고, 정규화를 수행하여 시간에 따른 시퀀스 데이터 형태로 변환함으로써 동행 상태분류 모델의 입력 데이터를 생성한다. 이는 컨볼루션 신경망에 입력되며, 데이터의 시간적 국부 의존성이 반영된 요인 지도를 출력한다. 장단기 기억 순환 신경망은 요인 지도를 입력받아 시간에 따른 순차적 연관 관계를 학습하며, 동행 상태 분류를 위한 요인을 추출하고 소프트맥스 분류기에서 이에 기반한 최종적인 분류를 수행한다. 자체 제작한 스마트폰 애플리케이션을 배포하여 실험 데이터를 수집하였으며, 이를 활용하여 제안한 방법론을 평가하였다. 최적의 파라미터를 설정하여 동행 상태 분류 모델을 학습하고 평가한 결과, 동행 여부와 대화 여부를 각각 98.74%, 98.83%의 높은 정확도로 분류하였다.

손금과 손바닥 정맥을 함께 이용한 심층 신경망 기반 사용자 인식 (User Identification Method using Palm Creases and Veins based on Deep Learning)

  • 김슬빈;김원준
    • 방송공학회논문지
    • /
    • 제23권3호
    • /
    • pp.395-402
    • /
    • 2018
  • 손바닥은 손금, 정맥 등 고유한 특징 정보를 포함하고 있는 신체 부위로 이를 이용한 다양한 사용자 인식 방법이 지속적으로 연구되어 왔다. 본 논문에서는 손금과 손바닥 정맥을 함께 이용한 사용자 인식 방법을 제안한다. 먼저, 손바닥 영역에서 손금과 정맥이 가장 많이 포함되어 있는 관심 영역을 검출하고, 에지 방향성 및 밝기 통계정보를 이용하여 정맥 영상 화질 개선을 수행한다. 이후 다중 스펙트럼 환경에서 획득된 복수의 영상을 각각 독립된 심층 신경망의 입력으로 이용하여 손금과 정맥 패턴을 효과적으로 학습한다. 다양한 상황에서의 실험을 통해 본 논문에서 제안하는 방법이 기존 사용자 인식 방법 대비 개선된 결과를 보임을 확인하고 그 결과를 분석한다.

Waste Classification by Fine-Tuning Pre-trained CNN and GAN

  • Alsabei, Amani;Alsayed, Ashwaq;Alzahrani, Manar;Al-Shareef, Sarah
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.65-70
    • /
    • 2021
  • Waste accumulation is becoming a significant challenge in most urban areas and if it continues unchecked, is poised to have severe repercussions on our environment and health. The massive industrialisation in our cities has been followed by a commensurate waste creation that has become a bottleneck for even waste management systems. While recycling is a viable solution for waste management, it can be daunting to classify waste material for recycling accurately. In this study, transfer learning models were proposed to automatically classify wastes based on six materials (cardboard, glass, metal, paper, plastic, and trash). The tested pre-trained models were ResNet50, VGG16, InceptionV3, and Xception. Data augmentation was done using a Generative Adversarial Network (GAN) with various image generation percentages. It was found that models based on Xception and VGG16 were more robust. In contrast, models based on ResNet50 and InceptionV3 were sensitive to the added machine-generated images as the accuracy degrades significantly compared to training with no artificial data.