• 제목/요약/키워드: CNN Model

검색결과 974건 처리시간 0.027초

효과적인 문서 수준의 정보를 이용한 합성곱 신경망 기반의 신규성 탐지 (CNN-Based Novelty Detection with Effectively Incorporating Document-Level Information)

  • 조성웅;오흥선;임상훈;김선호
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제9권10호
    • /
    • pp.231-238
    • /
    • 2020
  • 웹 상에 수 많은 문서가 등장함에 따라 기존 문서와 내용이 중복되는 문서를 찾아서 제외함으로써 새로운 문서를 찾는 노력을 줄일 수 있어 문서 수준의 신규성 탐지(novelty detection)가 중요해졌다. 최근 연구에서는 합성곱 신경망(CNN) 구조 기반의 신규성 탐지 모델 구조가 제안되었고 상당한 성능 향상을 나타내였다. 본 논문에서는 기존의 CNN 기반의 모델에서 문서 수준의 정보가 제한적으로 사용되는 것을 관측하고 문서의 신규성을 결정할 때 문서 수준의 정보가 중요하므로 제한적인 사용이 문제가 된다고 가정하였다. 이에 대한 해결책으로, 본 논문에서는 합성곱 신경망 기반 신규성 탐지 모델 구조를 개선하여 문서 수준 정보를 효과적으로 사용하는 두 가지 방법을 제안한다. 본 논문에서 제안하는 방법은 대상(target) 문서와 증거로 주어진 출처(source) 문서 사이의 상대적(relative) 정보를 추출하여 신규성을 분류할 대상 문서의 특징 벡터를 구성하는 것에 초점을 맞춘다. 본 논문에서는 표준 벤치마크 데이터 셋인 TAP-DLND 1.0를 이용하여 여러 실험을 통해서 제안한 방법의 우수성을 보여준다.

팽창된 잔차 합성곱신경망을 이용한 KOMPSAT-3A 위성영상의 융합 기법 (A Pansharpening Algorithm of KOMPSAT-3A Satellite Imagery by Using Dilated Residual Convolutional Neural Network)

  • 최호성;서두천;최재완
    • 대한원격탐사학회지
    • /
    • 제36권5_2호
    • /
    • pp.961-973
    • /
    • 2020
  • 본 논문에서는 CNN (Convolutional Neural Network) 기반의 영상융합 기법을 제안하고자 하였다. 딥러닝 구조의 성능을 향상시키기 위하여, CNN 기법에서 대표적인 합성곱(convolution) 방법으로 알려진 팽창된 합성곱(dilated convolution) 모델을 활용하여 모델의 깊이와 복잡성을 증대시키고자 하였다. 팽창된 합성곱을 기반으로 하여 학습과정에서의 효율을 향상시키기 위하여 잔차 네트워크(residual network)도 활용하였다. 또한, 본 연구에서는 모델학습을 위하여 전통적인 L1 노름(norm) 기반의 손실함수와 함께, 공간 상관도를 활용하였다. 본 연구에서는 전정색 영상만을 이용하거나 전정색 영상과 다중분광 영상을 모두 활용하여 구조에 적용한 DRNet을 개발하여 실험을 수행하였다. KOMPSAT-3A를 활용한 전정색 영상과 다중분광 영상을 이용한 DRNet은 융합영상의 분광특성에 과적합되는 결과를 나타냈으며, 전정색 영상만을 이용한 DRNet이 기존 기법들과 비교하여 융합영상의 공간적 특성을 효과적으로 반영함을 확인하였다.

CNN 을 이용한 동전 분류 (Coin Classification using CNN)

  • 이재현;신동규;박이준;송현주;구본근
    • Journal of Platform Technology
    • /
    • 제9권3호
    • /
    • pp.63-69
    • /
    • 2021
  • 각국에서 통용되는 동전 제작에 사용되는 제한된 종류의 재질과 동전의 휴대성 등을 고려한 디자인은 각국의 통화가 달라도 동전의 모양, 크기, 색상을 비슷하게 하였다. 이로 인해 여러 국가를 방문하는 사람은 비슷한 모양의 여러 나라 동전을 식별하는 것에 어려움을 겪는다. 이러한 문제를 해결하기 위해 본 논문에서는 이미지 처리에 효과적인 합성곱 신경망(CNN)을 이용한 동전 분류 방법을 제안한다. 동전 분류를 위한 학습 이미지는 웹 크롤링을 이용하여 수집하고, 이미지 전처리를 위해 OpenCV를 사용하였다. 전처리가 완료된 이미지를 대상으로 특징 추출을 위해 세계층의 합성곱 계층을 사용하였고, 분류를 위해 두 계층의 완전연결 신경망을 사용하였다. 본 논문에서 설계한 모델이 동전 분류에 효과가 있음을 보이기 위해 여덟 종류의 동전을 대상으로 시험하였다. 실험 결과에 의하면 동전 분류의 정확도는 약 99.5%이다.

전이학습을 이용한 볼베어링의 진동진단 (Transfer Learning-Based Vibration Fault Diagnosis for Ball Bearing)

  • 홍수빈;이영대;문찬우
    • 문화기술의 융합
    • /
    • 제9권3호
    • /
    • pp.845-850
    • /
    • 2023
  • 본 논문에서는 전이학습을 이용하여 볼베어링의 진동진단을 수행하는 방법을 제안한다. 고장을 진단하기 위해 진동신호를 시간-주파수로 분석할 수 있는 STFT을 CNN의 입력으로 이용하였다. CNN 기반의 딥러닝 인공신경망을 빠르게 학습하고 진단 성능을 높이기 위해 전이학습 기반의 딥러닝 학습 기법을 제안하였다. 전이학습은 VGG 기반의 영상 분류 모델을 이용하여 특징 추출기와 분류기를 선택적으로 학습하였고, 학습에 사용한 데이터 세트는 Case Western Reserve University 대학에서 제공하는 공개된 볼베어링 진동 데이터를 사용하였으며, 성능평가는 기존의 CNN 모델과 비교하는 방법으로 수행하였다. 실험 결과 전이학습이 볼베어링 진동 데이터에서 상태 진단에 유용하다는 것을 증명할 수 있을 뿐만 아니라 이를 통해 다른 산업에서도 전이학습을 사용하여 상태 진단을 개선할 수 있다.

기계학습을 통한 주간 반투명 구름탐지 연구: GK-2A/AMI를 이용하여 (A Study on Daytime Transparent Cloud Detection through Machine Learning: Using GK-2A/AMI)

  • 변유경;진동현;성노훈;우종호;전우진;한경수
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1181-1189
    • /
    • 2022
  • 구름은 대기 중에 떠 있는 작은 물방울이나 얼음 알갱이들 또는 혼합물 등으로 구성되며 지구 표면의 약 2/3를 덮고 있다. 위성영상내에서의 구름은 일부 다른 지상 물체 또는 지표면과 유사한 반사도 특성으로 인해 구름과 구름이 아닌 영역을 분리하는 구름탐지는 매우 어려운 작업이다. 특히 뚜렷한 특징을 가지는 두꺼운 구름과 달리 얇은 반투명 구름은 위성영상내에서 구름과 배경의 대비가 약하고 지표면과 혼합되어져 나타나기 때문에 대부분 구름탐지에서 쉽게 놓쳐지고 많은 어려움을 주는 대상으로 작용한다. 이러한 구름탐지의 반투명 구름의 한계점을 극복하기 위해, 본 연구에서는 머신러닝 기법(Random Forest [RF], Convolutional Neural Networks [CNN])을 활용하여 반투명 구름을 중점으로 한 구름탐지 연구를 수행하였다. Reference자료로는 MOderate Resolution Imaging Spectroradiometer (MODIS)에서 제공하는 MOD35자료에서 Cloud Mask와 Cirrus Mask를 활용하였으며 반투명 구름 픽셀을 고려한 모델 훈련을 위해 훈련 데이터의 픽셀 비율을 구름, 반투명 구름, 청천이 약 1:1:1이 되도록 구성하였다. 연구의 정성적 비교 결과, RF와 CNN 모두 반투명 구름을 포함한 다양한 형태의 구름 등을 잘 탐지하였고, RF 모델 결과와 CNN 모델 결과를 혼합한 RF+CNN경우에는 개별 모델의 한계점을 개선시키며 구름탐지가 잘 수행되어진 것을 확인하였다. 연구의 정량적 결과 RF의 전체 정확도(OA) 값은 92%, CNN은 94.11%를 보였고, RF+CNN은 94.29%의 정확도를 보였다.

차량 내·외부 데이터 및 딥러닝 기반 차량 위기 감지 시스템 설계 (A Design of the Vehicle Crisis Detection System(VCDS) based on vehicle internal and external data and deep learning)

  • 손수락;정이나
    • 한국정보전자통신기술학회논문지
    • /
    • 제14권2호
    • /
    • pp.128-133
    • /
    • 2021
  • 현재 자율주행차량 시장은 3레벨 자율주행차량을 상용화하고 있으나, 안정성의 문제로 완전 자율주행 중에도 사고가 발생할 가능성이 있다. 실제로 자율주행차량은 81건의 사고를 기록하고 있다. 3레벨과 다르게 4레벨 이후의 자율주행차량은 긴급상황을 스스로 판단하고 대처해야 하기 때문이다. 따라서 본 논문에서는 CNN을 통하여 차량 외부의 정보를 수집하여 저장하고, 저장된 정보와 차량 센서 데이터를 이용하여 차량이 처한 위기 상황을 0~1 사이의 수치로 출력하는 차량 내·외부 데이터 및 딥러닝 기반 차량 위기 감지 시스템을 제안한다. 차량 위기 감지 시스템은 CNN기반 신경망 모델을 사용하여 주변 차량과 보행자 데이터를 수집하는 차량 외부 상황 수집 모듈과 차량 외부 상황 수집 모듈의 출력과 차량 내부 센서 데이터를 이용하여 차량이 처한 위기 상황을 수치화하는 차량 위기 상황 판단 모듈로 구성된다. 실험 결과, VESCM의 평균 연산 시간은 55ms 였고, R-CNN은 74ms, CNN은 101ms였다. 특히, R-CNN은 보행자수가 적을 때 VESCM과 비슷한 연산 시간을 보이지만, 보행자 수가 많아 질수록 VESCM보다 많은 연산 시간을 소요했다. 평균적으로 VESCM는 R-CNN보다 25.68%, CNN보다 45.54% 더 빠른 연산 시간을 가졌고, 세 모델의 정확도는 모두 80% 이하로 감소하지 않으며 높은 정확도를 보였다.

이미지 처리를 위한 CNN 기반 시스템 (CNN-based System for Image Processing)

  • 송현옥;김한길;신현석;이석우;정회경
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 추계학술대회
    • /
    • pp.311-312
    • /
    • 2018
  • 본 논문은 합성곱 신경망(Convolution Neural Network) 기법을 기반으로 이미지 처리 시스템을 제안한다. 합성곱 신경망 모델을 활용하여 이미지 분류를 진행하였고 84%이상의 정확도로 이미지들을 분류하였다. 제안하는 시스템은 다양한 플랫폼에서 동작될 수 있도록 구현하였다. 시스템을 이미지를 분류하는 분야에서 활용할 경우 정확도를 기존 모델에 비해 높기 때문에 효율성을 향상시킬 수 있을 것으로 사료된다.

  • PDF

Lightweight image classifier for CIFAR-10

  • Sharma, Akshay Kumar;Rana, Amrita;Kim, Kyung Ki
    • 센서학회지
    • /
    • 제30권5호
    • /
    • pp.286-289
    • /
    • 2021
  • Image classification is one of the fundamental applications of computer vision. It enables a system to identify an object in an image. Recently, image classification applications have broadened their scope from computer applications to edge devices. The convolutional neural network (CNN) is the main class of deep learning neural networks that are widely used in computer tasks, and it delivers high accuracy. However, CNN algorithms use a large number of parameters and incur high computational costs, which hinder their implementation in edge hardware devices. To address this issue, this paper proposes a lightweight image classifier that provides good accuracy while using fewer parameters. The proposed image classifier diverts the input into three paths and utilizes different scales of receptive fields to extract more feature maps while using fewer parameters at the time of training. This results in the development of a model of small size. This model is tested on the CIFAR-10 dataset and achieves an accuracy of 90% using .26M parameters. This is better than the state-of-the-art models, and it can be implemented on edge devices.

CNN 알고리즘을 이용한 인공지지체의 3D프린터 출력 시 실시간 출력 불량 탐지 시스템에 관한 연구 (A Study on Real-Time Defect Detection System Using CNN Algorithm During Scaffold 3D Printing)

  • 이송연;허용정
    • 반도체디스플레이기술학회지
    • /
    • 제20권3호
    • /
    • pp.125-130
    • /
    • 2021
  • Scaffold is used to produce bio sensor. Scaffold is required high dimensional accuracy. 3D printer is used to manufacture scaffold. 3D printer can't detect defect during printing. Defect detection is very important in scaffold printing. Real-time defect detection is very necessary on industry. In this paper, we proposed the method for real-time scaffold defect detection. Real-time defect detection model is produced using CNN(Convolution Neural Network) algorithm. Performance of the proposed model has been verified through evaluation. Real-time defect detection system are manufactured on hardware. Experiments were conducted to detect scaffold defects in real-time. As result of verification, the defect detection system detected scaffold defect well in real-time.

인공지지체 불량 검출을 위한 딥러닝 모델 성능 비교에 관한 연구 (A Comparative Study on Deep Learning Models for Scaffold Defect Detection)

  • 이송연;허용정
    • 반도체디스플레이기술학회지
    • /
    • 제20권2호
    • /
    • pp.109-114
    • /
    • 2021
  • When we inspect scaffold defect using sight, inspecting performance is decrease and inspecting time is increase. We need for automatically scaffold defect detection method to increase detection accuracy and reduce detection times. In this paper. We produced scaffold defect classification models using densenet, alexnet, vggnet algorithms based on CNN. We photographed scaffold using multi dimension camera. We learned scaffold defect classification model using photographed scaffold images. We evaluated the scaffold defect classification accuracy of each models. As result of evaluation, the defect classification performance using densenet algorithm was at 99.1%. The defect classification performance using VGGnet algorithm was at 98.3%. The defect classification performance using Alexnet algorithm was at 96.8%. We were able to quantitatively compare defect classification performance of three type algorithms based on CNN.