• 제목/요약/키워드: Convolutional Neural Networks

검색결과 630건 처리시간 0.029초

CFAR와 합성곱 신경망을 이용한 기두부와 단 분리 시 조각 구분 (Classification of Warhead and Debris using CFAR and Convolutional Neural Networks)

  • 설승환;최인식
    • 한국정보기술학회논문지
    • /
    • 제17권6호
    • /
    • pp.85-94
    • /
    • 2019
  • 기두부와 단 분리 시 조각은 서로 다른 미세 운동을 하므로 스펙트로그램 상에서 미세 도플러 주파수의 형태가 서로 다르게 나타나며 이를 통해 구분이 가능하다. 본 논문에서는 합성곱 신경망(CNN : Convolutional Neural Networks)을 이용하여 기두부와 단 분리 시 조각을 구분하였다. 합성곱 신경망의 입력영상으로는 미세도플러 스펙트로그램을 사용하였다. 또한 기두부와 단 분리 시 조각의 구분성능을 향상시키기 위해 미세 도플러 스펙트로그램에 CA-CFAR(Cell Averaging-Constant False Alarm Rate)를 적용하여 전처리 과정을 수행하였다. 실험 결과, 전처리 과정을 수행하여 획득한 미세 도플러 스펙트로그램을 입력 영상으로 사용하였을 경우, 전처리 과정을 수행하지 않은 미세 도플러 스펙트로그램보다 모든 SNR환경에서 구분 성능이 향상되었다.

Convolutional Neural Network (CNN) 기반의 단백질 간 상호 작용 추출 (Extraction of Protein-Protein Interactions based on Convolutional Neural Network (CNN))

  • 최성필
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제23권3호
    • /
    • pp.194-198
    • /
    • 2017
  • 본 논문에서는 학술 문헌에서 표현된 단백질 간 상호 작용(Protein-Protein Interaction) 정보를 자동으로 추출하기 위한 확장된 형태의 Convolutional Neural Network (CNN) 모델을 제안한다. 이 모델은 기존에 관계 추출(Relation Extraction)을 위해 고안된 단순 자질 기반의 CNN 모델을 확장하여 다양한 전역 자질들을 추가적으로 적용함으로써 성능을 개선할 수 있는 장점이 있다. PPI 추출 성능 평가를 위해서 많이 활용되고 있는 준거 평가 컬렉션인 AIMed를 이용한 실험에서 F-스코어 기준으로 78.0%를 나타내어 현재까지 도출된 세계 최고 성능에 비해 8.3% 높은 성능을 나타내었다. 추가적으로 CNN 모델이 복잡한 언어 처리를 통한 자질 추출 작업을 하지 않고도 단백질간 상호 작용 추출에 높은 성능을 나타냄을 보였다.

컨볼루션 뉴럴 네트워크를 이용한 한글 서체 특징 연구 (A study in Hangul font characteristics using convolutional neural networks)

  • 황인경;원중호
    • 응용통계연구
    • /
    • 제32권4호
    • /
    • pp.573-591
    • /
    • 2019
  • 로마자 서체에 대한 수치적 분류체계는 잘 발달되어 있지만, 한글 서체 분류를 위한 기준은 수치적으로 잘 정의되어 있지 않다. 본 연구의 목표는 한글 서체 분류를 위한 수치적 기준을 세우기 위해, 서체 스타일을 구분하는 중요한 특징들을 찾는 것이다. 컨볼루션 뉴럴 네트워크(convolutional neural network)를 사용하여 명조와 고딕 스타일을 구분하는 모형을 세우고, 학습된 필터를 분석해 두 스타일의 특징을 결정하는 피처(feature)를 찾고자 한다.

ResNet-50 합성곱 신경망을 위한 고정 소수점 표현 방법 (Efficient Fixed-Point Representation for ResNet-50 Convolutional Neural Network)

  • 강형주
    • 한국정보통신학회논문지
    • /
    • 제22권1호
    • /
    • pp.1-8
    • /
    • 2018
  • 최근 합성곱 신경망은 컴퓨터 비전에 관련된 여러 분야에서 높은 성능을 보여 주고 있으나 합성곱 신경망이 요구하는 많은 연산양은 임베디드 환경에 도입되는 것을 어렵게 하고 있다. 이를 해결하기 위해 ASIC이나 FPGA를 통한 합성곱 신경망의 구현에 많은 관심이 모이고 있고, 이러한 구현을 위해서는 효율적인 고정 소수점 표현이 필요하다. 고정 소수점 표현은 ASIC이나 FPGA에서의 구현에 적합하나 합성곱 신경망의 성능이 저하될 수 있는 문제가 있다. 이 논문에서는 합성곱 계층과 배치(batch) 정규화 계층에 대해 고정 소수점 표현을 분리해서, ResNet-50 합성곱 신경망의 합성곱 계층을 표현하기 위해 필요한 비트 수를 16비트에서 10비트로 줄일 수 있게 하였다. 연산이 집중되는 합성곱 계층이 더 간단하게 표현되므로 합성곱 신경망 구현이 전체적으로 더 효율적으로 될 것이다.

다중 레이블 콘볼루션 신경회로망을 이용한 능동펄스 식별 알고리즘 연구 (A Study of Active Pulse Classification Algorithm using Multi-label Convolutional Neural Networks)

  • 김근환;이석진;이균경;이동화
    • 한국산업정보학회논문지
    • /
    • 제25권4호
    • /
    • pp.29-38
    • /
    • 2020
  • 본 논문에서는 다중 레이블 콘볼루션 신경회로망(Multi-label Convolution Neural Networks)을 이용하는 능동펄스 식별 알고리즘을 제안한다. 제안하는 기법은 기존의 단일 레이블 기반 알고리즘이 여러 개의 신경회로망 구조로 되어 있던 것과 달리 하나의 신경회로망 구조로 능동펄스의 정보를 한번에 획득할 수 있으며, 학습과정 역시 간편해지는 장점이 있다. 제안한 능동펄스 식별 알고리즘을 검증하기 위해서 해상실험 데이터를 이용하여 신경회로망을 학습시키고 성능을 분석하였다. 분석결과 제안한 능동펄스 식별 알고리즘이 수렴하는 것을 확인하였으며, 오차행렬(Confusion Matrix) 분석을 통하여 우수한 능동펄스 식별성능을 가지는 것을 확인하였다.

철근콘크리트 손상 특성 추출을 위한 최적 컨볼루션 신경망 백본 연구 (A Study on Optimal Convolutional Neural Networks Backbone for Reinforced Concrete Damage Feature Extraction)

  • 박영훈
    • 대한토목학회논문집
    • /
    • 제43권4호
    • /
    • pp.511-523
    • /
    • 2023
  • 철근콘크리트 손상 감지를 위한 무인항공기와 딥러닝 연계에 대한 연구가 활발히 진행 중이다. 컨볼루션 신경망은 객체 분류, 검출, 분할 모델의 백본으로 모델 성능에 높은 영향을 준다. 사전학습 컨볼루션 신경망인 모바일넷은 적은 연산량으로 충분한 정확도가 확보 될 수 있어 무인항공기 기반 실시간 손상 감지 백본으로 효율적이다. 바닐라 컨볼루션 신경망과 모바일넷을 분석 한 결과 모바일넷이 바닐라 컨볼루션 신경망의 15.9~22.9% 수준의 낮은 연산량으로도 6.0~9.0% 높은 검증 정확도를 가지는 것으로 평가되었다. 모바일넷V2, 모바일넷V3Large, 모바일넷 V3Small은 거의 동일한 최대 검증 정확도를 가지는 것으로 나타났으며 모바일넷의 철근콘트리트 손상 이미지 특성 추출 최적 조건은 옵티마이저 RMSprop, 드롭아웃 미적용, 평균풀링인 것으로 분석되었다. 본 연구에서 도출된 모바일넷V2 기반 7가지 손상 감지 최대 검증 정확도 75.49%는 이미지 축적과 지속적 학습으로 향상 될 수 있다.

Video Expression Recognition Method Based on Spatiotemporal Recurrent Neural Network and Feature Fusion

  • Zhou, Xuan
    • Journal of Information Processing Systems
    • /
    • 제17권2호
    • /
    • pp.337-351
    • /
    • 2021
  • Automatically recognizing facial expressions in video sequences is a challenging task because there is little direct correlation between facial features and subjective emotions in video. To overcome the problem, a video facial expression recognition method using spatiotemporal recurrent neural network and feature fusion is proposed. Firstly, the video is preprocessed. Then, the double-layer cascade structure is used to detect a face in a video image. In addition, two deep convolutional neural networks are used to extract the time-domain and airspace facial features in the video. The spatial convolutional neural network is used to extract the spatial information features from each frame of the static expression images in the video. The temporal convolutional neural network is used to extract the dynamic information features from the optical flow information from multiple frames of expression images in the video. A multiplication fusion is performed with the spatiotemporal features learned by the two deep convolutional neural networks. Finally, the fused features are input to the support vector machine to realize the facial expression classification task. The experimental results on cNTERFACE, RML, and AFEW6.0 datasets show that the recognition rates obtained by the proposed method are as high as 88.67%, 70.32%, and 63.84%, respectively. Comparative experiments show that the proposed method obtains higher recognition accuracy than other recently reported methods.

Text Classification Using Parallel Word-level and Character-level Embeddings in Convolutional Neural Networks

  • Geonu Kim;Jungyeon Jang;Juwon Lee;Kitae Kim;Woonyoung Yeo;Jong Woo Kim
    • Asia pacific journal of information systems
    • /
    • 제29권4호
    • /
    • pp.771-788
    • /
    • 2019
  • Deep learning techniques such as Convolutional Neural Networks (CNNs) and Recurrent Neural Networks (RNNs) show superior performance in text classification than traditional approaches such as Support Vector Machines (SVMs) and Naïve Bayesian approaches. When using CNNs for text classification tasks, word embedding or character embedding is a step to transform words or characters to fixed size vectors before feeding them into convolutional layers. In this paper, we propose a parallel word-level and character-level embedding approach in CNNs for text classification. The proposed approach can capture word-level and character-level patterns concurrently in CNNs. To show the usefulness of proposed approach, we perform experiments with two English and three Korean text datasets. The experimental results show that character-level embedding works better in Korean and word-level embedding performs well in English. Also the experimental results reveal that the proposed approach provides better performance than traditional CNNs with word-level embedding or character-level embedding in both Korean and English documents. From more detail investigation, we find that the proposed approach tends to perform better when there is relatively small amount of data comparing to the traditional embedding approaches.

CNN을 이용한 능동 소나 표적/비표적 분류 (Active Sonar Target/Non-target Classification using Convolutional Neural Networks)

  • 김동욱;석종원;배건성
    • 한국멀티미디어학회논문지
    • /
    • 제21권9호
    • /
    • pp.1062-1067
    • /
    • 2018
  • Conventional active sonar technology has relied heavily on the hearing of sonar operator, but recently, many techniques for automatic detection and classification have been studied. In this paper, we extract the image data from the spectrogram of the active sonar signal and classify the extracted data using CNN(convolutional neural networks), which has recently presented excellent performance improvement in the field of pattern recognition. First, we divided entire data set into eight classes depending on the ratio containing the target. Then, experiments were conducted to classify the eight classes data using proposed CNN structure, and the results were analyzed.

열화상 카메라를 이용한 3D 컨볼루션 신경망 기반 낙상 인식 (3D Convolutional Neural Networks based Fall Detection with Thermal Camera)

  • 김대언;전봉규;권동수
    • 로봇학회논문지
    • /
    • 제13권1호
    • /
    • pp.45-54
    • /
    • 2018
  • This paper presents a vision-based fall detection system to automatically monitor and detect people's fall accidents, particularly those of elderly people or patients. For video analysis, the system should be able to extract both spatial and temporal features so that the model captures appearance and motion information simultaneously. Our approach is based on 3-dimensional convolutional neural networks, which can learn spatiotemporal features. In addition, we adopts a thermal camera in order to handle several issues regarding usability, day and night surveillance and privacy concerns. We design a pan-tilt camera with two actuators to extend the range of view. Performance is evaluated on our thermal dataset: TCL Fall Detection Dataset. The proposed model achieves 90.2% average clip accuracy which is better than other approaches.