• 제목/요약/키워드: Deep convolutional neural networks

검색결과 409건 처리시간 0.022초

가시광-근적외선 혼합 영상에서의 얼굴인식에 관한 연구 (Face Recognition in Visual and Infra-Red Complex Images)

  • 김광주;원철호
    • 한국멀티미디어학회논문지
    • /
    • 제22권8호
    • /
    • pp.844-851
    • /
    • 2019
  • In this paper, we propose a loss function in CNN that introduces inter-class amplitudes to increase inter-class loss and reduce intra-class loss to increase of face recognition performance. This loss function increases the distance between the classes and decreases the distance in the class, thereby improving the performance of the face recognition finally. It is confirmed that the accuracy of face recognition for visible light image of proposed loss function is 99.62%, which is better than other loss functions. We also applied it to face recognition of visible and near-infrared complex images to obtain satisfactory results of 99.76%.

잔차 블록 기반의 깊은 합성곱 신경망을 통한 단일 영상 초해상도 복원 (Image Super-Resolution Using Deep Convolutional Neural Networks Based on Residual Blocks)

  • 김인구;유송현;정제창
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 추계학술대회
    • /
    • pp.62-65
    • /
    • 2018
  • 신경망은 깊어질수록 gradient vanishing/exploding과 같은 네트워크가 불안정해지는 문제가 발생 한다. 잔차 블록을 이용하여 이러한 문제를 해결 할 수 있다. 본 논문에서는 영상 인식 분야에서 훌륭한 성능을 보여준 잔차 블록 기반의 깊은 합성곱 신경망을 통한 단일 영상 초해상도 복원 기법을 제안 한다. 제안한 알고리듬은 EDSR에 사용된 잔차 블록을 다양한 크기의 합성곱 연산을 통해 영상의 특징들을 다르게 분석하도록 수정하고 VDSR과 비슷한 수준의 복잡도로 구성하여 향상된 성능을 얻었다. 실험 결과, VDSR에 비해 PSNR이 최대 0.1dB까지 증가했다.

  • PDF

Siamese Network의 특징맵을 이용한 객체 추적 알고리즘 (Object Tracking Algorithm using Feature Map based on Siamese Network)

  • 임수창;박성욱;김종찬;류창수
    • 한국멀티미디어학회논문지
    • /
    • 제24권6호
    • /
    • pp.796-804
    • /
    • 2021
  • In computer vision, visual tracking method addresses the problem of localizing an specific object in video sequence according to the bounding box. In this paper, we propose a tracking method by introducing the feature correlation comparison into the siamese network to increase its matching identification. We propose a way to compute location of object to improve matching performance by a correlation operation, which locates parts for solving the searching problem. The higher layer in the network can extract a lot of object information. The lower layer has many location information. To reduce error rate of the object center point, we built a siamese network that extracts the distribution and location information of target objects. As a result of the experiment, the average center error rate was less than 25%.

객체 추적을 위한 보틀넥 기반 Siam-CNN 알고리즘 (Bottleneck-based Siam-CNN Algorithm for Object Tracking)

  • 임수창;김종찬
    • 한국멀티미디어학회논문지
    • /
    • 제25권1호
    • /
    • pp.72-81
    • /
    • 2022
  • Visual Object Tracking is known as the most fundamental problem in the field of computer vision. Object tracking localize the region of target object with bounding box in the video. In this paper, a custom CNN is created to extract object feature that has strong and various information. This network was constructed as a Siamese network for use as a feature extractor. The input images are passed convolution block composed of a bottleneck layers, and features are emphasized. The feature map of the target object and the search area, extracted from the Siamese network, was input as a local proposal network. Estimate the object area using the feature map. The performance of the tracking algorithm was evaluated using the OTB2013 dataset. Success Plot and Precision Plot were used as evaluation matrix. As a result of the experiment, 0.611 in Success Plot and 0.831 in Precision Plot were achieved.

Siame-FPN기반 객체 특징 추적 알고리즘 (Object Feature Tracking Algorithm based on Siame-FPN)

  • 김종찬;임수창
    • 한국멀티미디어학회논문지
    • /
    • 제25권2호
    • /
    • pp.247-256
    • /
    • 2022
  • Visual tracking of selected target objects is fundamental challenging problems in computer vision. Object tracking localize the region of target object with bounding box in the video. We propose a Siam-FPN based custom fully CNN to solve visual tracking problems by regressing the target area in an end-to-end manner. A method of preserving the feature information flow using a feature map connection structure was applied. In this way, information is preserved and emphasized across the network. To regress object region and to classify object, the region proposal network was connected with the Siamese network. The performance of the tracking algorithm was evaluated using the OTB-100 dataset. Success Plot and Precision Plot were used as evaluation matrix. As a result of the experiment, 0.621 in Success Plot and 0.838 in Precision Plot were achieved.

Random Forest를 결정로직으로 활용한 로봇의 실시간 음향인식 시스템 개발 (A Real-Time Sound Recognition System with a Decision Logic of Random Forest for Robots)

  • 송주만;김창민;김민욱;박용진;이서영;손정관
    • 로봇학회논문지
    • /
    • 제17권3호
    • /
    • pp.273-281
    • /
    • 2022
  • In this paper, we propose a robot sound recognition system that detects various sound events. The proposed system is designed to detect various sound events in real-time by using a microphone on a robot. To get real-time performance, we use a VGG11 model which includes several convolutional neural networks with real-time normalization scheme. The VGG11 model is trained on augmented DB through 24 kinds of various environments (12 reverberation times and 2 signal to noise ratios). Additionally, based on random forest algorithm, a decision logic is also designed to generate event signals for robot applications. This logic can be used for specific classes of acoustic events with better performance than just using outputs of network model. With some experimental results, the performance of proposed sound recognition system is shown on real-time device for robots.

FS-Transformer: A new frequency Swin Transformer for multi-focus image fusion

  • Weiping Jiang;Yan Wei;Hao Zhai
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권7호
    • /
    • pp.1907-1928
    • /
    • 2024
  • In recent years, multi-focus image fusion has emerged as a prominent area of research, with transformers gaining recognition in the field of image processing. Current approaches encounter challenges such as boundary artifacts, loss of detailed information, and inaccurate localization of focused regions, leading to suboptimal fusion outcomes necessitating subsequent post-processing interventions. To address these issues, this paper introduces a novel multi-focus image fusion technique leveraging the Swin Transformer architecture. This method integrates a frequency layer utilizing Wavelet Transform, enhancing performance in comparison to conventional Swin Transformer configurations. Additionally, to mitigate the deficiency of local detail information within the attention mechanism, Convolutional Neural Networks (CNN) are incorporated to enhance region recognition accuracy. Comparative evaluations of various fusion methods across three datasets were conducted in the paper. The experimental findings demonstrate that the proposed model outperformed existing techniques, yielding superior quality in the resultant fused images.

심층신경망을 이용한 레이더 영상 학습 기반 초단시간 강우예측 (Very short-term rainfall prediction based on radar image learning using deep neural network)

  • 윤성심;박희성;신홍준
    • 한국수자원학회논문집
    • /
    • 제53권12호
    • /
    • pp.1159-1172
    • /
    • 2020
  • 본 연구에서는 강우예측을 위해 U-Net과 SegNet에 기반한 합성곱 신경망 네트워크 구조에 장기간의 국내 기상레이더 자료를 활용하여 심층학습기반의 강우예측을 수행하였다. 또한, 기존 외삽기반의 강우예측 기법인 이류모델의 결과와 비교 평가하였다. 심층신경망의 학습 및 검정을 위해 2010부터 2016년 동안의 기상청 관악산과 광덕산 레이더의 원자료를 수집, 1 km 공간해상도를 갖는 480 × 480의 픽셀의 회색조 영상으로 변환하여 HDF5 형태의 데이터를 구축하였다. 구축된 데이터로 30분 전부터 현재까지 10분 간격의 연속된 레이더 영상 4개를 이용하여 10분 후의 강수량을 예측하도록 심층신경망 모델을 학습하였으며, 학습된 심층신경망 모델로 60분의 선행예측을 수행하기 위해 예측값을 반복 사용하는 재귀적 방식을 적용하였다. 심층신경망 예측모델의 성능 평가를 위해 2017년에 발생한 24개의 호우사례에 대해 선행 60분까지 강우예측을 수행하였다. 임계강우강도 0.1, 1, 5 mm/hr에서 평균절대오차와 임계성공지수를 산정하여 예측성능을 평가한 결과, 강우강도 임계 값 0.1, 1 mm/hr의 경우 MAE는 60분 선행예측까지, CSI는 선행예측 50분까지 참조 예측모델인 이류모델이 보다 우수한 성능을 보였다. 특히, 5 mm/hr 이하의 약한 강우에 대해서는 심층신경망 예측모델이 이류모델보다 대체적으로 좋은 성능을 보였지만, 5 mm/hr의 임계 값에 대한 평가결과 심층신경망 예측모델은 고강도의 뚜렷한 강수 특징을 예측하는 데 한계가 있었다. 심층신경망 예측모델은 예측시간이 길어질수록 공간 평활화되는 경향이 뚜렷해지며, 이로 인해 강우 예측의 정확도가 저하되었다. 이류모델은 뚜렷한 강수 특성을 보존하기 때문에 강한 강도 (>5 mm/hr)에 대해 심층신경망 예측모델을 능가하지만, 강우 위치가 잘못 이동하는 경향이 있다. 본 연구결과는 이후 심층신경망을 이용한 레이더 강우 예측기술의 개발과 개선에 도움이 될 수 있을 것으로 판단된다. 또한, 본 연구에서 구축한 대용량 기상레이더 자료는 향후 후속연구에 활용될 수 있도록 개방형 저장소를 통해 제공될 예정이다.

Contextual Modeling in Context-Aware Conversation Systems

  • Quoc-Dai Luong Tran;Dinh-Hong Vu;Anh-Cuong Le;Ashwin Ittoo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권5호
    • /
    • pp.1396-1412
    • /
    • 2023
  • Conversation modeling is an important and challenging task in the field of natural language processing because it is a key component promoting the development of automated humanmachine conversation. Most recent research concerning conversation modeling focuses only on the current utterance (considered as the current question) to generate a response, and thus fails to capture the conversation's logic from its beginning. Some studies concatenate the current question with previous conversation sentences and use it as input for response generation. Another approach is to use an encoder to store all previous utterances. Each time a new question is encountered, the encoder is updated and used to generate the response. Our approach in this paper differs from previous studies in that we explicitly separate the encoding of the question from the encoding of its context. This results in different encoding models for the question and the context, capturing the specificity of each. In this way, we have access to the entire context when generating the response. To this end, we propose a deep neural network-based model, called the Context Model, to encode previous utterances' information and combine it with the current question. This approach satisfies the need for context information while keeping the different roles of the current question and its context separate while generating a response. We investigate two approaches for representing the context: Long short-term memory and Convolutional neural network. Experiments show that our Context Model outperforms a baseline model on both ConvAI2 Dataset and a collected dataset of conversational English.

문서 분류의 개선을 위한 단어-문자 혼합 신경망 모델 (Hybrid Word-Character Neural Network Model for the Improvement of Document Classification)

  • 홍대영;심규석
    • 정보과학회 논문지
    • /
    • 제44권12호
    • /
    • pp.1290-1295
    • /
    • 2017
  • 문서의 텍스트를 바탕으로 각 문서가 속한 분류를 찾아내는 문서 분류는 자연어 처리의 기본 분야 중 하나로 주제 분류, 감정 분류 등 다양한 분야에 이용될 수 있다. 문서를 분류하기 위한 신경망 모델은 크게 단어를 기본 단위로 다루는 단어 수준 모델과 문자를 기본 단위로 다루는 문자 수준 모델로 나누어진다. 본 논문에서는 문서를 분류하는 신경망 모델의 성능을 향상시키기 위하여 문자 수준과 단어 수준의 모델을 혼합한 신경망 모델을 제안한다. 제안하는 모델은 각 단어에 대하여 문자 수준의 신경망 모델로 인코딩한 정보와 단어들의 정보를 저장하고 있는 단어 임베딩 행렬의 정보를 결합하여 각 단어에 대한 특징 벡터를 만든다. 추출된 단어들에 대한 특징 벡터를 바탕으로, 주의(attention) 메커니즘을 이용한 순환 신경망을 단어 수준과 문장 수준에 각각 적용하는 계층적 신경망 구조를 통해 문서를 분류한다. 제안한 모델에 대하여 실생활 데이터를 바탕으로 한 실험으로 효용성을 검증한다.