• 제목/요약/키워드: Dense Network(DenseNet)

검색결과 72건 처리시간 0.022초

명함 이미지 회전 판단을 위한 딥러닝 모델 비교 (Comparison of Deep Learning Models for Judging Business Card Image Rotation)

  • 경지훈
    • 한국정보통신학회논문지
    • /
    • 제27권1호
    • /
    • pp.34-40
    • /
    • 2023
  • 고객이 온라인으로 요청한 명함을 자동으로 명함을 인쇄하는 스마트 명함 인쇄 시스템이 활성화되고 있다. 이때, 문제는 고객이 시스템에 제출한 명함이 비정상일 수 있다는 것이다. 본 논문에서는 인공 지능 기술을 도입하여 명함의 이미지가 비정상적으로 회전됐는지 여부를 판정하는 문제를 다룬다. 명함은 0도, 90도, 180도, 270도 회전한다고 가정하였다. 특별한 인공신경망을 설계하지 않고 기존의 VGG, ResNet, DenseNet 인공신경망을 적용하여 실험하였는데 모든 신경망이 97% 정도의 정확도로 이미지 회전을 분별할 수 있었다. DenseNet161은 97.9%의 정확도를 보였고 ResNet34도 97.2%의 정밀도를 보였다. 이는 문제가 단순할 경우, 복잡한 인공신경망이 아니어도 충분히 좋은 결과를 낼 수 있음을 시사한다.

ADD-Net: Attention Based 3D Dense Network for Action Recognition

  • Man, Qiaoyue;Cho, Young Im
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권6호
    • /
    • pp.21-28
    • /
    • 2019
  • Recent years with the development of artificial intelligence and the success of the deep model, they have been deployed in all fields of computer vision. Action recognition, as an important branch of human perception and computer vision system research, has attracted more and more attention. Action recognition is a challenging task due to the special complexity of human movement, the same movement may exist between multiple individuals. The human action exists as a continuous image frame in the video, so action recognition requires more computational power than processing static images. And the simple use of the CNN network cannot achieve the desired results. Recently, the attention model has achieved good results in computer vision and natural language processing. In particular, for video action classification, after adding the attention model, it is more effective to focus on motion features and improve performance. It intuitively explains which part the model attends to when making a particular decision, which is very helpful in real applications. In this paper, we proposed a 3D dense convolutional network based on attention mechanism(ADD-Net), recognition of human motion behavior in the video.

건물 변화 탐지를 위한 덴스 샴 네트워크 (Dense Siamese Network for Building Change Detection)

  • 황기수;이우주;오승준
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.691-694
    • /
    • 2020
  • 최근 원격 탐사 영상의 발달로 인해 작지만 중요한 객체에 대한 탐지 가능성이 커져 건물 변화 탐지에 대한 관심이 높아지고 있다. 본 논문은 건물 변화 탐지 방법 중 가장 좋은 성능을 가진 PGA-SiamNet 의 세부 변화 탐지의 정확도가 낮은 한계점을 개선시키기 위해 DensNet 기반의 Dense Siamese Network 를 제안한다. 제안하는 방법은 공개된 WHU 데이터 세트에 대해 변화 탐지 측정 지표인 TPR, OA, F1, Kappa 에 대해 97.02%, 99.5%, 97.44%, 97.16%의 성능을 얻었다. 기존 PGA-SiamNet 에 비해 TPR 은 0.83%, F1 은 0.02%, Kappa 는 0.02% 증가하였으며, 세부 변화 탐지의 성능이 우수함을 확인할 수 있다.

  • PDF

ResNet 기반 작물 생육단계 추정 모델 개발 (Development of ResNet based Crop Growth Stage Estimation Model)

  • 박준;김준영;박성욱;정세훈;심춘보
    • 스마트미디어저널
    • /
    • 제11권2호
    • /
    • pp.53-62
    • /
    • 2022
  • 산업화 이후 가속화된 지구 온난화 현상으로 인해 기존환경 변화 및 이상기후 발생 빈도가 증가하고 있다. 농업은 기후변화에 매우 민감한 분야의 산업으로 지구 온난화는 작물의 생산량을 감소시키고 재배 지역이 변하는 등의 문제를 발생시킨다. 또한, 환경 변화는 작물의 생육 시기를 불규칙하게 만들어 숙련된 농사꾼들도 작물의 생육단계를 쉽게 추정할 수 없도록 만들어 여러 문제를 발생시킨다. 이에 본 논문에서는 작물의 생육단계를 추정하기 위한 CNN(Convolution Neural Network) 모델을 제안한다. 제안한 모델은 ResNet의 Pooling Layer를 수정한 모델로 ResNet, DenseNet 모델의 생육단계 추정보다 높은 성능 결과를 확인하였다.

딥러닝을 이용한 소규모 지역의 영상분류 적용성 분석 : UAV 영상을 이용한 농경지를 대상으로 (Applicability of Image Classification Using Deep Learning in Small Area : Case of Agricultural Lands Using UAV Image)

  • 최석근;이승기;강연빈;성선경;최도연;김광호
    • 한국측량학회지
    • /
    • 제38권1호
    • /
    • pp.23-33
    • /
    • 2020
  • 최근 UAV (Unmanned Aerial Vehicle)를 이용하여 고해상도 영상을 편리하게 취득할 수 있게 되면서 저비용으로 소규모 지역의 관측 및 공간정보 제작이 가능하게 되었다. 특히, 농업환경 모니터링을 위하여 작물생산 지역의 피복지도 생성에 대한 연구가 활발히 진행되고 있으며, 랜덤 포레스트와 SVM (Support Vector Machine) 및 CNN(Convolutional Neural Network) 을 적용하여 분류 성능을 비교한 결과 영상분류에서 딥러닝 적용에 대하여 활용도가 높은 것으로 나타났다. 특히, 위성영상을 이용한 피복분류는 위성영상 데이터 셋과 선행 파라메터를 사용하여 피복분류의 정확도와 시간에 대한 장점을 가지고 있다. 하지만, 무인항공기 영상은 위성영상과 공간해상도와 같은 특성이 달라 이를 적용하기에는 어려움이 있다. 이러한 문제점을 해결하기 위하여 위성영상 데이터 셋이 아닌 UAV를 이용한 데이터 셋과 국내의 소규모 복합 피복이 존재하는 농경지 분석에 활용이 가능한 딥러닝 알고리즘 적용 연구를 수행하였다. 본 연구에서는 최신 딥러닝의 의미론적 영상분류인 DeepLab V3+, FC-DenseNet (Fully Convolutional DenseNets), FRRN-B (Full-Resolution Residual Networks) 를 UAV 데이터 셋에 적용하여 영상분류를 수행하였다. 분류 결과 DeepLab V3+와 FC-DenseNet의 적용 결과가 기존 감독분류보다 높은 전체 정확도 97%, Kappa 계수 0.92로 소규모 지역의 UAV 영상을 활용한 피복분류의 적용가능성을 보여주었다.

영역 분할 기반 심층 신경망을 활용한 소아 RDS 판별 방법 (Pediatric RDS classification method employing segmentation-based deep learning network)

  • 김지영;강재하;최해철
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.1181-1183
    • /
    • 2022
  • 신생아 호흡곤란증후군(RDS, Respiratory Distress Syndrome)은 미숙아 사망의 주된 원인 중 하나이며, 이 질병은 빠른 진단과 치료가 필요하다. 소아의 x-ray 영상을 시각적으로 분석하여 RDS 의 판별을 하고 있으나, 이는 전문의의 주관적인 판단에 의지하기 때문에 상당한 시간적 비용과 인력이 소모된다. 이에 따라, 본 논문에서는 전문의의 진단을 보조하기 위해 심층 신경망을 활용한 소아 RDS/nonRDS 판별 방법을 제안한다. 소아 전신 X-ray 영상에 폐 영역 분할을 적용한 데이터 세트와 증강방법으로 추가한 데이터 세트를 구축하며, RDS 판별 성능을 높이기 위해 ImageNet 으로 사전학습된 DenseNet 판별 모델에 대해 구축된 데이터 세트로 추가 미세조정 학습을 수행한다. 추론 시 입력 X-ray 영상에 대해 MSRF-Net 으로 분할된 폐 영역을 얻고 이를 DenseNet 판별 모델에 적용하여 RDS 를 진단한다. 실험결과, 데이터 증강과 폐 영역을 분할을 적용한 판별 방법이 소아전신 X-ray 데이터 세트만을 사용하는 것과 비교하여 3.9%의 성능향상을 보였다.

  • PDF

이중흐름 3차원 합성곱 신경망 구조를 이용한 효율적인 손 제스처 인식 방법 (An Efficient Hand Gesture Recognition Method using Two-Stream 3D Convolutional Neural Network Structure)

  • 최현종;노대철;김태영
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제14권6호
    • /
    • pp.66-74
    • /
    • 2018
  • 최근 가상환경에서 몰입감을 늘리고 자유로운 상호작용을 제공하기 위한 손 제스처 인식에 대한 연구가 활발히 진행되고 있다. 그러나 기존의 연구는 특화된 센서나 장비를 요구하거나, 낮은 인식률을 보이고 있다. 본 논문은 정적 손 제스처와 동적 손 제스처 인식을 위해 카메라 이외의 별도의 센서나 장비 없이 딥러닝 기술을 사용한 손 제스처 인식 방법을 제안한다. 일련의 손 제스처 영상을 고주파 영상으로 변환한 후 손 제스처 RGB 영상들과 이에 대한 고주파 영상들 각각에 대해 덴스넷 3차원 합성곱 신경망을 통해 학습한다. 6개의 정적 손 제스처와 9개의 동적 손 제스처 인터페이스에 대해 실험한 결과 기존 덴스넷에 비해 4.6%의 성능이 향상된 평균 92.6%의 인식률을 보였다. 본 연구결과를 검증하기 위하여 3D 디펜스 게임을 구현한 결과 평균 34ms로 제스처 인식이 가능하여 가상현실 응용의 실시간 사용자 인터페이스로 사용가능함을 알 수 있었다.

딥러닝 모델을 이용한 항공정사영상의 비닐하우스 탐지 (Detection of Plastic Greenhouses by Using Deep Learning Model for Aerial Orthoimages)

  • 윤병현;성선경;최재완
    • 대한원격탐사학회지
    • /
    • 제39권2호
    • /
    • pp.183-192
    • /
    • 2023
  • 위성영상 및 항공사진과 같은 원격탐사 자료들은 영상판독과 영상처리 기법을 통하여 영상 내의 객체를 탐지하고 추출하는 데에 사용될 수 있다. 특히, 원격탐사 자료의 해상도가 향상되고, 딥러닝(deep learning) 모델 등과 같은 기술의 발전으로 인하여 관심객체를 자동으로 추출하여 지도갱신 및 지형 모니터링 등에 활용될 수 있는 가능성이 증대되고 있다. 이를 위해, 본 연구에서는 의미론적 분할에 사용되는 대표적인 딥러닝 모델인 fully convolutional densely connected convolutional network (FC-DenseNet)을 기반으로 하여 항공정사영상 내 존재하는 비닐하우스를 추출하고, 이에 대한 결과를 정량적으로 평가하였다. 농림축산식품부의 팜맵(farm map)을 이용하여 담양, 밀양지역의 비닐하우스에 대한 레이블링을 수행하여 훈련자료를 생성하고, 훈련자료를 이용하여 FC-DenseNet의 훈련을 수행하였다. 원격탐사자료에 딥러닝 모델을 효과적으로 이용하기 위하여, 각 밴드별 특성이 유지되도록 instance norm을 이용하여 정규화과정을 수행하였으며, attention module을 추가하여 각 밴드별 가중치를 효과적으로 산정하였다. 실험결과, 딥러닝 모델을 이용하여 영상 내 존재하는 비닐하우스 지역을 효과적으로 추출할 수 있음을 확인하였으며 팜맵, 토지피복지도 등의 갱신에 활용될 수 있을 것으로 판단하였다.

Food Detection by Fine-Tuning Pre-trained Convolutional Neural Network Using Noisy Labels

  • Alshomrani, Shroog;Aljoudi, Lina;Aljabri, Banan;Al-Shareef, Sarah
    • International Journal of Computer Science & Network Security
    • /
    • 제21권7호
    • /
    • pp.182-190
    • /
    • 2021
  • Deep learning is an advanced technology for large-scale data analysis, with numerous promising cases like image processing, object detection and significantly more. It becomes customarily to use transfer learning and fine-tune a pre-trained CNN model for most image recognition tasks. Having people taking photos and tag themselves provides a valuable resource of in-data. However, these tags and labels might be noisy as people who annotate these images might not be experts. This paper aims to explore the impact of noisy labels on fine-tuning pre-trained CNN models. Such effect is measured on a food recognition task using Food101 as a benchmark. Four pre-trained CNN models are included in this study: InceptionV3, VGG19, MobileNetV2 and DenseNet121. Symmetric label noise will be added with different ratios. In all cases, models based on DenseNet121 outperformed the other models. When noisy labels were introduced to the data, the performance of all models degraded almost linearly with the amount of added noise.

Activity Object Detection Based on Improved Faster R-CNN

  • Zhang, Ning;Feng, Yiran;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제24권3호
    • /
    • pp.416-422
    • /
    • 2021
  • Due to the large differences in human activity within classes, the large similarity between classes, and the problems of visual angle and occlusion, it is difficult to extract features manually, and the detection rate of human behavior is low. In order to better solve these problems, an improved Faster R-CNN-based detection algorithm is proposed in this paper. It achieves multi-object recognition and localization through a second-order detection network, and replaces the original feature extraction module with Dense-Net, which can fuse multi-level feature information, increase network depth and avoid disappearance of network gradients. Meanwhile, the proposal merging strategy is improved with Soft-NMS, where an attenuation function is designed to replace the conventional NMS algorithm, thereby avoiding missed detection of adjacent or overlapping objects, and enhancing the network detection accuracy under multiple objects. During the experiment, the improved Faster R-CNN method in this article has 84.7% target detection result, which is improved compared to other methods, which proves that the target recognition method has significant advantages and potential.