• 제목/요약/키워드: Swin transformer

검색결과 12건 처리시간 0.016초

Swin Transformer를 이용한 항공사진에서 다중클래스 차량 검출 (The Detection of Multi-class Vehicles using Swin Transformer)

  • 이기춘;정유석;이창우
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.112-114
    • /
    • 2021
  • 도시 상태를 탐지하기 위해서는 운송 수단 수, 교통 흐름등이 필수적으로 파악되어야 할 요소이다. 본 논문에서는 기존의 Mask R-CNN을 이용하여 다양한 차량의 형태를 학습하고, 드론으로 촬영한 도시항공 영상에서 특정 유형의 차량 들을 검출하는 시스템을 오늘날 NLP 분야에서 널리 쓰이게 된 Transformer 모델을 컴퓨터 비전 문제에 도입하여 기존의 컨볼루션 신경망보다 높은 성능을 보여준 Swin Transformer 모델을 이용하여 기존의 연구에서 보여주었던 검출 시스템 능력을 향상시켰다.

  • PDF

FS-Transformer: A new frequency Swin Transformer for multi-focus image fusion

  • Weiping Jiang;Yan Wei;Hao Zhai
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권7호
    • /
    • pp.1907-1928
    • /
    • 2024
  • In recent years, multi-focus image fusion has emerged as a prominent area of research, with transformers gaining recognition in the field of image processing. Current approaches encounter challenges such as boundary artifacts, loss of detailed information, and inaccurate localization of focused regions, leading to suboptimal fusion outcomes necessitating subsequent post-processing interventions. To address these issues, this paper introduces a novel multi-focus image fusion technique leveraging the Swin Transformer architecture. This method integrates a frequency layer utilizing Wavelet Transform, enhancing performance in comparison to conventional Swin Transformer configurations. Additionally, to mitigate the deficiency of local detail information within the attention mechanism, Convolutional Neural Networks (CNN) are incorporated to enhance region recognition accuracy. Comparative evaluations of various fusion methods across three datasets were conducted in the paper. The experimental findings demonstrate that the proposed model outperformed existing techniques, yielding superior quality in the resultant fused images.

얼굴 특징점을 활용한 영상 편집점 탐지 (Detection of video editing points using facial keypoints)

  • 나요셉;김진호;박종혁
    • 지능정보연구
    • /
    • 제29권4호
    • /
    • pp.15-30
    • /
    • 2023
  • 최근 미디어 분야에도 인공지능(AI)을 적용한 다양한 서비스가 등장하고 있는 추세이다. 하지만 편집점을 찾아 영상을 이어 붙이는 영상 편집은, 대부분 수동적 방식으로 진행되어 시간과 인적 자원의 소요가 많이 발생하고 있다. 이에 본 연구에서는 Video Swin Transformer를 활용하여, 발화 여부에 따른 영상의 편집점을 탐지할 수 있는 방법론을 제안한다. 이를 위해, 제안 구조는 먼저 Face Alignment를 통해 얼굴 특징점을 검출한다. 이와 같은 과정을 통해 입력 영상 데이터로부터 발화 여부에 따른 얼굴의 시 공간적인 변화를 모델에 반영한다. 그리고, 본 연구에서 제안하는 Video Swin Transformer 기반 모델을 통해 영상 속 사람의 행동을 분류한다. 구체적으로 비디오 데이터로부터 Video Swin Transformer를 통해 생성되는 Feature Map과 Face Alignment를 통해 검출된 얼굴 특징점을 합친 후 Convolution을 거쳐 발화 여부를 탐지하게 된다. 실험 결과, 본 논문에서 제안한 얼굴 특징점을 활용한 영상 편집점 탐지 모델을 사용했을 경우 분류 성능을 89.17% 기록하여, 얼굴 특징점을 사용하지 않았을 때의 성능 87.46% 대비 성능을 향상시키는 것을 확인할 수 있었다.

DeepLabV3+와 Swin Transformer 모델을 이용한 Sentinel-2 영상의 구름탐지 (Cloud Detection from Sentinel-2 Images Using DeepLabV3+ and Swin Transformer Models)

  • 강종구;박강현;김근아;윤유정;최소연;이양원
    • 대한원격탐사학회지
    • /
    • 제38권6_2호
    • /
    • pp.1743-1747
    • /
    • 2022
  • Sentinel-2는 분광파장대나 공간해상도 측면에서 우리나라 차세대중형위성 4호(농림위성)의 모의영상으로 활용될 수 있다. 이 단보에서는 향후 농림위성영상에 적용하기 위한 예비실험으로, 딥러닝 기술을 이용한 Sentinel-2 영상의 구름탐지를 수행하였다. 전통적인 Convolutional Neural Network (CNN) 모델인 DeepLabV3+와 최신의 Transformer 모델인 Shifted Windows (Swin) Transformer를 이용한 구름탐지 모델을 구축하고, Radiant Earth Foundation (REF)에서 제공하는 22,728장의 학습자료에 대한 암맹평가를 실시하였다. Swin Transformer 모델은 0.886의 정밀도와 0.875의 재현율로, 과탐지와 미탐지가 어느 한쪽으로 치우치지 않는 경향을 보였다. 딥러닝 기반 구름탐지는 향후 우리나라 중심의 실험을 거쳐 농림위성 영상에 활용될 수 있을 것으로 기대된다.

A label-free high precision automated crack detection method based on unsupervised generative attentional networks and swin-crackformer

  • Shiqiao Meng;Lezhi Gu;Ying Zhou;Abouzar Jafari
    • Smart Structures and Systems
    • /
    • 제33권6호
    • /
    • pp.449-463
    • /
    • 2024
  • Automated crack detection is crucial for structural health monitoring and post-earthquake rapid damage detection. However, realizing high precision automatic crack detection in the absence of corresponding manual labeling presents a formidable challenge. This paper presents a novel crack segmentation transfer learning method and a novel crack segmentation model called Swin-CrackFormer. The proposed method facilitates efficient crack image style transfer through a meticulously designed data preprocessing technique, followed by the utilization of a GAN model for image style transfer. Moreover, the proposed Swin-CrackFormer combines the advantages of Transformer and convolution operations to achieve effective local and global feature extraction. To verify the effectiveness of the proposed method, this study validates the proposed method on three unlabeled crack datasets and evaluates the Swin-CrackFormer model on the METU dataset. Experimental results demonstrate that the crack transfer learning method significantly improves the crack segmentation performance on unlabeled crack datasets. Moreover, the Swin-CrackFormer model achieved the best detection result on the METU dataset, surpassing existing crack segmentation models.

HRNet-OCR과 Swin-L 모델을 이용한 조식동물 서식지 수중영상의 의미론적 분할 (Semantic Segmentation of the Habitats of Ecklonia Cava and Sargassum in Undersea Images Using HRNet-OCR and Swin-L Models)

  • 김형우;장선웅;박수호;공신우;곽지우;김진수;이양원
    • 대한원격탐사학회지
    • /
    • 제38권5_3호
    • /
    • pp.913-924
    • /
    • 2022
  • 이 연구에서는 국내 연안어장을 대상으로 조식동물 및 서식지에 대한 수중영상 기반의 인공지능 학습자료를 구축하고, state-of-the-art (SOTA) 모델인 High Resolution Network-Object Contextual Representation(HRNet-OCR)과 Shifted Windows-L (Swin-L)을 이용하여, 조식동물 서식지 수중영상의 의미론적 분할을 수행함으로써 화소 또는 화소군 간의 공간적 맥락(상관성)을 반영하는 보다 실제적인 탐지 결과를 제시하였다. 조식동물 서식지인 감태, 모자반의 수중영상 레이블 중 1,390장을 셔플링(shuffling)하여 시험평가를 수행한 결과, 한국수산자원공단의 DeepLabV3+ 사례에 비해 약 29% 향상된 정확도를 도출하였다. 모든 클래스에 대해 Swin-L이 HRNet-OCR보다 판별율이 더 좋게 나타났으며, 특히 데이터가 적은 감태의 경우, Swin-L이 해당 클래스에 대한 특징을 더 풍부하게 반영할 수 있는 것으로 나타났다. 영상분할 결과 대상물과 배경이 정교하게 분리되는 것을 확인되었는데, 이는 Transformer 계열 백본을 활용하면서 특징 추출능력이 더욱 향상된 것으로 보인다. 향후 10,000장의 레이블 데이터베이스가 완성되면 추가적인 정확도 향상이 가능할 것으로 기대된다.

Swin Transformer와 Sentinel-1 영상을 이용한 우리나라 저수지의 수체 탐지 (Waterbody Detection for the Reservoirs in South Korea Using Swin Transformer and Sentinel-1 Images)

  • 최소연;윤유정;강종구;김서연;정예민;임윤교;서영민;김완엽;최민하;이양원
    • 대한원격탐사학회지
    • /
    • 제39권5_3호
    • /
    • pp.949-965
    • /
    • 2023
  • 본 연구에서는 Sentinel-1 synthetic aperture radar 영상을 활용하여 딥러닝 모델인 Swin Transformer로 국내 농업용 저수지의 수표면적을 모니터링 하는 방법을 제시한다. Google Earth Engine 플랫폼을 이용하여 70만톤 급, 90만톤급, 150만톤급 저수지 7개소에 대한 2017년부터 2021년 데이터셋을 구축하였다. 저수지 4개소에 대한 영상 1,283장에 대해서 셔플링(suffling) 및 5-폴드(fold) 교차검증 기법을 적용하여 모델을 학습하였다. 시험평가 결과 모델의 윈도우 크기를 12로 설정한 Swin Transformer Large 모델은 각 폴드에서 평균적으로 99.54%의 정확도와 95.15%의 mean intersection over union (mIoU)을 기록하여 우수한 의미론적 분할 성능을 보여주었다. 최고 성능을 보여준 모델을 나머지 3개소 저수지 데이터셋에 적용하여 성능을 검증한 결과, 모든 저수지에서 정확도 99% 및 mIoU 94% 이상을 달성함을 확인했다. 이러한 결과는 Swint Transformer 모델이 국내의 농업용 저수지의 수표면적 모니터링에 효과적으로 활용될 수 있음을 보여준다.

모발 정밀검사에서 탈모 진단을 위한 머리카락 검출 개선 방법 (Method for improving hair detection for hair loss diagnosis in Phototrichogram)

  • 김보민;박병철;최상일
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제67차 동계학술대회논문집 31권1호
    • /
    • pp.89-90
    • /
    • 2023
  • 본 논문은 모발 정밀검사(Phototrichogram)를 통해 일정 간격을 두고 촬영된 환자의 모발 두피 사진을 이용하여 머리카락 검출 및 개수 변화 추이에 따른 환자의 탈모 진단에 도움을 줄 방법을 제안한다. 기존의 탈모 진단을 위해 제안하였던 머리카락 검출 방법에서 사용한 환자의 모발 두피 사진에 Color Slicing을 적용하여 환자의 두피 모발 사진의 픽셀값을 통일성 있게 구성하였다. 또한, 머리카락 검출하기 위한 방법으로 Swin Transformer를 사용하고, 딥러닝 기반의 영상 분할 기법(Image Segmentation)의 하나인 HTC(Hybrid Task Cascade) 모델을 활용하여 좀 더 효과적으로 머리카락을 검출할 수 있는 모델을 제안한다.

  • PDF

Vision Transformer 기반 얼굴 연령 분류 기법의 성능 분석 (Performance Analysis of Human Facial Age Classification Method Based on Vision Transformer)

  • 박준휘;김남중;박창준;이재현;곽정환
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.343-345
    • /
    • 2024
  • 얼굴 연령 분류 기법은 신원 확인 시스템 고도화, 유동 인구 통계 자동화 시스템 구축, 연령 제한 콘텐츠 관리 시스템 고도화 등 다양한 분야에 적용할 수 있는 확장 가능성을 가진다. 넓은 확장 가능성을 가지는 만큼 적용된 시스템의 안정성을 위해서는 얼굴 연령 분류 기법의 높은 정확도는 필수적이다. 따라서, 본 논문에서는 Vision Transformer(ViT) 기반 분류 알고리즘의 얼굴 연령 분류 성능을 비교 분석한다. ViT 기반분류 알고리즘으로는 최근 널리 사용되고 있는 ViT, Swin Transformer(ST), Neighborhood Attention Transformer(NAT) 세 가지로 선정하였으며, ViT의 얼굴 연령 분류 정확도 65.19%의 성능을 확인하였다.

  • PDF

드론 촬영 이미지 데이터를 기반으로 한 도로 균열 탐지 딥러닝 모델 개발 (Development of Deep Learning Model for Detecting Road Cracks Based on Drone Image Data)

  • 권영주;문성호
    • 토지주택연구
    • /
    • 제14권2호
    • /
    • pp.125-135
    • /
    • 2023
  • 드론은 국토조사, 수송, 해양, 환경, 방재, 문화재, 건설 등 다양한 분야에서 활용되고 있다. 또한 사물인터넷(Internet of Things), 인공지능(Artificial Intelligence) 등과 관련하여 4차 산업 혁명의 핵심기술을 검증하고 적용시킬 수 있는 기술로 떠오르고 있다. 본 연구에서는 드론을 활용하여 균열을 자동으로 탐지할 수 있는 딥러닝 모델을 개발하고자 한다. 딥러닝 학습을 위한 이미지 데이터는 Mavic3 드론을 이용하여 수집하였고 촬영고도는 20m, ×7배율로 촬영하였다. 촬영 시 약 2m/s의 속도로 전진하여 영상을 찍고, 프레임을 추출하는 식으로 데이터를 수집하였다. 이런식으로 수집한 데이터를 통해 딥러닝 학습을 진행하였다. 본 연구에서는 딥러닝 학습모델로 Backbone으로는 Swin Transformer, Architecture로 UperNet을 사용하였다. 약 800장의 라벨링 된 데이터를 Augmentation기법으로 데이터 양을 증가시키고 3차에 걸쳐 학습을 진행하였다. 1차와 2차 학습 시 Cross-Entropy loss function을 사용하였고 3차 학습 시 Tversky Loss Function을 사용하였다. 학습결과, 균열 탐지와 균열율을 계산할 수 있는 모델을 개발하였다. 또한, 드론의 위치 정보를 이용해 특정 도로의 한 차선 균열율을 계산할 수 있는 모델을 개발하였다. 향후 추가적인 연구를 통하여 균열탐지모델의 고도화를 사물인터넷(IoT)과의 융합으로 이루었을 때 소파보수(Patching)나 포트홀(Pothole)의 탐지가 가능할 것으로 보인다. 또한 드론의 실시간 탐지 업무수행으로 포장 유지 보수구간에 대한 탐지를 신속하게 확보할 수 있을것으로 기대된다.