• 제목/요약/키워드: Swin 모델

검색결과 12건 처리시간 0.022초

Swin Transformer를 이용한 항공사진에서 다중클래스 차량 검출 (The Detection of Multi-class Vehicles using Swin Transformer)

  • 이기춘;정유석;이창우
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.112-114
    • /
    • 2021
  • 도시 상태를 탐지하기 위해서는 운송 수단 수, 교통 흐름등이 필수적으로 파악되어야 할 요소이다. 본 논문에서는 기존의 Mask R-CNN을 이용하여 다양한 차량의 형태를 학습하고, 드론으로 촬영한 도시항공 영상에서 특정 유형의 차량 들을 검출하는 시스템을 오늘날 NLP 분야에서 널리 쓰이게 된 Transformer 모델을 컴퓨터 비전 문제에 도입하여 기존의 컨볼루션 신경망보다 높은 성능을 보여준 Swin Transformer 모델을 이용하여 기존의 연구에서 보여주었던 검출 시스템 능력을 향상시켰다.

  • PDF

HRNet-OCR과 Swin-L 모델을 이용한 조식동물 서식지 수중영상의 의미론적 분할 (Semantic Segmentation of the Habitats of Ecklonia Cava and Sargassum in Undersea Images Using HRNet-OCR and Swin-L Models)

  • 김형우;장선웅;박수호;공신우;곽지우;김진수;이양원
    • 대한원격탐사학회지
    • /
    • 제38권5_3호
    • /
    • pp.913-924
    • /
    • 2022
  • 이 연구에서는 국내 연안어장을 대상으로 조식동물 및 서식지에 대한 수중영상 기반의 인공지능 학습자료를 구축하고, state-of-the-art (SOTA) 모델인 High Resolution Network-Object Contextual Representation(HRNet-OCR)과 Shifted Windows-L (Swin-L)을 이용하여, 조식동물 서식지 수중영상의 의미론적 분할을 수행함으로써 화소 또는 화소군 간의 공간적 맥락(상관성)을 반영하는 보다 실제적인 탐지 결과를 제시하였다. 조식동물 서식지인 감태, 모자반의 수중영상 레이블 중 1,390장을 셔플링(shuffling)하여 시험평가를 수행한 결과, 한국수산자원공단의 DeepLabV3+ 사례에 비해 약 29% 향상된 정확도를 도출하였다. 모든 클래스에 대해 Swin-L이 HRNet-OCR보다 판별율이 더 좋게 나타났으며, 특히 데이터가 적은 감태의 경우, Swin-L이 해당 클래스에 대한 특징을 더 풍부하게 반영할 수 있는 것으로 나타났다. 영상분할 결과 대상물과 배경이 정교하게 분리되는 것을 확인되었는데, 이는 Transformer 계열 백본을 활용하면서 특징 추출능력이 더욱 향상된 것으로 보인다. 향후 10,000장의 레이블 데이터베이스가 완성되면 추가적인 정확도 향상이 가능할 것으로 기대된다.

DeepLabV3+와 Swin Transformer 모델을 이용한 Sentinel-2 영상의 구름탐지 (Cloud Detection from Sentinel-2 Images Using DeepLabV3+ and Swin Transformer Models)

  • 강종구;박강현;김근아;윤유정;최소연;이양원
    • 대한원격탐사학회지
    • /
    • 제38권6_2호
    • /
    • pp.1743-1747
    • /
    • 2022
  • Sentinel-2는 분광파장대나 공간해상도 측면에서 우리나라 차세대중형위성 4호(농림위성)의 모의영상으로 활용될 수 있다. 이 단보에서는 향후 농림위성영상에 적용하기 위한 예비실험으로, 딥러닝 기술을 이용한 Sentinel-2 영상의 구름탐지를 수행하였다. 전통적인 Convolutional Neural Network (CNN) 모델인 DeepLabV3+와 최신의 Transformer 모델인 Shifted Windows (Swin) Transformer를 이용한 구름탐지 모델을 구축하고, Radiant Earth Foundation (REF)에서 제공하는 22,728장의 학습자료에 대한 암맹평가를 실시하였다. Swin Transformer 모델은 0.886의 정밀도와 0.875의 재현율로, 과탐지와 미탐지가 어느 한쪽으로 치우치지 않는 경향을 보였다. 딥러닝 기반 구름탐지는 향후 우리나라 중심의 실험을 거쳐 농림위성 영상에 활용될 수 있을 것으로 기대된다.

얼굴 특징점을 활용한 영상 편집점 탐지 (Detection of video editing points using facial keypoints)

  • 나요셉;김진호;박종혁
    • 지능정보연구
    • /
    • 제29권4호
    • /
    • pp.15-30
    • /
    • 2023
  • 최근 미디어 분야에도 인공지능(AI)을 적용한 다양한 서비스가 등장하고 있는 추세이다. 하지만 편집점을 찾아 영상을 이어 붙이는 영상 편집은, 대부분 수동적 방식으로 진행되어 시간과 인적 자원의 소요가 많이 발생하고 있다. 이에 본 연구에서는 Video Swin Transformer를 활용하여, 발화 여부에 따른 영상의 편집점을 탐지할 수 있는 방법론을 제안한다. 이를 위해, 제안 구조는 먼저 Face Alignment를 통해 얼굴 특징점을 검출한다. 이와 같은 과정을 통해 입력 영상 데이터로부터 발화 여부에 따른 얼굴의 시 공간적인 변화를 모델에 반영한다. 그리고, 본 연구에서 제안하는 Video Swin Transformer 기반 모델을 통해 영상 속 사람의 행동을 분류한다. 구체적으로 비디오 데이터로부터 Video Swin Transformer를 통해 생성되는 Feature Map과 Face Alignment를 통해 검출된 얼굴 특징점을 합친 후 Convolution을 거쳐 발화 여부를 탐지하게 된다. 실험 결과, 본 논문에서 제안한 얼굴 특징점을 활용한 영상 편집점 탐지 모델을 사용했을 경우 분류 성능을 89.17% 기록하여, 얼굴 특징점을 사용하지 않았을 때의 성능 87.46% 대비 성능을 향상시키는 것을 확인할 수 있었다.

Swin Transformer와 Sentinel-1 영상을 이용한 우리나라 저수지의 수체 탐지 (Waterbody Detection for the Reservoirs in South Korea Using Swin Transformer and Sentinel-1 Images)

  • 최소연;윤유정;강종구;김서연;정예민;임윤교;서영민;김완엽;최민하;이양원
    • 대한원격탐사학회지
    • /
    • 제39권5_3호
    • /
    • pp.949-965
    • /
    • 2023
  • 본 연구에서는 Sentinel-1 synthetic aperture radar 영상을 활용하여 딥러닝 모델인 Swin Transformer로 국내 농업용 저수지의 수표면적을 모니터링 하는 방법을 제시한다. Google Earth Engine 플랫폼을 이용하여 70만톤 급, 90만톤급, 150만톤급 저수지 7개소에 대한 2017년부터 2021년 데이터셋을 구축하였다. 저수지 4개소에 대한 영상 1,283장에 대해서 셔플링(suffling) 및 5-폴드(fold) 교차검증 기법을 적용하여 모델을 학습하였다. 시험평가 결과 모델의 윈도우 크기를 12로 설정한 Swin Transformer Large 모델은 각 폴드에서 평균적으로 99.54%의 정확도와 95.15%의 mean intersection over union (mIoU)을 기록하여 우수한 의미론적 분할 성능을 보여주었다. 최고 성능을 보여준 모델을 나머지 3개소 저수지 데이터셋에 적용하여 성능을 검증한 결과, 모든 저수지에서 정확도 99% 및 mIoU 94% 이상을 달성함을 확인했다. 이러한 결과는 Swint Transformer 모델이 국내의 농업용 저수지의 수표면적 모니터링에 효과적으로 활용될 수 있음을 보여준다.

넙치 질병 증상 분류를 위한 객체 탐지 딥러닝 모델 성능 평가 (Performance Evaluation of Object Detection Deep Learning Model for Paralichthys olivaceus Disease Symptoms Classification)

  • 조경원;백란;정종호;김찬진;최한석;정석원;손현승
    • 스마트미디어저널
    • /
    • 제12권10호
    • /
    • pp.71-84
    • /
    • 2023
  • 넙치 양식은 우리나라 양식 산업의 절반 이상 차지할 정도로 큰 비중을 차지한다. 그러나 연중 총사육량의 25~30% 정도가 질병으로 인한 집단 폐사가 발생하여 양식장의 경제성에 매우 나쁜 영향을 준다. 넙치 양식장의 경제성 성장을 위해서는 넙치 질병 증상 진단을 자동화하여 빠르고 정확하게 질병 진단을 하는 방법이 필요하다. 본 연구에서는 독창적인 학습 데이터 수집 방법과 학습 정제 알고리즘 및 학습 데이터 분리 기법을 사용하여 학습 데이터를 구축하고 4가지 객체 탐지 딥러닝 모델(YOLOv8, Swin, Vitdet, MvitV2)의 넙치 질병증상 감지 성능을 비교한다. 실험 결과 YOLOv8 모델이 평균 인식률(mAP)과 예상 도착 시간(ETA) 관점에서 우수하다는 결론을 얻었다. 본 연구에서 제안하는 AI 모델의 성능이 검증되면 넙치 양식장에서는 실시간으로 넙치 질병을 진단할 수 있고, 진단 결과에 따른 신속한 예방 조치로 양식장의 생산성은 크게 향상될 것이라 기대된다.

모발 정밀검사에서 탈모 진단을 위한 머리카락 검출 개선 방법 (Method for improving hair detection for hair loss diagnosis in Phototrichogram)

  • 김보민;박병철;최상일
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제67차 동계학술대회논문집 31권1호
    • /
    • pp.89-90
    • /
    • 2023
  • 본 논문은 모발 정밀검사(Phototrichogram)를 통해 일정 간격을 두고 촬영된 환자의 모발 두피 사진을 이용하여 머리카락 검출 및 개수 변화 추이에 따른 환자의 탈모 진단에 도움을 줄 방법을 제안한다. 기존의 탈모 진단을 위해 제안하였던 머리카락 검출 방법에서 사용한 환자의 모발 두피 사진에 Color Slicing을 적용하여 환자의 두피 모발 사진의 픽셀값을 통일성 있게 구성하였다. 또한, 머리카락 검출하기 위한 방법으로 Swin Transformer를 사용하고, 딥러닝 기반의 영상 분할 기법(Image Segmentation)의 하나인 HTC(Hybrid Task Cascade) 모델을 활용하여 좀 더 효과적으로 머리카락을 검출할 수 있는 모델을 제안한다.

  • PDF

백본 네트워크에 따른 사람 속성 검출 모델의 성능 변화 분석 (Analyzing DNN Model Performance Depending on Backbone Network )

  • 박천수
    • 반도체디스플레이기술학회지
    • /
    • 제22권2호
    • /
    • pp.128-132
    • /
    • 2023
  • Recently, with the development of deep learning technology, research on pedestrian attribute recognition technology using deep neural networks has been actively conducted. Existing pedestrian attribute recognition techniques can be obtained in such a way as global-based, regional-area-based, visual attention-based, sequential prediction-based, and newly designed loss function-based, depending on how pedestrian attributes are detected. It is known that the performance of these pedestrian attribute recognition technologies varies greatly depending on the type of backbone network that constitutes the deep neural networks model. Therefore, in this paper, several backbone networks are applied to the baseline pedestrian attribute recognition model and the performance changes of the model are analyzed. In this paper, the analysis is conducted using Resnet34, Resnet50, Resnet101, Swin-tiny, and Swinv2-tiny, which are representative backbone networks used in the fields of image classification, object detection, etc. Furthermore, this paper analyzes the change in time complexity when inferencing each backbone network using a CPU and a GPU.

  • PDF

얼굴 영역 추출 시 여유값의 설정에 따른 개성 인식 모델 정확도 성능 분석 (Performance Analysis for Accuracy of Personality Recognition Models based on Setting of Margin Values at Face Region Extraction)

  • 구욱;한규원;김봉재
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.141-147
    • /
    • 2024
  • 최근 개인의 성향을 반영한 맞춤형 서비스가 각광 받고 있다. 이와 관련하여 개인의 개성을 인식하고 활용하고자 하는 연구가 지속적으로 이루어지고 있다. 각 개인의 개성을 인식하고 평가하는 방법은 다수가 있지만, OCEAN 모델이 대표적으로 사용된다. OCEAN 모델로 각 개인의 개성을 인식할 때 언어적, 준언어적, 비언어적 정보를 이용하는 멀티 모달리티 기반 인공지능 모델이 사용될 수 있다. 본 논문에서는 비언어적 정보인 사용자의 표정을 기반으로 OCEAN을 인식하는 인공지능 모델에서 영상 데이터에서 얼굴 영역을 추출할 때 지정하는 얼굴 영역 여유값(Margin)에 따른 개성 인식 모델 정확도 성능을 분석한다. 실험에서는 2D Patch Partition, R2plus1D, 3D Patch Partition, 그리고 Video Swin Transformer에 기반한 개성 인식 모델을 사용하였다. 얼굴 영역 추출 시 여유값을 60으로 사용했을 때 1-MAE 성능이 0.9118로 가장 우수하였다. 따라서 개성 인식 모델의 성능을 최적화하기 위해서는 적절한 여유값을 설정해야 함을 확인하였다.

드론 촬영 이미지 데이터를 기반으로 한 도로 균열 탐지 딥러닝 모델 개발 (Development of Deep Learning Model for Detecting Road Cracks Based on Drone Image Data)

  • 권영주;문성호
    • 토지주택연구
    • /
    • 제14권2호
    • /
    • pp.125-135
    • /
    • 2023
  • 드론은 국토조사, 수송, 해양, 환경, 방재, 문화재, 건설 등 다양한 분야에서 활용되고 있다. 또한 사물인터넷(Internet of Things), 인공지능(Artificial Intelligence) 등과 관련하여 4차 산업 혁명의 핵심기술을 검증하고 적용시킬 수 있는 기술로 떠오르고 있다. 본 연구에서는 드론을 활용하여 균열을 자동으로 탐지할 수 있는 딥러닝 모델을 개발하고자 한다. 딥러닝 학습을 위한 이미지 데이터는 Mavic3 드론을 이용하여 수집하였고 촬영고도는 20m, ×7배율로 촬영하였다. 촬영 시 약 2m/s의 속도로 전진하여 영상을 찍고, 프레임을 추출하는 식으로 데이터를 수집하였다. 이런식으로 수집한 데이터를 통해 딥러닝 학습을 진행하였다. 본 연구에서는 딥러닝 학습모델로 Backbone으로는 Swin Transformer, Architecture로 UperNet을 사용하였다. 약 800장의 라벨링 된 데이터를 Augmentation기법으로 데이터 양을 증가시키고 3차에 걸쳐 학습을 진행하였다. 1차와 2차 학습 시 Cross-Entropy loss function을 사용하였고 3차 학습 시 Tversky Loss Function을 사용하였다. 학습결과, 균열 탐지와 균열율을 계산할 수 있는 모델을 개발하였다. 또한, 드론의 위치 정보를 이용해 특정 도로의 한 차선 균열율을 계산할 수 있는 모델을 개발하였다. 향후 추가적인 연구를 통하여 균열탐지모델의 고도화를 사물인터넷(IoT)과의 융합으로 이루었을 때 소파보수(Patching)나 포트홀(Pothole)의 탐지가 가능할 것으로 보인다. 또한 드론의 실시간 탐지 업무수행으로 포장 유지 보수구간에 대한 탐지를 신속하게 확보할 수 있을것으로 기대된다.