• 제목/요약/키워드: Detectron2

검색결과 9건 처리시간 0.023초

적외선 영상, 라이다 데이터 및 특성정보 융합 기반의 합성곱 인공신경망을 이용한 건물탐지 (Building Detection by Convolutional Neural Network with Infrared Image, LiDAR Data and Characteristic Information Fusion)

  • 조은지;이동천
    • 한국측량학회지
    • /
    • 제38권6호
    • /
    • pp.635-644
    • /
    • 2020
  • 딥러닝(DL)을 이용한 객체인식, 탐지 및 분할하는 연구는 여러 분야에서 활용되고 있으며, 주로 영상을 DL 모델의 학습 데이터로 사용하고 있지만, 본 논문은 영상뿐 아니라 공간정보 특성을 포함하는 다양한 학습 데이터(multimodal training data)를 향상된 영역기반 합성곱 신경망(R-CNN)인 Detectron2 모델 학습에 사용하여 객체를 분할하고 건물을 탐지하는 것이 목적이다. 이를 위하여 적외선 항공영상과 라이다 데이터의 내재된 객체의 윤곽 및 통계적 질감정보인 Haralick feature와 같은 여러 특성을 추출하였다. DL 모델의 학습 성능은 데이터의 수량과 특성뿐 아니라 융합방법에 의해 좌우된다. 초기융합(early fusion)과 후기융합(late fusion)의 혼용방식인 하이브리드 융합(hybrid fusion)을 적용한 결과 33%의 건물을 추가적으로 탐지 할 수 있다. 이와 같은 실험 결과는 서로 다른 특성 데이터의 복합적 학습과 융합에 의한 상호보완적 효과를 입증하였다고 판단된다.

혼잡 환경에서 강인한 딥러닝 기반 인간 추적 프레임워크 (A Robust Deep Learning based Human Tracking Framework in Crowded Environments)

  • 오경석;김성현;김진섭;이승환
    • 로봇학회논문지
    • /
    • 제16권4호
    • /
    • pp.336-344
    • /
    • 2021
  • This paper presents a robust deep learning-based human tracking framework in crowded environments. For practical human tracking applications, a target must be robustly tracked even in undetected or overcrowded situations. The proposed framework consists of two parts: robust deep learning-based human detection and tracking while recognizing the aforementioned situations. In the former part, target candidates are detected using Detectron2, which is one of the powerful deep learning tools, and their weights are computed and assigned. Subsequently, a candidate with the highest weight is extracted and is utilized to track the target human using a Kalman filter. If the bounding boxes of the extracted candidate and another candidate are overlapped, it is regarded as a crowded situation. In this situation, the center information of the extracted candidate is compensated using the state estimated prior to the crowded situation. When candidates are not detected from Detectron2, it means that the target is completely occluded and the next state of the target is estimated using the Kalman prediction step only. In two experiments, people wearing the same color clothes and having a similar height roam around the given place by overlapping one another. The average error of the proposed framework was measured and compared with one of the conventional approaches. In the error result, the proposed framework showed its robustness in the crowded environments.

객체 인식 모델과 지면 투영기법을 활용한 영상 내 다중 객체의 위치 보정 알고리즘 구현 (Implementation of AI-based Object Recognition Model for Improving Driving Safety of Electric Mobility Aids)

  • 박동석;홍순기;박준모
    • 융합신호처리학회논문지
    • /
    • 제24권2호
    • /
    • pp.119-125
    • /
    • 2023
  • 본 연구에서는 전동 이동 보조기를 이용하는 교통약자의 이동을 저해하거나 불편을 초래하는 횡단 보도, 측구, 맨홀, 점자블록, 부분 경사로, 임시안전 방호벽, 계단, 경사형 연석과 같은 주행 장애물 객체를 촬영한 뒤 객체를 분류하고 이를 자동 인식하는 최적의 AI 모델을 개발하여 주행 중인 전동 이동 보조기 전방에 나타난 장애물을 효율적으로 판단할 수 있는 알고리즘을 구현하고자 한다. 객체 검출을 높은 확률로 AI 학습이 될 수 있도록 데이터 셋 구축 시 라벨링 형태를 폴리곤 형태로 라벨링 하며, 폴리곤 형태로 라벨링 된 객체를 탐지할 수 있는 Detectron2 프레임워크를 활용하여 Mask R-CNN 모델을 활용하여 개발을 진행하였다. 영상 획득은 일반인과 교통약자의 두 개 그룹으로 구분하여 진행하였고 테스트베드 2개 지역에서 얻어진 영상정보를 확보하였다. Mask R-CNN 학습 결과 파라미터 설정은 IMAGES_PER _BATCH : 2, BASE_LEARNING_RATE 0.001, MAX_ITERATION : 10,000으로 학습한 모델이 68.532로 가장 높은 성능을 보인 것이 확인되어 주행 위험, 장애 요소를 빠르고 정확하게 사용자가 인지할 수 있도록 하는 딥러닝 모델을 구축이 가능한 것을 확인할 수 있었다.

전동 이동 보조기기 주행 안전성 향상을 위한 AI기반 객체 인식 모델의 구현 (Implementation of AI-based Object Recognition Model for Improving Driving Safety of Electric Mobility Aids)

  • 우제승;홍순기;박준모
    • 융합신호처리학회논문지
    • /
    • 제23권3호
    • /
    • pp.166-172
    • /
    • 2022
  • 본 연구에서는 전동 이동 보조기기를 이용하는 교통약자의 이동을 저해하거나 불편을 초래하는 횡단 보도, 측구, 맨홀, 점자블록, 부분 경사로, 임시안전 방호벽, 계단, 경사형 연석과 같은 주행 장애물 객체를 촬영한 뒤 객체를 분류하고 이를 자동 인식하는 최적의 AI 모델을 개발하여 주행 중인 전동 이동 보조기기의 전방에 나타난 장애물을 효율적으로 판단할 수 있는 알고리즘을 구현하고자 한다. 객체 검출을 높은 확률로 AI 학습이 될 수 있도록 데이터 셋 구축 시 라벨링 형태를 폴리곤 형태로 라벨링 하며, 폴리곤 형태로 라벨링 된 객체를 탐지할 수 있는 Detectron2 프레임워크를 활용하여 Mask R-CNN 모델을 활용하여 개발을 진행하였다. 영상 획득은 일반인과 교통약자의 두 개 그룹으로 구분하여 진행하였고 테스트베드 2개 지역에서 얻어진 영상정보를 확보하였다. Mask R-CNN 학습 결과 파라미터 설정은 IMAGES_PER _BATCH : 2, BASE_LEARNING_RATE 0.001, MAX_ITERATION : 10,000으로 학습한 모델이 68.532로 가장 높은 성능을 보인 것이 확인되어 주행 위험, 장애 요소를 빠르고 정확하게 사용자가 인지할 수 있도록 하는 딥러닝 모델을 구축이 가능한 것을 확인할 수 있었다.

VCM 의 바텀-업 MSFF 를 이용한 MSFC 기반 멀티-스케일 특징 압축 네트워크 개선 (Enhancement of MSFC-Based Multi-Scale Features Compression Network with Bottom-UP MSFF in VCM)

  • 김동하;한규웅;차준석;김재곤
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 추계학술대회
    • /
    • pp.116-118
    • /
    • 2022
  • MPEG-VCM(Video Coding for Machine)은 입력된 이미지/비디오의 특징(feature)를 압축하는 Track 1 과 입력 이미지/비디오를 직접 압축하는 Track 2 로 나뉘어 표준화가 진행 중이다. 본 논문은 Track 1 의 비전임무 네트워크로 사용하는 Detectron2 의 FPN(Feature Pyramid Network)에서 추출한 멀티-스케일 특징을 효율적으로 압축하는 MSFC 기반의 압축 모델의 개선 기법을 제시한다. 제안기법은 해상도를 줄여서 단일-스케일 압축맵을 압축하는 기존의 압축 모델에서 저해상도 특징맵을 고해상도 특징맵에 바텀-업(Bottom-Up) 구조로 합성하여 단일-스케일 특징맵을 구성하는 바텀-업 MSFF 를 가지는 압축 모델을 제시한다. 제안방법은 기존의 모델 보다 BPP-mAP 성능에서 1 ~ 2.7%의 개선된 BD-rate 성능을 보이며 VCM 의 이미지 앵커(image anchor) 대비 최대 -85.94%의 BD-rate 성능향상을 보인다.

  • PDF

VCM 을 위한 FPN 다중 스케일 특징 압축 (Compression of Multiscale Features of FPN for VCM)

  • 김동하;윤용욱;이주영;정세윤;김재곤;정대권
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.143-145
    • /
    • 2022
  • MPEG-VCM(Video Coding for Machine)은 입력된 비디오 특징(feature)를 압축하는 Track1 과 입력 영상을 직접 압축하는 Track2 로 나뉘어 표준화가 진행중이다. 본 논문은 VCM Track 1 에 해당하는 Detectron2 FPN(Feature Pyramid Network)에서 추출한 다중 스케일 특징맵을 VVC 로 압축하는 MSFC(Multi-Scale Feature Compression)을 구조를 제안한다. 본 논문의 MSFC 에서는 다중 스케일 특징을 결합하여 부호화/복호화하는 기존의 구조에서 특징맵의 해상도를 줄여 압축하는 개선된 MSFC 를 제시한다. 제안 방법은 VCM 의 Track2 의 영상 앵커(image anchor) 보다 우수한 BPP-mAP 성능을 보이고 최대 -84.98%의 BD-rate 성능향상을 보인다.

  • PDF

CompressAI 를 활용한 객체 검출 네트워크 피쳐 맵 압축 (Object Detection Network Feature Map Compression using CompressAI)

  • 도지훈;이주영;김연희;최진수;정세윤
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 하계학술대회
    • /
    • pp.7-9
    • /
    • 2021
  • 본 논문은 Detectron2 [1]에서 지원하는 객체 검출 임무 수행 네트워크의 과정 중에서 추출한 피쳐 맵을 신경망 기반으로 압축하는 방법을 제안한다. 이를 위해, 신경 망 기반 영상 압축을 지원하는 공개 소프트웨어인 CompressAI [2] 모델 중 하나인 bmshj2018-hyperprior 의 압축 네트워크를 활용하여 임무 수행 네트워크의 과정 중 스탬 레이어(stem layer)에서 추출된 피쳐 맵을 압축하도록 학습시켰다. 또한, 압축 네트워크의 입력 피쳐 맵의 너비와 높이 크기가 64 의 배수가 되도록 객체 검출 네트워크의 입력 영상 보간 값을 조정하는 방법도 제안한다. 제안하는 신경망 기반 피쳐 맵 압축 방법은 피쳐 맵을 최근 표준이 완료된 차세대 압축 표준 방법인 VVC(Versatile Video Coding, [3])로 압축한 결과에 비해 큰 성능 향상을 보이고, VCM 앵커와 유사한 성능을 보인다.

  • PDF

RoI 추출 방법에 따른 기계를 위한 영상 압축 성능 비교 (Comparison of Image Compression Performance based on RoI Extraction Methods for Machines Vision)

  • 이예지;김신;윤경로
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.146-149
    • /
    • 2022
  • 기존 RDO(Rate Distortion Optimization) 기반 압축 방식은 압축 성능에 초점을 두기 때문에 영상 내 인지 특성이 무시될 수 있다. 따라서 RoI(Region of Interest)을 기반으로 압축률을 조절하는 연구가 고안[1, 2, 3, 4] 되었으며, HVS(Human Visual System) 관점에서 영상 내 중요한 부분에 대해 더 높은 품질로 영상을 압축하는 연구가 대부분이다. 최근 인공지능 기술이 발전함에 따라 지능형 영상 분석에 대한 수요가 증가하고 있으며, 이에 따라 머신 비전을 위한 영상 부호화 및 효율적인 전송에 대한 필요성이 대두되고 있다. 본 논문에서는 VVC(Versatile Video Coding)의 dQP(delta Quantization Parameter)를 활용하여 RoI(Region of Interest) 기반압축 방법을 제안하고, 두가지의 RoI 추출 방식을 소개한다. Detectron2 Faster R-CNN X101-FPN [5]의 첫번째 탐지기를 통해 후보 영역 기반 RoI 을 추출하고, 두번째 탐지기를 통해 객체 기반 RoI 을 추출하여, 영상 내 객체 부분과 비객체 부분으로 나누어 서로 다른 압축률로 압축을 수행하였으며, 이에 따른 성능을 비교하고자 한다.

  • PDF

위성이미지 기반 시설하우스 판별 Mask-RCNN 모델 개발 (Development of Mask-RCNN Model for Detecting Greenhouses Based on Satellite Image)

  • 김윤석;허성;윤성욱;안진현;최인찬;장성율;이승재;정용석
    • 한국농림기상학회지
    • /
    • 제23권3호
    • /
    • pp.156-162
    • /
    • 2021
  • 본 인스턴스 분할 모델은 위성을 이용해 촬영된 원격탐지 영상 내의 객체 탐지에 높은 정확도를 갖는다는 것을 입증하였으며, 불법으로 가설된 시설 하우스를 발견하는데 활용될 수 있다. 즉, 특정 지역 및 일정시기를 기준으로 시설하우스를 인식시키고 그 이후에 신축된 하우스를 분별하는데 사용할 수 있을 것이다. 또한 본 기술을 응용하여, 토지피복도 조사와 같은 인력중심의 작업을 빠르게 해결할 수 있다. 앞으로 이 모델은 지리정보시스템(Geographic Information System)과 연계하여 중앙정부 차원의 단일화된 관리체계를 수립할 수 있을 것이며 또한 시설하우스 면적 통계 수치계산에도 쉽게 응용될 수 있을 것으로 판단된다.