• Title/Summary/Keyword: 학습 객체

검색결과 766건 처리시간 0.023초

다중 공간정보 데이터의 점진적 조합에 의한 의미적 분류 딥러닝 모델 학습 성능 분석 (Training Performance Analysis of Semantic Segmentation Deep Learning Model by Progressive Combining Multi-modal Spatial Information Datasets)

  • 이대건;신영하;이동천
    • 한국측량학회지
    • /
    • 제40권2호
    • /
    • pp.91-108
    • /
    • 2022
  • 대부분의 경우 광학 RGB 영상을 딥러닝(DL: Deep learning)의 학습 데이터로 사용하여 객체탐지, 인식, 식별, 분류, 의미적 분할 및 객체 분할 등을 수행하지만, 실세계의 3차원 객체들을 2차원 영상으로 완전하게 파악하는 것은 한계가 있다. 그러므로 대표적인 3차원 지형 공간정보인 수치표면모델(DSM: Digital Surface Model)과 더불어 DSM에 내재된 특성정보를 이용하여 3차원 지형지물을 분석하는 것이 효과적이다. 건물과 같이 기하학적으로 정형화된 형태의 인공구조물은 3차원 공간데이터로부터 얻을 수 있는 기하학적 요소와 특성을 이용하여 객체의 분류와 형상 묘사가 가능하다. 이 연구는 고차원 시각정보(high-level visual information) 시스템에서 중요한 역할을 하는 내재된 고유의 특성정보(intrinsic information)를 기반으로 하며, 이를 위하여 객체의 기하학적 요소인 경사와 주향을 DSM으로부터 도출하고, 다방향에서 생성한 음영기복영상(SRI: Shaded Relief Image)과 함께 DL 모델의 학습 수행에 사용하였다. 실험은 ISPRS (International Society for Photogrammetry and Remote Sensing)에서 제공하는 데이터 셋 중에서 DSM과 레이블 데이터를 객체의 의미적 분류를 위해 개발된 합성곱 기반의 SegNet 학습에 사용하였다. 지형지물을 분류하고 분류 결과를 이용하여 건물을 추출하였다. 특히 DL 모델의 학습 성능 향상을 위해 학습 데이터의 여러 조합에 따른 시너지 효과를 분석하는 것에 핵심이다. 제안한 방법은 건물 분류와 추출에 효과적임을 보여주고 있다.

적외선 영상, 라이다 데이터 및 특성정보 융합 기반의 합성곱 인공신경망을 이용한 건물탐지 (Building Detection by Convolutional Neural Network with Infrared Image, LiDAR Data and Characteristic Information Fusion)

  • 조은지;이동천
    • 한국측량학회지
    • /
    • 제38권6호
    • /
    • pp.635-644
    • /
    • 2020
  • 딥러닝(DL)을 이용한 객체인식, 탐지 및 분할하는 연구는 여러 분야에서 활용되고 있으며, 주로 영상을 DL 모델의 학습 데이터로 사용하고 있지만, 본 논문은 영상뿐 아니라 공간정보 특성을 포함하는 다양한 학습 데이터(multimodal training data)를 향상된 영역기반 합성곱 신경망(R-CNN)인 Detectron2 모델 학습에 사용하여 객체를 분할하고 건물을 탐지하는 것이 목적이다. 이를 위하여 적외선 항공영상과 라이다 데이터의 내재된 객체의 윤곽 및 통계적 질감정보인 Haralick feature와 같은 여러 특성을 추출하였다. DL 모델의 학습 성능은 데이터의 수량과 특성뿐 아니라 융합방법에 의해 좌우된다. 초기융합(early fusion)과 후기융합(late fusion)의 혼용방식인 하이브리드 융합(hybrid fusion)을 적용한 결과 33%의 건물을 추가적으로 탐지 할 수 있다. 이와 같은 실험 결과는 서로 다른 특성 데이터의 복합적 학습과 융합에 의한 상호보완적 효과를 입증하였다고 판단된다.

주의 집중 기법을 활용한 객체 검출 모델 (Object Detection Model Using Attention Mechanism)

  • 김근식;배정수;차의영
    • 한국정보통신학회논문지
    • /
    • 제24권12호
    • /
    • pp.1581-1587
    • /
    • 2020
  • 기계 학습 분야에 합성 곱 신경망이 대두되면서 이미지 처리 문제를 해결하는 모델은 비약적인 발전을 맞이했다. 하지만 그만큼 요구되는 컴퓨팅 자원 또한 상승하여 일반적인 환경에서 이를 학습해보기는 쉽지 않은 일이다. 주의 집중 기법은 본래 순환 신경망의 기울기 소실 문제를 방지하기 위해 제안된 기법이지만, 이는 합성 곱 신경망의 학습에도 유리한 방향으로 활용될 수 있다. 본 논문에서는 합성 곱 신경망에 주의 집중 기법을 적용하고, 이때의 학습 시간과 성능 차이 비교를 통해 제안하는 방법의 우수성을 입증한다. 제안하는 모델은 YOLO를 기반으로 한 객체 검출에서 주의 집중 기법을 적용하지 않은 모델에 비해 학습 시간, 성능 모두 우수한 것으로 나타났으며, 특히 학습 시간을 현저히 낮출 수 있음을 실험적으로 증명하였다. 또한, 이를 통해 일반 사용자의 기계 학습에 대한 접근성 증대가 기대된다.

Deep Convolutional Neural Networks를 이용한 객체 검출 성능의 발전 동향

  • 조선영;신영숙
    • 방송과미디어
    • /
    • 제22권1호
    • /
    • pp.19-33
    • /
    • 2017
  • 새로운 영상 미디어 서비스 기술의 발전으로 인해 다양한 영상 인식 기술이 요구되고 있으며, 특히 영상으로부터 특정 객체를 검출하는 기술은 객체와 관련된 광고나 서비스 등의 다양한 활용 분야를 창출하는 핵심 기술이다. 객체 검출 기술이 방송미디어 기술에 적극적으로 활용되기 위해서는 빠르면서도 정확한 성능을 가진 알고리즘 개발이 필수적이다. 본 논문에서는 전통적인 객체 검출 방법들에 비해 우수한 성능을 가지는 Deep Convolutional Neural Networks 기반 객체 검출 방법들을 분석한다. 최근에 소개된 주요 객체 검출 방법들의 연구 배경과 발전 동향을 소개하고, 각 방법의 핵심 알고리즘 및 장단점에 대해 분석한다. 또한 객체 검출의 성능을 평가하기 위해 사용되는 대표적인 데이터셋을 소개하고, 다양한 네트워크 구조/크기 및 학습 데이터 등의 관점에서 각 방법들의 성능을 비교한다. 마지막으로 기존의 객체 검출 방법들을 분석한 내용을 바탕으로 향후 객체 검출 방법들의 발전 방향 및 활용 가능성을 예측해보고자 한다.

합성곱 신경망을 통한 강건한 온라인 객체 추적 (Robust Online Object Tracking via Convolutional Neural Network)

  • 길종인;김만배
    • 방송공학회논문지
    • /
    • 제23권2호
    • /
    • pp.186-196
    • /
    • 2018
  • 본 논문에서는 객체를 추적하기 위해 합성곱 신경망 모델을 이용한 온라인 추적 기법을 제안한다. 오프라인에 모델을 학습시키기 위해서는 많은 수의 훈련 샘플이 필요하다. 이러한 문제를 해결하기 위해, 학습되지 않은 모델을 사용하고, 실험 영상으로부터 직접 훈련 샘플을 수집하여 모델을 갱신한다. 기존의 방법들은 많은 훈련 샘플을 획득하여 모델의 학습에 사용하였지만, 본 논문에서는 적은 수의 훈련 샘플만으로도 객체의 추적이 가능함을 증명한다. 또한 컬러 정보를 활용하여 새로운 손실 함수를 정의하였고 이로부터 잘못 수집된 훈련 샘플로 인해 모델이 잘못된 방향으로 학습되는 문제를 방지한다. 실험을 통해 4가지 비교 방법과 동등하거나 개선된 추적 성능을 보임을 증명하였다.

CAM과 Selective Search를 이용한 확장된 객체 지역화 학습데이터 생성 및 이의 재학습을 통한 WSOL 성능 개선 (Expanded Object Localization Learning Data Generation Using CAM and Selective Search and Its Retraining to Improve WSOL Performance)

  • 고수연;최영우
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권9호
    • /
    • pp.349-358
    • /
    • 2021
  • 최근 CAM[1]을 이용해서 이미지의 객체에 대한 주의 영역 또는 지역화(Localization) 영역을 찾는 방법이 WSOL의 연구로서 다양하게 수행되고 있다. CAM을 이용한 객체의 히트(Heat) 맵에서 주의 영역 추출은 객체의 특징이 가장 많이 모여 있는 영역만을 주로 집중해서 객체의 전체적인 영역을 찾지 못하는 단점이 있다. 여기서는 이를 개선하기 위해서 먼저 CAM과 Selective Search[6]를 함께 이용하여 CAM 히트맵의 주의 영역을 확장하고, 확장된 영역에 가우시안 스무딩을 적용하여 재학습 데이터를 만든 후, 이를 학습하여 객체의 주의 영역이 확장되는 방법을 제안한다. 제안 방법은 단 한 번의 재학습만이 필요하며, 학습 후 지역화를 수행할 때는 Selective Search를 실행하지 않기 때문에 처리 시간이 대폭 줄어든다. 실험에서 기존 CAM의 히트맵들과 비교했을 때 핵심 특징 영역으로부터 주의 영역이 확장되고, 확장된 주의 영역 바운딩 박스에 대한 Ground Truth와의 IOU 계산에서 기존 CAM보다 약 58%가 개선되었다.

지하공동구의 CCTV 영상 기반 AI 연기 감지 모델 개발 (Development of AI Detection Model based on CCTV Image for Underground Utility Tunnel)

  • 김정수;박상미;홍창희;박승화;이재욱
    • 한국재난정보학회 논문집
    • /
    • 제18권2호
    • /
    • pp.364-373
    • /
    • 2022
  • 연구목적: 본 논문은 지하공동구의 초기 화재 감지를 위해 CCTV를 활용한 AI 연기 객체 감지 모델을 개발하는데 목적이 있다. 연구방법:비정형성이 높은 연기 객체의 감지 성능을 제고하기 위해 화재 감지에 특화된 딥러닝 객체 감지 모델을 지하공동구 연기 감지에 특화되도록 학습시켰고, 학습데이터셋의 정제 및 학습 중 Gradient explosion 완화 등 감지 성능 개선을 위한 방법들을 적용해 모델 결과를 비교하였다. 연구결과: 결과는 제안된 방법을 통해 모델 성능을 향상시켰고 mAP 등의 지표를 평가를 통해 개발 모델이 우수한 성능을 보유하고 있음을 보여준다. 최종 모델은 지하공동구 환경의 연기에 대해 미탐이 낮은 반면 오탐이 다수 발견되는 성능을 보였다. 결론: 본 논문의 모델은 지하공동구 관리시스템과 연계를 통해 보완함으로써 지하공동구의 연기 객체 감지에 활용할 수 있을 것으로 판단된다.

BMA와 동적 GTM을 이용한 움직이는 객체의 얼굴 영역 검출에 관한 연구 (A study on the face detection of moving object using BMA and dynamic GTM)

  • 장혜경;김영호;김대일;홍종선;강대성
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2003년도 하계학술대회 논문집
    • /
    • pp.114-117
    • /
    • 2003
  • 본 논문에서는 video stream내의 움직이는 객체 정보를 추정하고 동적 GTM(genetic tree-map) 알고리즘을 사용하여 얼굴 영역 검출 기법을 제안한다. 기존의 일반적인 객체 추정 기법은 클러스터(cluster)과정을 통하여 영상 정보를 분할하고 그 중 움직이는 객체 부분을 복원함으로서 추정하였다. 제안하는 기법은 BMA(block matching algorithm)[1] 알고리즘을 사용하여 video stream 에서 움직이는 객체 정보를 얻고 클러스터 알고리즘으로 PCA(principal component analysis)를 사용한다. PCA 기법은 입력 데이터에 관해 통계적 특성을 이용하여 주성분을 찾는다. 주축과 영역분할 알고리즘을 사용하여 데이터를 분할하고, 분할된 객체 정보를 사용하여 특정 객체만을 추정하는 것이 가능하다. 이렇게 추정된 객체를 얼굴영역의 feature에 대하여 신경망 학습인 동적 GTM 알고리즘을 사용하여 생성된 동적 GTM 맵의 정보에 따라 객체의 얼굴영역만을 추출해 낼 수 있다[2-6].

  • PDF

내용기반 영상검색을 위한 객체 및 비객체 영상의 분류 방법 (Image Classification Into Object/Non-object Classes for Content-based Image Retrieval)

  • 박소정;김성영;김민환
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2004년도 춘계학술발표대회논문집
    • /
    • pp.187-190
    • /
    • 2004
  • 본 논문에서는 영상을 자동적으로 객체와 비객체 영상으로 분류하는 방법을 제안한다. 객체 영상은 객체를 포함하는 영상이다. 객체는 영상의 중심 부근에 위치하고 주변 영역과는 상이한 칼라 분포를 가지는 영역들로 정의한다 영상 분류를 위해 객체의 특징에 기반하여 세 가지 기준을 정의한다. 첫 번째 기준인 중심 영역의 특이성은 중심영역과 주변 영역간의 칼라 분포의 차이를 통해 계산된다. 두 번째 기준은 영상 내의 특이 픽셀의 분산이다 특이 픽셀은 영상의 주변영역보다 중심 부근에서 더욱 빈번하게 나타나는 상호 인접한 픽셀들의 칼라 쌍에 의해 정의된다. 마지막 기준은 객체의 핵심 영역 경계에서의 경계 강도이다. 영상을 분류하기 위해서 신경 회로망 학습을 통해서 세 가지 기준들을 통합하도록 한다. 900개의 영상들에 대해 실헝한 결과 84.2%의 분류 정확도를 얻었다.

  • PDF

실시간 영상의 이동 객체 데이터 변화율을 이용한 에러 필터링 기술 (Error filtering technology using change rate of moving object data in real-time video)

  • 윤경호;김단희;이원석
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제59차 동계학술대회논문집 27권1호
    • /
    • pp.155-158
    • /
    • 2019
  • 최근 지능형 CCTV 관제 시스템에 대한 수요가 증가하고 있다. CCTV 영상 데이터의 양이 폭발적으로 증가하고 있어 이를 분석하기 위한 기술의 발전이 필요한 실정이다. 대부분의 지능형 CCTV 관제 시스템은 영상 속 객체를 찾고 이 객체의 메타데이터를 통해 지능형 관제 시스템을 수행한다. 하지만 영상 속 객체의 로그가 항상 정확하지 않다. 현재의 객체 인식 기술로는 CCTV 영상의 밝기, 해상도 조건에 따라 성능의 차이가 심하고, 영상의 프레임 대비 빠르게 움직인 CCTV 영상 속 모든 객체를 사람이 인식하는 정도로 인식하기 어렵다. 이러한 이동 객체의 크기, 위치를 분석한 메타데이터에는 에러가 포함되기 쉽다. 본 논문에서는 지능형 CCTV 관제 시스템에서 분석한 영상 속 객체의 프레임 메타데이터 에러를 학습기반 실시간 에러 필터링 알고리즘을 통해 개선하여 에러가 필터링된 데이터를 사용하는 지능형 관제 시스템의 정확도 향상에 기여 할 것을 기대한다.

  • PDF