• 제목/요약/키워드: 자동 촬영

검색결과 483건 처리시간 0.023초

Incremental Bundle Adjustment와 스테레오 영상 정합 기법을 적용한 무인항공기 영상에서의 포인트 클라우드 생성방안 연구 (A Study on Point Cloud Generation Method from UAV Image Using Incremental Bundle Adjustment and Stereo Image Matching Technique)

  • 이수암;황윤혁;김수현
    • 대한원격탐사학회지
    • /
    • 제34권6_1호
    • /
    • pp.941-951
    • /
    • 2018
  • 3차원 도시모델의 생성을 위한 무인항공기의 활용 및 수요가 증가하고 있다. 본 연구에서는 3D 도시 모델 생성의 선행 연구로 불완전한 자세에서 취득된 무인항공기의 위치/자세 정보를 보정하여 포인트 클라우드를 추출하는 연구를 수행했다. 포인트 클라우드의 추출을 위해서는 정밀한 센서모델의 수립이 선행되어야 한다. 이에 무인항공기의 위치/자세 보정을 위해 무인항공기 영상에 기록된 위치정보의 연속성을 이용하여 회전각을 산출하고, 이를 초기값으로 하는 사진 측량 기반의 IBA(Incremental Bundle Adjustment)를 적용하여 보정된 위치/자세 정보를 획득했다. 센서모델 정보를 통해 스테레오 페어 구성이 가능한 영상들을 자동으로 선별하고 페어간의 타이포인트 정보를 이용해 원본 영상을 에피폴라 영상으로 변환했으며, 변환된 에피폴라 스테레오 영상은 고속, 고정밀의 영상 정합기법인 MDR (Multi-Dimensional Relaxation)의 적용을 통해 포인트 클라우드를 추출했다. 각 페어에서 추출된 개별 포인트 클라우드는 집성 과정을 거쳐 하나의 포인트 클라우드 혹은 DSM의 최종 산출물 형태로 출력된다. 실험은 DJI社 무인항공기에서 취득된 연직 및 경사 촬영 영상을 사용했으며, 실험을 통해 건물의 난간, 벽면 등이 선명하게 표현되는 포인트 클라우드 추출이 가능함을 확인하였다. 향후에는 추출된 포인트 클라우드를 이용한 3차원 건물 추출 연구를 통해 3차원 도시모델의 생성을 위한 영상 처리기술을 계속 발전시켜나가야 할 것이다.

딥러닝을 이용한 판류형 간판의 인식 (Recognition of Flat Type Signboard using Deep Learning)

  • 권상일;김의명
    • 한국측량학회지
    • /
    • 제37권4호
    • /
    • pp.219-231
    • /
    • 2019
  • 간판은 유형마다 간판의 규격이 정해져 있으나 실제 설치된 간판은 형태와 크기가 일정하지 않다. 또한, 간판은 간판 내부의 색상에 대한 규정이 정해져 있지 않기 때문에 다양한 색상을 갖고 있다. 간판을 인식하기 위한 방법은 도로표지판과 차량번호판을 인식하는 유사한 방법으로 생각할 수 있으나 간판의 특성으로 인해 도로표지판과 차량번호판과 유사한 방법으로 간판을 인식할 수 없는 한계점이 있다. 이에 본 연구에서는 딥러닝 기반의 Faster R-CNN 알고리즘을 이용하여 불법 및 노후 간판의 주요 대상이 되는 판류형 간판을 인식하고 간판의 영역을 자동으로 추출하는 방법론을 제안하였다. 스마트폰 카메라를 이용하여 촬영한 간판 영상을 통해 판류형 간판을 인식하는 과정은 2가지의 순서로 나뉜다. 먼저, 다양한 유형의 간판 영상에서 판류형 간판을 인식하기 위해 딥러닝을 이용하여 간판의 유형을 인식하였으며 그 결과는 약 71%의 정확도로 나타났다. 다음으로 판류형 간판의 경계영역을 인식하기 위해 간판 영역 인식 알고리즘을 적용하였을 때 85%의 정확도로 판류형 간판의 경계영역을 인식하였다.

네트워크 RTK 무인기의 항공삼각측량 정확도 평가 (Accuracy Assessment of Aerial Triangulation of Network RTK UAV)

  • 한수희;홍창기
    • 한국측량학회지
    • /
    • 제38권6호
    • /
    • pp.663-670
    • /
    • 2020
  • 본 연구에서는 건물이 혼재한 준 도심 지역에서 발생할 수 있는 재난/재해를 가정하여 네트워크 RTK (Real Time Kinematic) 측위가 가능한 무인기를 이용한 항공삼각측량의 정확도를 평가하였다. 검사점 측위의 신뢰성을 확보하기 위해 검사점을 건물의 옥상에 설치하여 네 시간 이상의 GNSS (Global Navigation Satellite System) 정적 측위를 수행하였다. 객관적인 정확도 평가를 위해 소프트웨어에서 자동으로 인식 가능한 코드화된 대공 타겟을 사용하였다. 무인기에서는 네트워크 RTK 측위의 일종인 VRS (Virtual Reference Station) 방식을 이용하여 영상 취득 당시 카메라의 3차원 좌표를 측정하였고, IMU (Inertial Measurement Unit)와 짐벌 회전각 측정을 통해 카메라의 3축 회전각을 측정하였다. Agisoft Metashape를 이용하여 내·외부 표정요소를 추정·갱신한 결과, 항공삼각측량의 3차원 RMSE (Root Mean Square Error)는 영상의 중복도와 촬영 각도의 조합에 따라 크게는 0.153 m에서 작게는 0.102 m로 나타났다. 더욱 높은 수준의 항공삼각측량 정확도를 확보하기 위해서는 연직 영상의 중복도를 높이는 것이 일반적이나 경사 영상을 추가하는 것이 효과적인 것으로 나타났다. 따라서 대응 단계의 재난/재해 현장에서 긴급하게 무인기 매핑을 수행할 경우 중복도를 높이기 보다는 경사 영상도 함께 취득할 필요가 있다.

딥러닝 기반 스타일 변환 기법을 활용한 인공 달 지형 영상 데이터 생성 방안에 관한 연구 (A Study for Generation of Artificial Lunar Topography Image Dataset Using a Deep Learning Based Style Transfer Technique)

  • 나종호;이수득;신휴성
    • 터널과지하공간
    • /
    • 제32권2호
    • /
    • pp.131-143
    • /
    • 2022
  • 달 현지 탐사를 위해 무인 이동체가 활용되고 있으며, 달 지상 관심 지역의 지형 특성을 정확하게 파악하여 실시간으로 정보화 하는 작업이 요구된다. 하지만, 정확도 높은 지형/지물 객체 인식 및 영역 분할을 위해서는 다양한 배경조건의 영상 학습데이터가 필요하며 이러한 학습데이터를 구축하는 과정은 많은 인력과 시간이 요구된다. 특히 대상이 쉽게 접근하기 힘든 달이기에 실제 현지 영상의 확보 또한 한계가 있어, 사실에 기반하지만 유사도 높은 영상 데이터를 인위적으로 생성시킬 필요성이 대두된다. 본 연구에서는 가용한 중국의 달 탐사 Yutu 무인 이동체 및 미국의 Apollo 유인 착륙선에서 촬영한 영상을 통해 위치정보 기반 스타일 변환 기법(Style Transfer) 모델을 적용하여 실제 달 표면과 유사한 합성 영상을 인위적으로 생성하였다. 여기서, 유사 목적으로 활용될 수 있는 두 개의 공개 알고리즘(DPST, WCT2)를 구현하여 적용해 보았으며, 적용 결과를 시간적, 시각적 측면으로 비교하여 성능을 평가하였다. 평가 결과, 실험 이미지의 형태 정보를 보존하면서 시각적으로도 매우 사실적인 영상을 생성할 수 있음을 확인하였다. 향후 본 실험의 결과를 바탕으로 생성된 영상 데이터를 지형객체 자동 분류 및 인식을 위한 인공지능 학습용 영상 데이터로 추가 학습된다면 실제 달 표면 영상에서도 강인한 객체 인식 모델 구현이 가능할 것이라 판단된다.

서리 탐지를 위한 '무인 다중센서 기반의 관측 시스템' 고안, 설치 및 시험 운영 (Unmanned Multi-Sensor based Observation System for Frost Detection - Design, Installation and Test Operation)

  • 김수현;이승재;손승원;조성식;조은수;김규랑
    • 한국농림기상학회지
    • /
    • 제24권2호
    • /
    • pp.95-114
    • /
    • 2022
  • 본 연구는 MFOS라 명명한 다중센서 기반의 서리 관측 시스템의 고안 및 설치를 통해 서리의 자동 관측 가능성 및 실제 서리 발생 시 관련 영상 자료를 제시하였다. MFOS의 구성은 RGB 카메라, 열화상 카메라, LWS이며, 각 장비들은 서로 상보적인 역할을 수행한다. 서리 발생 전 장비의 시험 운영을 통해, 무강수 사례인 경우 높은 상대습도를 유지할 때 LWS의 전압값은 증가하였고, 특히 주변의 농수로로 인해 높은 상대습도가 유지되는 가평군 관측지에서 크게 증가하였다. RGB 카메라 이미지에서는 일출 전과 일몰 후에 LWS와 지표면을 관측할 수 없었으나 나머지 시간에 대해서는 가능하였다. 강수 사례의 경우 강수 기간 동안 LWS의 전압값은 급격하게 증가하였고, 강수 종료 후 감소하였다. RGB 카메라 이미지는 강수 현상과 상관없이 LWS와 지표면을 관측하였다. 반면, 열화상 카메라의 경우 강수 현상으로 인해 이미지 촬영은 되었지만 LWS와 지표면을 관측하지 못했다. 실제 서리가 발생한 사례의 자료를 통해, LWS의 전압값이 서리에 해당하는 범위보다 높더라도 RGB 카메라가 서리의 지표면 및 장비 표면 발생을 관측할 수 있는 것으로 나타났다.

저가형 UAV 사진측량의 정밀도 및 정확도 분석 실험에 관한 연구 (An Experimental Study on Assessing Precision and Accuracy of Low-cost UAV-based Photogrammetry)

  • 윤성현;이흥규;최웅규;정우철;조언정
    • 한국측량학회지
    • /
    • 제40권3호
    • /
    • pp.207-215
    • /
    • 2022
  • 저가형 UAV기반 사진측량의 정밀도와 정확도를 평가하기 위한 실험을 수행하였다. 높은 정확도의 지상기준점과 검사점의 3차원 좌표를 추정하고자 GNSS정지관측과 기선해석, 망조정을 수행하였고, 신뢰수준 95%에 대하여 정확도가 1cm 이내인 좌표를 확보하였다. 실험 대상지에 대한 항공 사진은 DJI Phantom 4와 이에 탑재된 FC330 카메라로 7회 반복 촬영하였고, 이를 두 가지 소프트웨어로 처리하였다. 10개 검사점에 대한 소프트웨어 자동 추출좌표와 GNSS 추정해를 비교하여 표준편차 및 RMSE를 분석하였다. 두 소프트웨어 처리 결과, 95% 신뢰수준에 대해 표준편차는 남북, 동서, 높이 방향 각각 약 1cm, 2cm, 4cm 이내, RMSE는 수평과 높이 각각 9cm, 8cm 이내였으며, 표준편차가 RMSE에 비해 현저히 작았다. 두 소프트웨어 처리 결과의 통계적 차이를 확인하고자 F-ratio 검정을 수행하였다. 정밀도에 대해서는 모든 좌표 성분에 대해 한쪽꼬리 검정의 귀무가설이 기각되었고, RMSE에 대해서는 수평에 대한 것만 기각되었다. 이에 따라, 동일한 사진 자료를 처리하더라도 소프트웨어에 따라 그 결과에 통계적 차이가 있을 수 있음에 유의할 필요가 있다.

전동 이동 보조기기 주행 안전성 향상을 위한 AI기반 객체 인식 모델의 구현 (Implementation of AI-based Object Recognition Model for Improving Driving Safety of Electric Mobility Aids)

  • 우제승;홍순기;박준모
    • 융합신호처리학회논문지
    • /
    • 제23권3호
    • /
    • pp.166-172
    • /
    • 2022
  • 본 연구에서는 전동 이동 보조기기를 이용하는 교통약자의 이동을 저해하거나 불편을 초래하는 횡단 보도, 측구, 맨홀, 점자블록, 부분 경사로, 임시안전 방호벽, 계단, 경사형 연석과 같은 주행 장애물 객체를 촬영한 뒤 객체를 분류하고 이를 자동 인식하는 최적의 AI 모델을 개발하여 주행 중인 전동 이동 보조기기의 전방에 나타난 장애물을 효율적으로 판단할 수 있는 알고리즘을 구현하고자 한다. 객체 검출을 높은 확률로 AI 학습이 될 수 있도록 데이터 셋 구축 시 라벨링 형태를 폴리곤 형태로 라벨링 하며, 폴리곤 형태로 라벨링 된 객체를 탐지할 수 있는 Detectron2 프레임워크를 활용하여 Mask R-CNN 모델을 활용하여 개발을 진행하였다. 영상 획득은 일반인과 교통약자의 두 개 그룹으로 구분하여 진행하였고 테스트베드 2개 지역에서 얻어진 영상정보를 확보하였다. Mask R-CNN 학습 결과 파라미터 설정은 IMAGES_PER _BATCH : 2, BASE_LEARNING_RATE 0.001, MAX_ITERATION : 10,000으로 학습한 모델이 68.532로 가장 높은 성능을 보인 것이 확인되어 주행 위험, 장애 요소를 빠르고 정확하게 사용자가 인지할 수 있도록 하는 딥러닝 모델을 구축이 가능한 것을 확인할 수 있었다.

CT 영상 기반 근감소증 진단을 위한 AI 영상분할 모델 개발 및 검증 (Development and Validation of AI Image Segmentation Model for CT Image-Based Sarcopenia Diagnosis)

  • 이충섭;임동욱;노시형;김태훈;고유선;김경원;정창원
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제12권3호
    • /
    • pp.119-126
    • /
    • 2023
  • 근감소증은 국내는 2021년 질병으로 분류되었을 만큼 잘 알려져 있지 않지만 고령화사회에 진입한 선진국에서는 사회적 문제로 인식하고 있다. 근감소증 진단은 유럽노인근감소증 진단그룹(EWGSOP)과 아시아근감소증진단그룹(AWGS)에서 제시하는 국제표준지침을 따른다. 최근 진단방법으로 절대적 근육량 이외에 신체수행평가로 보행속도 측정과 일어서기 검사 등을 통하여 근육 기능을 함께 측정할 것을 권고하고 있다. 근육량을 측정하기 위한 대표적인 방법으로 DEXA를 이용한 체성분 분석 방법이 임상에서 정식으로 실시하고 있다. 또한 MRI 또는 CT의 복부 영상을 이용하여 근육량을 측정하는 다양한 연구가 활발하게 진행되고 있다. 따라서 본 논문에서는 근감소증 진단을 위해서 비교적 짧은 촬영시간을 갖는 CT의 복부영상기반으로 AI 영상 분할 모델을 개발하고 다기관 검증한 내용을 기술한다. 우리는 CT 영상 중에 요추의 L3 영역을 분류하여 피하지방, 내장지방, 근육을 자동으로 분할할 수 있는 인공지능 모델을 U-Net 모델을 사용하여 개발하였다. 또한 모델의 성능평가를 위해서 분할영역의 IOU(Intersection over Union)를 계산하여 내부검증을 진행했으며, 타 병원의 데이터를 활용하여 동일한 IOU 방법으로 외부검증을 진행한 결과를 보인다. 검증 결과를 토대로 문제점과 해결방안에 대해서 검증하고 보완하고자 했다.

Reproducing Summarized Video Contents based on Camera Framing and Focus

  • Hyung Lee;E-Jung Choi
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권10호
    • /
    • pp.85-92
    • /
    • 2023
  • 본 논문에서는 장편의 드라마나 영화에서 스토리 기반의 축약된 요약본을 자동으로 제작하기 위한 방법을 제안한다. 촬영 단계에서 황금분할을 고려한 공간감 있는 프레임 구성과 내용 전달 차원에서 시청자들의 시선을 집중시키기 위한 관심 대상에 대한 초점을 기본 전제로 했다. 이에 적정한 프레임들을 추출하기 위한 방법을 고려하기 위해서 기존의 씬(scene) 및 숏(shot) 검출에 대한 연구, 초점과 관련된 블러 정도를 파악하는 연구들에서 활용되었던 요소 기술들을 활용했다. 유튜브에서 공유되는 영상을 프레임 단위로 변환한 후 프레임별로 특징을 추출하기 위한 영역으로 프레임 전체 영역과 3개의 부분 영역으로 구분했고, 해당 영역별로 각각 라플라시안 연산자와 FFT를 적용한 결과들을 비교하여 상대적으로 일관성 있고 강건한 FFT를 선택했다. 프레임 전체에 대한 계산값과 3개 영역의 계산값들을 비교하여 상대적으로 선명한 영역을 확인할 수 있는 조건을 기반으로 대상 프레임을 선별했다. 이렇게 선별된 결과를 토대로 숏 내에서 프레임들의 연속성을 확보하기 위해 오프라인 변화점 탐지기법을 적용한 결과와 접목시켜 최종 프레임들을 추출했고, 이를 기반으로 편집결정리스트를 구성하였으며, F1-스코어 75.9%를 갖는 62.77%로 축약된 요약본을 제작했다.

객체 인식 모델과 지면 투영기법을 활용한 영상 내 다중 객체의 위치 보정 알고리즘 구현 (Implementation of AI-based Object Recognition Model for Improving Driving Safety of Electric Mobility Aids)

  • 박동석;홍순기;박준모
    • 융합신호처리학회논문지
    • /
    • 제24권2호
    • /
    • pp.119-125
    • /
    • 2023
  • 본 연구에서는 전동 이동 보조기를 이용하는 교통약자의 이동을 저해하거나 불편을 초래하는 횡단 보도, 측구, 맨홀, 점자블록, 부분 경사로, 임시안전 방호벽, 계단, 경사형 연석과 같은 주행 장애물 객체를 촬영한 뒤 객체를 분류하고 이를 자동 인식하는 최적의 AI 모델을 개발하여 주행 중인 전동 이동 보조기 전방에 나타난 장애물을 효율적으로 판단할 수 있는 알고리즘을 구현하고자 한다. 객체 검출을 높은 확률로 AI 학습이 될 수 있도록 데이터 셋 구축 시 라벨링 형태를 폴리곤 형태로 라벨링 하며, 폴리곤 형태로 라벨링 된 객체를 탐지할 수 있는 Detectron2 프레임워크를 활용하여 Mask R-CNN 모델을 활용하여 개발을 진행하였다. 영상 획득은 일반인과 교통약자의 두 개 그룹으로 구분하여 진행하였고 테스트베드 2개 지역에서 얻어진 영상정보를 확보하였다. Mask R-CNN 학습 결과 파라미터 설정은 IMAGES_PER _BATCH : 2, BASE_LEARNING_RATE 0.001, MAX_ITERATION : 10,000으로 학습한 모델이 68.532로 가장 높은 성능을 보인 것이 확인되어 주행 위험, 장애 요소를 빠르고 정확하게 사용자가 인지할 수 있도록 하는 딥러닝 모델을 구축이 가능한 것을 확인할 수 있었다.