• Title/Summary/Keyword: 영상 데이터 수집 시스템

검색결과 258건 처리시간 0.024초

자동 위성영상 수집을 통한 다종 위성영상의 시계열 데이터 생성 (Generation of Time-Series Data for Multisource Satellite Imagery through Automated Satellite Image Collection)

  • 남윤지;정성우;김태정;이수암
    • 대한원격탐사학회지
    • /
    • 제39권5_4호
    • /
    • pp.1085-1095
    • /
    • 2023
  • 위성데이터를 활용한 시계열 데이터는 다양한 분야에서 변화 탐지와 모니터링에 필수적인 자료로 활용되고 있다. 시계열 데이터 생성에 관한 선행 연구에서는 데이터의 통일성을 유지하기 위해 주로 단일 영상을 기반으로 분석하는 방식이 사용되었다. 또한 공간 및 시간 해상도 향상을 위해 다종 영상을 활용하는 연구도 활발하게 진행되고 있다. 시계열 데이터의 중요성은 계속해서 강조되지만, 데이터를 자동으로 수집하고 가공하여 연구에 활용하기 위한 산출물은 아직 제공되지 않고 있다. 따라서 이러한 한계를 극복하기 위해 본 논문에서는 사용자가 설정한 지역의 위성정보를 자동으로 수집하고 시계열 데이터를 생성하는 기능을 제안한다. 본 연구는 한 종류의 위성영상뿐만 아니라 동일 지역의 여러 위성데이터를 수집하고 이를 시계열 데이터로 변환하여 산출물을 생성하는 것을 목표로 하며, 이를 위한 위성영상 자동 수집 시스템을 개발하였다. 이 시스템을 활용하면 사용자는 관심 있는 지역을 설정함으로써 해당 지역에 맞게 데이터가 수집되고 Crop되어 즉시 활용할 수 있는 데이터를 생성할 수 있다. 실험 결과로는 웹 상에서 무료로 제공되는 Landsat-8/9 OLI 및 Sentinel-2 A/B 영상의 자동 획득이 가능함을 확인하였으며, 수동 입력을 통해 별도의 고해상도 위성영상도 함께 처리할 수 있었다. 고해상도 위성영상을 기준으로 자동 수집 및 편집된 영상 간의 정확도를 비교하고 육안 분석을 수행한 결과, 큰 오차 없이 결과물을 생성할 수 있음을 확인했다. 이후 시계열 데이터 간 상대적 위치 오차 최소화 및 좌표가 획득되어 있지 않은 데이터 처리 등에 대한 연구 및 다양한 위성영상을 활용한 시계열 데이터 생성 기능 추가가 계획되어 있다. 위성영상을 활용한 시계열 데이터의 생성 방법이 정립되고, 국토위성, 농림위성과 같은 국내 위성정보를 이용한 시계열 데이터가 효과적으로 활용될 경우, 국토·농림·산업·해양 분야에서 다양한 응용 가능성이 기대된다.

심박수 측정을 위한 안면 얼굴 영상 데이터 수집 시스템 설계 (Design of Facial Image Data Collection System for Heart Rate Measurement)

  • 장승주
    • 한국정보통신학회논문지
    • /
    • 제25권7호
    • /
    • pp.971-976
    • /
    • 2021
  • 본 논문은 심박수 측정을 위한 안면 얼굴 영상 데이터 수집 시스템을 설계한다. 본 논문의 설계 내용은 웹 카메라를 이용하여 사용자 얼굴 영상 정보들을 수집하고, 수집된 사용자 얼굴 영상 정보들을 이용하여 심박수를 측정하는 기능이다. 웹 카메라를 이용한 비접촉식 심박수 측정으로 인하여 오차가 발생할 가능성이 있다. 따라서 본 논문에서는 심박수 측정시 얼굴 영상 데이터 분류를 통해서 오차가 발생한 경우와 정상적인 경우를 구별하여 심박수 프로그램 오차 수정에 이용할 수 있도록 하고자 한다. 오차가 발생된 경우의 자료를 이용하여 오차를 줄이기 위한 목적으로 사용할 수 있도록 한다. 본 논문에서 제안하고 설계한 내용에 대해서 실험을 수행하였다. 실험 결과 본 논문에서 설계한 내용이 정상적으로 동작됨을 확인할 수 있었다.

웹기반 의료영상 표준 데이터셋 변환 및 관리 시스템 구축 (Construction of Web-Based Medical Imgage Standard Dataset Conversion and Management System)

  • 김지언;임동욱;유영주;노시형;이충섭;김태훈;정창원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 춘계학술발표대회
    • /
    • pp.282-284
    • /
    • 2021
  • 최근 4차 산업혁명으로 의료빅데이터 기반으로 한 AI 기술이 급속도로 발전하고 있다. 특히, 의료영상을 기반으로 병변을 탐색, 분활 및 정량화 그리고 자동진단 및 예측 관련된 기술이 AI 제품으로 출시되고 있다. AI 기술개발은 많은 학습데이터가 요구되며, 임상검증에 단일기관에서 2개 이상 기관의 검증이 요구되고 있다. 그러나 아직까지도 단일기관에서 학습용 데이터와 테스트, 검증용 데이터를 달리하여 기술개발에 활용하고 있다. 본 논문은 AI 기술개발에 필요한 영상데이터에 대한 표준화된 데이터셋 변환 및 관리를 위한 시스템에 대해 기술한다. 다기관 데이터를 수집하기 위해서는 각 기관의 의료영상 데이터 수집 및 저장하는 기준이 명확하지 않아 표준화 작업이 필요하다. 제안한 시스템은 기관 또는 다기관 연구 그룹의 의료영상데이터를 표준화하여 저장할 수 있을 뿐만 아니라 의료영상 뷰어 및 의료영상 리스트를 통해 연구자가 원하는 의료영상 데이터 셋을 검색하여 다양한 데이터셋으로 제공할 수 있기 때문에 수집 및 변환 그리고 관리까지 지원할 수 있는 시스템으로 영상기반의 머신러닝 연구에 활력을 불어넣을 수 있을 것으로 기대하고 있다.

베이지안 네트워크를 이용한 동영상 기반 라이프 로그의 분석 및 의미정보 추출 (Context Extraction and Analysis of Video Life Log Using Bayesian Network)

  • 정태민;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2010년도 한국컴퓨터종합학술대회논문집 Vol.37 No.1(C)
    • /
    • pp.414-418
    • /
    • 2010
  • 최근 라이프 로그의 수집과 관리에 관련된 연구가 많이 진행 중에 있다. 또 핸드폰 카메라, 디지털 카메라, 캠코더 등의 발전으로 자신의 일상생활을 비디오로 저장하고, 인터넷을 통해 공유하는 사람도 증가하고 있다. 비디오 데이터는 많은 정보를 포함하고 있는 라이프 로그의 한 예로. 동영상의 촬영 및 수집이 활발해짐에 따라 동영상의 메타정보를 생성하고, 이를 이용해 동영상 검색과 관리에 이용하려는 연구들이 진행 중이다. 본 논문에서는 라이프 로그를 수집하고 수집된 동영상과 라이프 로그를 이용하여 의미정보를 추출하는 시스템을 제안한다. 의미정보란 사용자의 행동을 나타내는 정보로써 컴퓨터 사용, 식사, 집안일, 이동, 외출, 독서, 휴식, 일, 기타로 9가지의 의미정보를 추출한다. 제안하는 방법은 사용자로부터 GPS, 가속도센서, 캠코더를 이용해 실제 데이터를 수집하고, 전처리 과정을 통하여 특징을 추출한다. 이때 추출될 특징은 위치정보와 사용자의 상태정보 그리고 영상처리릍 통한 RGB와 HSL 색공간의 요소와 MPEG-7의 EHD(Edge Histogram Descriptor). CLD(Color Layout Descriptor)이다. 추출된 특징으로부터 사람 행동과 같은 불안정한 상황에서 강점을 보이는 확률모델 네트워크인 베이지안 네트워크를 이용하여 의미정보를 추출한다. 제안하는 방법의 유용성을 보이기 위해 실제 데이터를 수집하고 추론하고 10-Fold Cross-validation을 이용하여 데이터를 검증한다.

  • PDF

인덱스를 이용한 동영상과 센싱 데이터 융합 방안 연구 (A Study of Fusing Scheme of Image and Sensing Data Using Index Method)

  • 현진규;이영수;김도현
    • 한국인터넷방송통신학회논문지
    • /
    • 제8권6호
    • /
    • pp.141-146
    • /
    • 2008
  • 최근 OGC(Open Geospatial Consortium)의 센서 웹에서는 센서 네트워크에서 수집된 센싱 데이터 및 영상 정보를 저장하고 관리하여 인터넷을 통해 사용자들에게 제공하는 연구가 진행되고 있다. 이와 같은 센싱 데이터 및 영상 정보를 실시간적으로 사용자에게 전달하기 위해서는 센싱 데이터를 비롯하여 오디오 및 비디오를 하나로 묶는 데이터 융합에 대한 연구가 필요하다. 이에 본 논문에서는 센서 네트워크에서 수집된 센싱 데이터와 영상을 인덱스를 이용하여 융합하는 방안을 제시한다. 이 방안에서는 동일한 노드에서 수집된 센싱 데이터와 영상의 식별 정보를 통합 인덱스에 함께 표시하고, 이를 통해 사용자가 질의할 경우 통합 인덱스를 참조하여 센싱 데이터와 영상을 동시에 제공한다. 제안된 방안을 검증하기 위해 센서 네트워크와 영상장치를 이용하여 실시간 멀티미디어 서비스 구조를 설계하고 인덱스 기반의 영상과 센서 데이터를 통합한 유비쿼터스 실시간 멀티미디어 시스템을 설계하고 구현한다. 이를 통하여 제안된 데이터 융합 방안이 영상 장치와 무선 센서 네트워크로부터 수집되는 영상과 센싱 데이터를 통합 인덱스를 이용하여 응용 서비스의 정보 요청에 따라 실시간 멀티미디어 서비스를 제공하는 것을 확인하였다.

  • PDF

비디오자료 구조화에 의한 동영상정보시스템 구축 (Construction of Video Information System by Video Structuring)

  • 구흥대;손덕재;유환희
    • 한국지형공간정보학회:학술대회논문집
    • /
    • 한국지형공간정보학회 2004년도 추계학술발표대회 논문집
    • /
    • pp.67-72
    • /
    • 2004
  • 21세기 지식정보화 사회를 당면하면서 정치, 경제, 문화 등의 환경이 다양한 형태로 급속히 변하고 있다. 다양한 형태의 정보를 적절한 기술을 이용하여 보다 효율적으로 수집하고 이를 신속하고 정확하게 분석하여 합리적인 의사결정을 하여야 하는데 사회변화의 속도가 급변함에 따라 당면한 문제들의 해결과 미래의 정보 수요에 부응하기 위한 핵심 기술로서 GIS는 정보화시대에서 무엇보다 정보시스템의 구축을 위한 계획 수립이 절실하게 되었다. 이러한 지리정보시스템에 동영상데이터의 연계기능을 더하여 영상을 기반으로 직접 사용자와 상호작용을 하며 데이터를 분석, 관리, 출력하는 동영상지리정보시스템(Video Geographic Information System: Video GIS)이 GIS 분야에 있어 새로운 연구 분야로 떠오르고 있다. 본 연구에서는 사회변화의 속도가 급변하는 도시기반시설물들을 효율적으로 개발, 관리하고 비행선촬영시스템을 통하여 취득된 동영상 자료를 객체추적 알고리즘에 의해 데이터의 양을 줄였다. 수치지도와 동영상데이터의 공간정보를 연계시켜 도시지역에 존재하는 각종 시설물을 관리할 수 있는 동영상 정보시스템을 Prototype으로 구축하여 그 가능성을 제시하였다.

  • PDF

원격조종헬기를 이용한 영상획득시스템 구축 (Development of Image Acquisition System based on a R/C helicopter)

  • 오태완;김성준;이임평;안흥규
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2009년도 춘계학술대회 논문집
    • /
    • pp.305-308
    • /
    • 2009
  • 최근 카메라와 같은 센서가 장착된 UAV(Unmanned Aerial Vehicle, 무인항공기)를 이용하는 분야는 방재, 농업, 군사 분야 등 매우 다양해지고 있다. 그러나 고품질의 영상데이터를 취득하기 위해서는 가벼우면서도 우수한 성능을 지닌 고가의 MEMS 센서 그리고 센서가 안정적으로 데이터를 획득할 수 있도록 안정적인 비행이 가능한 대형 UAV플랫폼으로 구성된 시스템이 필요하기 때문에 시스템 구축비용이 클 수밖에 없다. 본 연구에서는 저비용으로 영상 데이터를 취득할 수 있는 UAV시스템을 구축하여 취득된 영상데이터의 처리를 통해 얻어지는 영상의 품질을 살펴보고 그 효용성을 시험해보았다. 이를 위해서 고가인 UAV를 대신해 비교적 가격이 저렴한 R/C헬기(Remote Control, 원격조종 헬기)를 플랫폼으로 선정하고, 영상데이터를 수집하는 카메라센서를 탑재하였다. 그리고 탑재된 센서가 안정적으로 데이터를 취득할 수 있도록, 센서와 플랫폼 사이에 Gimbal을 장착하였다. 이렇게 구축된 시스템을 이용하여 시험비행을 해보았으며, 그 결과 플랫폼에 탑재된 센서로부터 비교적 안정적이고 양질의 이미지를 획득할 수 있었다. 본 연구에서 구축한 R/C 헬리콥터 시스템을 통하여 저비용/고효율의 영상데이터를 취득할 수 있음을 확인하였다. 구축된 시스템은 근접한 거리에서 대상물의 영상을 취득하기 때문에 고품질의 3차원 모델데이터 생성에 매우 도움이 될 것으로 생각한다.

  • PDF

멀티카메라 기반 동영상 요약 시스템 (Video Summarization System Based on Multi-Camera)

  • 임승빈;박한샘;민준기;황금성;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 가을 학술발표논문집 Vol.33 No.2 (B)
    • /
    • pp.44-48
    • /
    • 2006
  • 디지털 카메라 기술의 발전과 보급으로 공공건물의 보안 카메라부터 개인 휴대 단말기의 카메라까지 동영상 데이터를 수집할 수 있는 수단이 크게 늘었으며, 그 활용 또한 매우 일반화되었다. 동영상 데이터는 문서나 음성 등의 다른 데이터보다 훨씬 구체적이고 사실적인 정보를 포함하므로 과거의 기억을 정리하고 복원하기 위한 유용한 방법이 될 수 있다. 동영상 데이터의 증가와 함께 동영상 요약에 대한 연구가 최근에 활발히 진행되고 있는데, 이들 연구의 대부분은 하나의 동영상을 요약하고 분석하기 위한 것이다. 본 논문에서는 사무실에 여러 대의 카메라를 설치하여 데이터를 저장하며, 이렇게 수집된 동영상 데이터를 효과적으로 요약하고 검색하는 시스템을 구축한다. 동일한 이벤트를 여러 방향에서 바라보고, 그 상황을 가장 잘 설명한 카메라를 선택 할 수 있다는 점에서 멀티 카메라의 사용은 장점을 갖는다. 사전에 정의된 이벤트에 따라 전문가가 어노테이션을 부여하도록 하였으며, 전문가가 설정한 유틸리티에 따라 카메라 선택 및 요약이 이루어진다. 다양한 옵션에 따라 요약된 결과로 사용자 평가를 수행하였다.

  • PDF

다중객체추적 알고리즘을 활용한 드론 항공영상 기반 미시적 교통데이터 추출 (Microscopic Traffic Parameters Estimation from UAV Video Using Multiple Object Tracking of Deep Learning-based)

  • 정보경;서성혁;박부기;배상훈
    • 한국ITS학회 논문지
    • /
    • 제20권5호
    • /
    • pp.83-99
    • /
    • 2021
  • 4차 산업혁명의 도래와 함께 자율주행자동차의 주행관리 및 주행 전략과 관련된 연구들이 대두되고 있다. 이러한 연구를 위해서는 차량의 미시적 교통데이터의 확보가 필수적이나, 기존 교통정보 수집 방식은 개별차량의 주행행태를 수집할 수 없다. 본 연구에서는 미시적 교통정보를 수집 가능한 항공에서 내려다보는 관점의 교통정보 수집을 위해 드론 항공영상을 활용하였다. 관련 연구의 한계점을 극복하기 위하여 딥러닝 기반 다중객체추적 알고리즘과 영상정합을 활용하여 미시적 교통데이터를 추출하였다. 그 결과로 속도는 MAE 3.49km/h, RMSE 4.43km/h, MAPE 5.18km/h의 오차율과 교통량 Precision 98.07%, Recall 97.86%의 정확도를 획득하였다.

BLE 비콘을 활용한 영상 기반 비승인자 감지 시스템 (Image-based Unauthorised person detection system using BLE beacons)

  • 김형주;박찬;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 춘계학술발표대회
    • /
    • pp.470-473
    • /
    • 2021
  • 외부인들이 시설을 무단으로 이용하는 등의 범죄가 계속해서 발생하고 있다. 본 논문은 기존의 시설물에서 사용하고 있는 단순 인증 절차가 아닌 BLE 비콘과 영상데이터를 활용한 비승인자 감지 시스템이다. 이 시스템은 스마트폰 어플리케이션에서 BLE 비콘의 데이터를 받은 후 UUID 값과 RSSI 값을 서버로 전송한다. 이후 전송된 데이터들로 핑거프린팅 기반 RadioMap을 구성하고 RNN 기반 딥러닝 학습을 진행하여 사용자 위치 데이터를 도출한다. CCTV를 통해 수집된 영상데이터는 서버로 전송되며, YOLOv4를 이용하여 객체탐지를 위한 프로세스를 진행한 후 Person 클래스를 추출한다. 이후 승인된 사용자의 위치 데이터에 실시간 영상데이터를 더하여 인증 과정 절차가 진행되지 않은 비승인자들을 추적한다. 본 논문은 COVID-19로 인해 시설물 인증 절차에 사용이 증가하고 있는 QR코드를 이용해 인증 과정 절차의 진행 방식으로 시스템에 대한 확장성까지 기대할 수 있다.