• 제목/요약/키워드: 영상취득시스템

검색결과 384건 처리시간 0.03초

위성영상-AI 기반 재난모니터링과 실현 가능한 준실시간 통합 재난모니터링 시스템 (Satellite Imagery and AI-based Disaster Monitoring and Establishing a Feasible Integrated Near Real-Time Disaster Monitoring System)

  • 김준우;김덕진
    • 한국지리정보학회지
    • /
    • 제23권3호
    • /
    • pp.236-251
    • /
    • 2020
  • 원격탐사 기술의 발전과 활용 가능한 위성의 증가로 재난의 예방, 대비, 대응, 복구 등에서 위성영상자료의 활용에 대한 요구가 높아지고 있다. 위성영상은 센서의 특성에 따라 적용 가능한 재난의 모니터링을 위해 활용되고 있지만, 통합된 모니터링 시스템의 구축을 위해 기존 시스템을 평가하고 이를 바탕으로 실현 가능한 준실시간 통합 재난모니터링 시스템 구축을 위한 구체적인 청사진을 제시한 연구는 국내뿐만 아니라 국외에서도 그 사례가 확인되지 않는다. 본 연구는 원격탐사를 통한 재난모니터링의 개념화를 통해 준실시간 재난모니터링 시스템 구축의 장애요인들을 확인하고, 실제로 활용 가능한 영상자료와 실현 가능한 재난모니터링 시스템을 제시하였다. 원격탐사를 통한 준실시간 재난모니터링은 다양한 요인들에 의해 통합시스템의 구축이 제한되며, 시스템 구축을 위한 기술적, 경제적 요인과 함께 위성영상 확보의 적시성을 가로막는 정책적 요인과 일관성 있는 정보생산을 위한 영상분석에 대한 제도적 요인에도 크게 영향을 받는 것으로 나타났다. 이러한 제약들은 AWS(Amazon Web Services)와 같은 위성영상의 저장, 취득, 분석에 활용되는 컴퓨팅 플랫폼과 같은 통합서버의 확보와, 재난의 종류와 상황에 부합하는 활용 가능 위성의 궤도분석을 가능하게 하는 분석도구의 개발에 의해 극복될 수 있을 것으로 판단된다. 본 연구는 이러한 제도적, 경제적, 기술적, 정책적 제약들을 극복할 수 있는 위성영상 기반 통합 재난모니터링 시스템 구축을 위한 프레임워크를 제시하였으며, 재난의 종류와 단계에 따른 AI 기반 위성영상 분석 방법론을 제안하였다. 이러한 결과는 원격탐사와 재난관리 분야에 학술적 시사점을 제공하고, 재난모니터링 분야에 실무적 기여를 할 것으로 판단된다.

무인항공기 기반 해양 감시를 위한 멀티센서 데이터를 활용한 선박 위치 결정 (Ship Positioning Using Multi-Sensory Data for a UAV Based Marine Surveillance)

  • 유형석;아나 클림코브스카;최경아;이임평
    • 대한원격탐사학회지
    • /
    • 제34권2_2호
    • /
    • pp.393-406
    • /
    • 2018
  • 매년 해양에서 많은 사고가 빈번하게 발생하고 불법 조업이 성행하고 있으며, 그 규모와 빈도도 증가하고 있다. 이로 인한 인명이나 재산 피해를 경감시키기 위하여 신속한 원격 감시 수단이 필요하다. 이러한 감시 수단의 효과적인 플랫폼으로써 무인항공기가 주목을 받고 있다. 해양 사고나 불법 조업이 이루어지는 상황에서 주된 감시 대상은 선박이 될 것이다. 이에 본 연구에서는 무인항공기 기반 선박 감시 체계를 제안하고, 무인항공기 센서 데이터를 이용하여 선박 위치를 결정하는 방법을 제시하고자 한다. 제안된 방법에서 먼저 사전에 수행된 시스템 캘리브레이션 결과와 영상 취득 시각에 취득된GPS/INS데이터를 이용해서 개별 영상을 취득한 위치와 자세를 결정한다. 또한, 개별 영상으로부터 선박을 자동 또는 반자동으로 탐지한 후 탐지된 지점들의 절대좌표를 결정한다. 제안된 방법을 200 m, 350 m, 500 m 고도에서 취득된 실측 데이터에 적용한 결과로 각각 4.068 m, 8.916 m, 13.374 m의 정확도로 선박 위치를 결정할 수 있었다. 수로측량의 최소기준에 따라 항해에 덜 중요한 해안선 및 지형 위치 항목에서 200 m 데이터의 선박위치결정 결과는 특등급, 350 m와 500 m 데이터의 결과는 1a등급을 만족한다. 제안된 방법은 다양한 목적의 해양 감시 또는 측량에 효과적으로 활용될 수 있을 것으로 판단한다.

DUPIC 시설의 지능형 핵물질 감시시스템 (Intelligent Nuclear Material Surveillance System for DUPIC Facility)

  • 송대용;이상윤;하장호;고원일;김호동
    • 한국방사성폐기물학회:학술대회논문집
    • /
    • 한국방사성폐기물학회 2003년도 가을 학술논문집
    • /
    • pp.406-410
    • /
    • 2003
  • DUPIC 핵연료 제조시설은 PWR 사용후핵연료를 건식 재가공하여 CANDU 형 핵연료를 제조하는 시설이다. DUPIC 시설과 같이 사용후핵연료를 취급하는 시설에서 핵물질 안전조치를 위해 적용되는 연속 무인 감시시스템은 많은 양의 영상 및 방사선 감시 데이터를 생산하게 되며, 이러한 자료로부터 핵물질의 전용 여부를 분석하기 위해서는 상당한 시간과 인력이 소요된다. 따라서 핵물질 취급시설에서의 감시시스템은 시설로부터 취득한 감시 데이터를 자동적으로 검토ㆍ분석하여 비정상적인 상황을 추출해 낼 수 있는 기능이 요구된다. 이 연구에서는 이러한 관점에서 영상 및 방사선 데이터를 자동 분석할 수 있는 신경망을 이용한 지능형 핵물질 감시시스템을 개발하였다. DUPIC 시설의 안전조치를 위해 개발한 동 핵물질 감시시스템은 수차례의 성능 시험을 거쳐, 현재 시설에 설치되어 정상적으로 운영 중에 있다.

  • PDF

비디오 센서 기반의 실시간 돈사 온도제어 시스템 (A Real-Time Pigsty Thermal Control System Based on a Video Sensor)

  • 최동휘;김혜련;김희곤;정용화;박대희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 춘계학술발표대회
    • /
    • pp.223-225
    • /
    • 2013
  • 어미로부터 생후 21일령 또는 28일령에 젖을 때는 어린 자돈들은 면역력이 약하여 통상 폐사율이 30~40%까지 치솟는 등 자돈 관리가 국내 양돈 농가의 가장 큰 문제 중 하나로 인식되고 있다. 본 논문에서는 이러한 양돈 농가의 문제를 해결하기 위하여 자돈사에 비디오 카메라를 설치하고 획득된 영상 정보를 이용하여 자돈들을 관리하는 시스템을 제안한다. 특히 제안된 시스템은 실시간으로 유입되는 영상 스트림 데이터로부터 움직임 여부를 신속히 판단하고, 움직임이 없는 경우(수면 또는 휴식)에 바닥면적 중 자돈들이 차지하지 않은 부분의 면적을 추출하여 수면 또는 휴식 중 자돈들의 밀집 여부를 판단한다. 즉, 카메라를 이용하여 과도하게 밀집된 경우 온도를 올려주고 반대의 경우 온도를 낮춰주는 온도제어 시스템을 설계할 수 있다. 실제, 경상남도 함양군의 한 돼지 농장에 비디오 센서 기반의 실험 환경을 구축하고 자돈사 감시 데이터 셋을 취득하였고, 이를 이용하여 제안된 자돈사 관리 시스템의 프로토타입을 개발하였다.

몰입형 비디오 품질 평가를 위한 슈퍼 메트릭 (Super Metric: Quality Assessment Methods for Immersive Video)

  • 정종범;김승환;이순빈;김인애;류은석
    • 인터넷정보학회논문지
    • /
    • 제22권2호
    • /
    • pp.51-58
    • /
    • 2021
  • 가상 현실 공간에서 실사 영상 및 그래픽 환경에 대해 사용자 움직임에 대응하는 영상을 제공하는 three degrees of freedom plus(3DoF+) 및 six degrees of freedom(6DoF) 시스템은 실감형 미디어를 제공하기 위해 서로 다른 위치에서 동시에 취득된 다수의 초고화질 및 고해상도의 영상 집합 전송을 요구한다. 다수의 영상들을 사용해 사용자 시점 영상을 생성할 때, 기존의 영상 압축 코덱에서 발생했던 것과는 다른 형태의 품질 저하가 발생하여 기존의 영상 품질 평가 기법들은 3DoF+ 및 6DoF 시스템 평가에 적합하지 않다. 본 논문은 3DoF+ 환경에서 합성된 사용자 시점 영상에 대한 다양한 객관적 영상 품질 평가 기법에 대한 성능 평가를 소개한다. 또한, 기존의 객관적 영상 품질 평가 기법을 조합하여 주관적인 평가와 상관관계를 더욱 높인 평가 기법인 슈퍼 메트릭(super metric)을 제시한다. 3DoF+ 몰입형 비디오 평가 시 제안한 기법을 사용하였을 때, 주관적 평가 점수와의 상관관계에서 peak signal-to-noise ratio(PSNR) 대비 0.4513의 상승이 있었음을 확인하였다.

영상정보를 활용한 사면 붕괴 토사량 산정 기법 (Soil Volume Computation Technique at Slope Failure Using Photogrammetric Information)

  • 타망 비벡;임현택;김기환;장석현;김용성
    • 한국지반환경공학회 논문집
    • /
    • 제19권12호
    • /
    • pp.65-72
    • /
    • 2018
  • 최근 무인항공시스템의 활용으로 농작물 작황조사, 접근위험지역의 시설물 현황조사, 재해재난 모니터링 및 3차원 모델링 등 그 활용 분야가 확대되고 있는 실정이며, 건설, 인프라, 영상, 측량, 농업, 감시, 수송 등 실제로 여러 분야로 활용사례가 계속 늘어나고 있다. 특히, 산사태와 같은 사면 붕괴 발생 시 무인항공시스템 적용에 대한 시도가 많아지고 있으며, 무인항공시스템은 3차원 비행이 가능하기 때문에 접근하기 어려운 공간 정보를 확인할 수 있다. 하지만, 이러한 장점에도 불구하고 사면 붕괴 발생시 무인항공시스템 활용은 아직도 제한적인 실정이다. 본 연구에서는 이러한 한계성 극복을 위하여 사면 붕괴로 인한 토사량을 무인항공시스템의 영상정보로 산정하는 기법을 고찰하였다. 본 연구를 통해 산악지역 등 접근이 어려운 지역에서 사면 붕괴 발생시 복구공사에 필요한 토사량의 정보를 취득하는데 무인항공시스템 영상정보를 활용할 수 있을 것으로 판단된다.

다중 가상 검지선을 이용한 실시간 교통정보 수집 (Real-Time Traffic Information Collection Using Multiple Virtual Detection Lines)

  • 김의철;김수형;이귀상;양형정
    • 정보처리학회논문지B
    • /
    • 제15B권6호
    • /
    • pp.543-552
    • /
    • 2008
  • ATIS(Advanced Traveler Information System)는 교통 상황이나 주행 정보 등을 실시간으로 제공하여 이용자의 편익을 도모하는 시스템이다. ATIS를 위해 영상 이미지를 분석하여 교통정보를 수집 수집하는 방식은 크게 영역에 루프 검지기를 설정하여 측정하는 방식과, 영상 분석을 통해 차량을 검출하고 추적하는 방식으로 나뉜다. 본 연구에서는 차선마다 가상 검지기를 설치하는 방식을 기초로, 영상 분석 방법의 차량 위치 추적 방식을 응용하여 교통정보를 측정하는 시스템을 제안한다. 이때 가상 검지기 방식의 단점을 보완하기 위해 차선마다 다중의 가상 검지선을 설정하여, 검지 영역 내에 여러 대의 차량이 진입하거나 차량의 차선 변경 시에도 효과적으로 교통정보를 추출할 수 있게 하였고, 영상분석 방식의 문제점인 검지영역의 크기 증가에 따른 차량 추출 시간의 증가를 해결하기 위해 검지 영역 내에서 대표 픽셀을 추출하여 교통정보를 측정하였다. CCTV를 이용하여 취득한 영상에 제안하는 시스템을 이용하여 차량의 평균 속도와 차선별 교통량 측정한 결과 실제 교통량대비 평균 92.32%의 차량 검지율를 보였다.

KOMPSAT-3·3A 위성영상 글로벌 융합활용을 위한 다중센서 위성영상과의 정밀영상정합 (Fine-image Registration between Multi-sensor Satellite Images for Global Fusion Application of KOMPSAT-3·3A Imagery)

  • 김태헌;윤예린;이창희;한유경
    • 대한원격탐사학회지
    • /
    • 제38권6_4호
    • /
    • pp.1901-1910
    • /
    • 2022
  • 뉴스페이스(new space) 시대가 도래함에 따라 국내 KOMPSAT-3·3A 위성영상과 해외 위성영상과의 글로벌 융합활용 기술확보가 대두되고 있다. 일반적으로 다중센서 위성영상은 취득 당시의 다양한 외부요소로 인해 영상 간 상대적인 기하오차(relative geometric error)가 발생하며, 이로 인해 위성영상 산출물의 품질이 저하된다. 따라서 본 연구에서는 KOMPSAT-3·3A 위성영상과 해외 위성영상 간 존재하는 상대기하오차를 최소화하기 위한 정밀영상정합(fine-image registration) 방법론을 제안한다. KOMPSAT-3·3A 위성영상과 해외 위성영상 간 중첩영역을 선정한 후 두 영상 간 공간해상도를 통일한다. 이어서, 특징 및 영역 기반 정합기법을 결합한 형태의 하이브리드(hybrid) 정합기법을 이용하여 정합점(tie-point)을 추출한다. 그리고 피라미드(pyramid) 영상 기반의 반복적 정합을 수행하여 정밀영상정합을 수행한다. KOMPSAT-3·3A 위성영상과 Sentinel-2A 및 PlanetScope 영상을 이용하여 제안기법의 정확도 및 성능을 평가하였다. 그 결과, Sentienl-2A 영상 기준 평균 Root Mean Square Error (RMSE) 1.2 pixels, PlanetScope 영상 기준 평균 RMSE 3.59 pixels의 정확도가 도출되었다. 이를 통해 제안기법을 이용하여 효과적으로 정밀영상정합을 수행할 수 있을 것으로 사료된다.

식물조직배양 자동화를 위한 영상처리장치 개발 (Development of an Imaging Processing System for Automation of a Callus Inoculation)

  • 정석현;노대현;송재관
    • 생물환경조절학회지
    • /
    • 제18권2호
    • /
    • pp.95-100
    • /
    • 2009
  • 본 연구는 식물체 캘러스의 접종공정의 자동화기술 개발하기 위하여 캘러스를 인식하는 영상처리 시스템과 캘러스를 새로운 배지로 접종하는 접종용 엔드이펙터, 매니퓰레이터 및 자동화 제어장치를 개발하고 그 성능을 평가하기 위하여 수행되었으며, 본 보에서는 영상처리 시스템 및 매니퓰레이터에 대한 연구결과를 소개한다. 캘러스의 인식을 위하여 영상처리부와 조명부로 구성한 영상처리 장치를 개발하였다. 영상처리부는 CCD 카메라와 PC로 구성하였으며, 조명부는 55W/3 파장 램프를 전면과 측면에 각각 설치하여 항상 일정한 조도가 유지되도록 하였으며, R, G, B 각 프레임별 화소특성을 검토한 결과, 캘러스와 배양용기는 B 프레임에서 분리가 가능하였다. 또한 캘러스 분할을 위한 알고리즘의 개발결과 캘러스가 원형인 경우는 도심을 기준으로 절단하고 장변형인 경우는 길이방향의 수직으로 절단하도록 하였으며, 장변형의 경우 위치하고 있는 방향을 인식하여 $0{\sim}180^{\circ}$ 범위내의 결과 값을 로봇측에 전송하여 엔드이펙터의 방향을 결정하도록 하였다. 영상취득부터 캘러스의 분할위치 결정까지 1사이클에 소요되는 시간은 디스플레이 1.5초, 영상처리 0.7초 등으로 총2.2초였으며, 개발된 인식 알고리즘의 정확도는 용기인식의 경우 전체 30개중에서 28개가 정확히 인식되어 성공률은 93%가 되었다.

시각적 기법에 의한 DMC/UlatraCamXp/ADS80 디지털 항공영상의 공간해상도 특성 분석 (Analysis of Spatial Resolution Characteristics for DMC/UlatraCamXp/ADS80 Digital Aerial Image Based on Visual Method)

  • 이태윤;이재원
    • 대한공간정보학회지
    • /
    • 제24권1호
    • /
    • pp.61-68
    • /
    • 2016
  • 최근 디지털 항공영상은 우수한 촬영기하와 높은 공간 및 방사해상도로 인하여 대축척 지도제작에 보편적으로 활용되고 있다. 하지만 제작된 결과물에 대한 높은 정밀도와 신뢰도의 확보를 위해서는 촬영된 영상의 품질검증 작업이 선행되어야 한다. 국외에서는 영구적인 항공카메라 검정용 테스트베드를 구축하여 영상취득 시스템을 검증하는 실험적 연구가 활발히 진행되고 있다. 반면 국내에서는 아직 관련 분야에 관한 연구와 실험이 미흡하여 영상의 품질검증을 위한 실용적인 방안의 제시가 절실한 실정이다. 따라서 본 연구에서는 휴대용 Siemens star 타겟을 이용하여 시각적인 방법으로 손쉽게 영상의 공간해상도를 측정하는 방법을 제시하고자 하였다. 본 연구에 이용된 영상은 면형 방식의 DMC, UltraCamXp와 선형방식의 ADS80 등 세 종류의 카메라로 취득하였다. 촬영된 영상에서 Siemens star 타겟을 추출하여 시각적인 방법으로 영상의 해상도를 이론적인 GSD(Ground Sample Distance)와 비교하였다. 아울러 Siemens star 타겟이 촬영된 영상의 위치와 비행방향 및 비행직각 방향에 따라 공간해상도의 변화를 비교 분석하였다. 본 연구의 결과, 카메라별 촬영된 영상의 이론적 GSD는 약 6~9cm인 반면, 시각적 해상도는 이론적인 GSD에 비하여 약 1.2~1.3배 정도 크게 측정됨을 알 수 있었다.