• 제목/요약/키워드: 영상융합

검색결과 2,176건 처리시간 0.036초

형태학적 연산과 영역 융합을 이용한 영상 분할 (Image Segmentation Using Morphological Operation and Region Merging)

  • 강의성;이태형;고성제
    • 방송공학회논문지
    • /
    • 제2권2호
    • /
    • pp.156-169
    • /
    • 1997
  • 본 논문에서는 형태학적 연산(morphological operation)과 영역 융합(region merging) 방법을 이용한 영상 분할(image segmentation) 방법을 제안한다. 이를 위해서 형태학적 필터(morphological filter)를 이용하여 단순화한 영상에 대해, 다중크기 경사(multiscale gradient) 연산자를 이용하여 경사 영상(gradient image)을 얻는다. 경사 영상에 watershed 변환을 적용하면 분할 영상을 얻을 수 있는데, 이렇게 얻은 분할 영상은 대개 과분할(oversegmentation) 영상이므로, 분할 영역을 줄이기 위해 미소 영역(small region)이나 비슷한 특성을 갖는 인접 영역들은 서로 융합시킬 필요가 있다. 본 논문에서는 영역을 융합하기 위한 기준으로서 영역간의 평균 에지 강도와 각 영역의 화소값들에 비해 평균값을 사용하는데, 이러한 융합 기준은 contour following 과정에서 계산된다. 제안한 방법은 watershed 알고리듬, 영역에 기반한 영상 분할, 경계에 기반한 분할 방법을 결합한 방법으로서, 향상된 영상 분할이 가능함을 실험을 통하여 제시하였다.

  • PDF

고정 카메라 기반 비디오 모니터링 환경에서 딥러닝 객체 탐지기 결과를 활용한 실시간 전경 및 시설물 추출 (Real-Time Foreground and Facility Extraction with Deep Learning-based Object Detection Results under Static Camera-based Video Monitoring)

  • 이나연;손승욱;유승현;정용화;박대희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.711-714
    • /
    • 2021
  • 고정 카메라 환경에서 전경과 배경 간 픽셀값의 차를 이용하여 전경을 추출하기 위해서는 정확한 배경 영상이 필요하다. 또한, 프레임마다 변화하는 실제 배경과 맞추기 위해 배경 영상을 지속해서 갱신할 필요가 있다. 본 논문에서는 정확한 배경 영상을 생성하기 위해 실시간 처리가 가능한 딥러닝 기반 객체 탐지기의 결과를 입력받아 영상 처리에 활용함으로써 배경을 생성 및 지속적으로 갱신하고, 획득한 배경 정보를 이용해 전경을 추출하는 방법을 제안한다. 먼저, 고정 카메라에서 획득되는 비디오 데이터에 딥러닝 기반 객체 탐지기를 적용한 박스 단위 객체 탐지 결과를 지속적으로 입력받아 픽셀 단위의 배경 영상을 갱신하고 개선된 배경 영상을 도출한다. 이후, 획득한 배경 영상을 이용하여 더 정확한 전경 영상을 획득한다. 또한, 본 논문에서는 시설물에 가려진 객체를 더 정확히 탐지하기 위해서 전경 영상을 이용하여 시설물 영상을 추출하는 방법을 제안한다. 실제 돈사에 설치된 카메라로 부터 획득된 12시간 분량의 비디오를 이용하여 실험한 결과, 제안 방법을 이용한 전경과 시설물 추출이 효과적임을 확인하였다.

MODIS 및 Landsat 위성영상의 다중 해상도 자료 융합 기반 토지 피복 분류의 사례 연구 (A Case Study of Land-cover Classification Based on Multi-resolution Data Fusion of MODIS and Landsat Satellite Images)

  • 김예슬
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1035-1046
    • /
    • 2022
  • 이 연구에서는 토지 피복 분류를 위한 다중 해상도 자료 융합의 적용성을 평가하였다. 여기서 다중 해상도 자료 융합 모델로는 spatial time-series geostatistical deconvolution/fusion model (STGDFM)을 적용하였다. 연구 지역은 미국 Iowa 주의 일부 농경 지역으로 선정하였으며, 대상 지역의 규모를 고려해 다중 해상도 자료 융합의 입력 자료로 Moderate Resolution Imaging Spectroradiometer (MODIS) 및 Landsat 영상을 사용하였다. 이를 바탕으로 STGDFM 적용해 Landsat 영상이 결측된 시기에서 가상의 Landsat 영상을 생성하였다. 그리고 획득한 Landsat 영상과 함께 STGDFM의 융합 결과를 입력 자료로 사용해 토지 피복 분류를 수행하였다. 특히 다중 해상도 자료 융합의 적용성 평가를 위해 획득한 Landsat 영상만을 이용한 분류 결과와 Landsat 영상 및 융합 결과를 모두 이용한 분류 결과를 비교 평가하였다. 그 결과, Landsat 영상만을 이용한 분류 결과에서는 대상 지역의 주요 토지 피복인 옥수수와 콩 재배지에서 혼재 양상이 두드러지게 나타났다. 또한 건초 및 곡물 지역과 초지 지역 등 식생 피복 간의 혼재 양상도 큰 것으로 나타났다. 반면 Landsat 영상 및 융합 결과를 이용한 분류 결과에서는 옥수수와 콩 재배지의 혼재 양상과 식생 피복 간의 혼재 양상이 크게 완화되었다. 이러한 영향으로 Landsat 영상 및 융합 결과를 이용한 분류 결과에서 분류 정확도가 약 20%p 향상되었다. 이는 STGDFM을 통해 MODIS 영상이 갖는 시계열 분광 정보를 융합 결과에 반영하면서 Landsat 영상의 결측을 보완할 수 있었고, 이러한 시계열 분광 정보가 분류 과정에 결합되면서 오분류를 크게 줄일 수 있었던 것으로 판단된다. 본 연구 결과를 통해 토지 피복 분류에 다중 해상도 자료 융합이 효과적으로 적용될 수 있음을 확인하였다.

작물 모니터링을 위한 다중 센서 고해상도 위성영상의 시공간 융합 모델의 평가: Sentinel-2 및 RapidEye 영상 융합 실험 (Evaluation of Spatio-temporal Fusion Models of Multi-sensor High-resolution Satellite Images for Crop Monitoring: An Experiment on the Fusion of Sentinel-2 and RapidEye Images)

  • 박소연;김예슬;나상일;박노욱
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.807-821
    • /
    • 2020
  • 이 연구에서는 작물 모니터링을 위한 시계열 고해상도 영상 구축을 위해 기존 중저해상도 위성영상의 융합을 위해 개발된 대표적인 시공간 융합 모델의 적용성을 평가하였다. 특히 시공간 융합 모델의 원리를 고려하여 입력 영상 pair의 특성 차이에 따른 모델의 예측 성능을 비교하였다. 농경지에서 획득된 시계열 Sentinel-2 영상과 RapidEye 영상의 시공간 융합 실험을 통해 시공간 융합 모델의 예측 성능을 평가하였다. 시공간 융합 모델로는 Spatial and Temporal Adaptive Reflectance Fusion Model(STARFM), SParse-representation-based SpatioTemporal reflectance Fusion Model(SPSTFM)과 Flexible Spatiotemporal DAta Fusion(FSDAF) 모델을 적용하였다. 실험 결과, 세 시공간 융합 모델은 예측 오차와 공간 유사도 측면에서 서로 다른 예측 결과를 생성하였다. 그러나 모델 종류와 관계없이, 예측 시기와 영상 pair가 획득된 시기 사이의 시간 차이보다는 예측 시기의 저해상도 영상과 영상 pair의 상관성이 예측 능력 향상에 더 중요한 것으로 나타났다. 또한 작물 모니터링을 위해서는 오차 전파 문제를 완화할 수 있는 식생지수를 시공간 융합의 입력 자료로 사용해야 함을 확인하였다. 이러한 실험 결과는 작물 모니터링을 위한 시공간 융합에서 최적의 영상 pair 및 입력 자료 유형의 선택과 개선된 모델 개발의 기초정보로 활용될 수 있을 것으로 기대된다.

골반 T2강조 MR 영상과 확산강조 MR 영상 간 자동 융합 (Automatic fusion of T2-weighted image and diffusion weighted image in pelvis MRI)

  • 강혜원;정주립;홍헬렌;황성일
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(C)
    • /
    • pp.359-361
    • /
    • 2012
  • 본 논문은 T2강조 MR 영상과 확산강조 MR 영상의 강체 정합을 통해 크기, 위치, 회전 변환 왜곡을 보정하여 자궁내막암의 위치를 자동으로 찾는 방법을 제안한다. 영상해상도와 밝기값 분포가 서로 다른 두 영상간 정합의 정확성을 향상시키기 위해 잡음을 제거하고 두 영상의 밝기값 신호 분포의 유사성을 강화시킨다. 유사성이 향상된 두 영상의 크기, 위치, 회전 변환 왜곡을 보정하기 위해 정규화 상호정보를 최대화 하는 강체 정합을 반복적으로 수행한다. 정합된 영상에서 악성 종양을 쉽게 판별 할 수 있도록 현상확상계수지도를 컬러맵으로 생성하여 T2강조 MR 영상에서 얻은 종양의 후보군에 매핑하여 T2강조 MR 영상과 융합한다. 실험을 위하여 최적화 반복 과정에 따른 정규화 상호정보 수치 수렴 과정을 확인하고, 융합 후 종양 영역이 매핑되는 것을 육안평가를 통해 분석하였다. 제안방법을 통하여 T2강조 MR 영상과 확산강조 MR 영상을 융합함으로써 종양의 위치를 자동으로 파악하고 자궁내막암의 병기를 확정하는 용도로 활용할 수 있다.

뉴스 영상 생성 AI (News Image Generation AI)

  • 김선무;이승준;이정원;박지혜
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.955-957
    • /
    • 2022
  • 뉴스와 같은 정확한 정보를 제공하는 영상을 제작하는 과정은 많은 자원과 시간이 소요된다. 작성된 기사를 이용하더라도 영상 기반의 뉴스를 제작하는 것은 인적, 시간적인 자원의 투여가 불가피하다. 뉴스를 송출하기 위해 소요되는 시간을 줄이기에 현실적으로 어렵다. 따라서 우리는 이러한 문제를 해결하고 빠른 뉴스 영상 제공이 가능한 "뉴스 영상 생성 AI"를 개발하기로 하였다.

웹기반 의료영상 표준 데이터셋 변환 및 관리 시스템 구축 (Construction of Web-Based Medical Imgage Standard Dataset Conversion and Management System)

  • 김지언;임동욱;유영주;노시형;이충섭;김태훈;정창원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 춘계학술발표대회
    • /
    • pp.282-284
    • /
    • 2021
  • 최근 4차 산업혁명으로 의료빅데이터 기반으로 한 AI 기술이 급속도로 발전하고 있다. 특히, 의료영상을 기반으로 병변을 탐색, 분활 및 정량화 그리고 자동진단 및 예측 관련된 기술이 AI 제품으로 출시되고 있다. AI 기술개발은 많은 학습데이터가 요구되며, 임상검증에 단일기관에서 2개 이상 기관의 검증이 요구되고 있다. 그러나 아직까지도 단일기관에서 학습용 데이터와 테스트, 검증용 데이터를 달리하여 기술개발에 활용하고 있다. 본 논문은 AI 기술개발에 필요한 영상데이터에 대한 표준화된 데이터셋 변환 및 관리를 위한 시스템에 대해 기술한다. 다기관 데이터를 수집하기 위해서는 각 기관의 의료영상 데이터 수집 및 저장하는 기준이 명확하지 않아 표준화 작업이 필요하다. 제안한 시스템은 기관 또는 다기관 연구 그룹의 의료영상데이터를 표준화하여 저장할 수 있을 뿐만 아니라 의료영상 뷰어 및 의료영상 리스트를 통해 연구자가 원하는 의료영상 데이터 셋을 검색하여 다양한 데이터셋으로 제공할 수 있기 때문에 수집 및 변환 그리고 관리까지 지원할 수 있는 시스템으로 영상기반의 머신러닝 연구에 활력을 불어넣을 수 있을 것으로 기대하고 있다.

영상 데이터 감정 분류를 위한 멀티 모달 기반의 ViT 모델 (Multi-Modal based ViT Model for Video Data Emotion Classification)

  • 김예림;이동규;안서영;김지현
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제67차 동계학술대회논문집 31권1호
    • /
    • pp.9-12
    • /
    • 2023
  • 최근 영상 콘텐츠를 통해 영상물의 메시지뿐 아니라 메시지의 형식을 통해 전달된 감정이 시청하는 사람의 심리 상태에 영향을 주고 있다. 이에 따라, 영상 콘텐츠의 감정을 분류하는 연구가 활발히 진행되고 있고 본 논문에서는 대중적인 영상 스트리밍 플랫폼 중 하나인 유튜브 영상을 7가지의 감정 카테고리로 분류하는 여러 개의 영상 데이터 중 각 영상 데이터에서 오디오와 이미지 데이터를 각각 추출하여 학습에 이용하는 멀티 모달 방식 기반의 영상 감정 분류 모델을 제안한다. 사전 학습된 VGG(Visual Geometry Group)모델과 ViT(Vision Transformer) 모델을 오디오 분류 모델과 이미지 분류 모델에 이용하여 학습하고 본 논문에서 제안하는 병합 방법을 이용하여 병합 후 비교하였다. 본 논문에서는 기존 영상 데이터 감정 분류 방식과 다르게 영상 속에서 화자를 인식하지 않고 감정을 분류하여 최고 48%의 정확도를 얻었다.

  • PDF

ATSC2.0 8-VSB/MH 융합형 3DTV 서비스 커버리지 측정 및 분석기 개발에 관한 연구 (Development of ATSC2.0 8-VSB/MH Hybrid 3DTV Service Coverage Measuring and Analyzing Equipment)

  • 김성훈;정경훈
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 추계학술대회
    • /
    • pp.31-32
    • /
    • 2016
  • 본 논문은 ATSC2.0 기반 8-VSB/MH 융합형 3DTV (A/104 Part 5 Service Compatible 3DTV using Main and Mobile Hybrid Delivery, A/104 part 5) 방식의 서비스 커버리지 및 음영지역을 예측할 수 있는 측정 및 분석시스템 개발에 대하여 기술 한다. ATSC2.0 기반 고정/이동 방송시스템은 8-VSB 로 전송되는 고정 TV 방송서비스(좌영상 전송)와 ATSC-MH 로 전송되는 in-band 모바일 방송서비스(우영상 전송)를 모두 수신하여 좌/우영상의 재생 및 동기화를 통해 융합형 3D 영상을 복원하게 된다. 따라서 융합형 3DTV 수신기는 고정 및 모바일 방송신호를 모두 수신하여야 융합형 3D 영상복원을 할 수 있으며, 방송사 입장에서 서비스 커버리지 측정을 하기위해서는 8-VSB 및 ATSC-MH 신호의 수신여부를 모두 측정하여야 한다. 본 논문에서는 이와 같은 RF 수신전계강도 파라미터 및 GPS 정보등을 실시간으로 모니터링하여, 시스템 사용자에가 융합형 3DTV 서비스 커버리지 측정 및 분석을 통해 서비스를 위한 RF 방송망 셀 구성 및 음영지역을 예측할 수 있는 ATSC2.0 융합형 3DTV 서비스 커버리지 분석기 구현에 대한 내용을 기술한다.

  • PDF

최적의 GIS 기반자료 확보를 위한 위성영상 융합기법 연구 (The Study of Satellite Image Fusion for the Guarantee of Optimal GIS Basic Data)

  • 김수철;한정현
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2008년도 한국컴퓨터종합학술대회논문집 Vol.35 No.1 (B)
    • /
    • pp.256-260
    • /
    • 2008
  • 위성영상으로부터 적절한 정보를 추출하여 GIS(지리정보시스템)의 기반자료로 활용하기 위해서는 공간해상도와 분광해상도가 모두 우수한 양질의 고해상 영상을 확보해야 한다. 그러나 현재 운영되고 있는 위성영상은 이 두가지를 모두 만족시키지 못하므로 본 연구에서는 위성영상 융합기술을 사용할 것을 제안하였다. 그리하여 IHS PCA Wavelet 등의 융합기술들을 실험하였고 두가지 해상도를 모두 만족시키는 고해상 영상을 생산할 수 있음을 보였다. 또한, 실험 결과를 시각적 정량적으로 평가하여 IHS 융합기법이 가장 우수한 결과를 나타냄을 보였다.

  • PDF