• 제목/요약/키워드: Multi-Scene

검색결과 187건 처리시간 0.031초

A Survey of Fusion Techniques for Multi-spectral Images

  • Achalakul, Tiranee
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -2
    • /
    • pp.1244-1247
    • /
    • 2002
  • This paper discusses various algorithms to the fusion of multi-spectral image. These fusion techniques have a wide variety of applications that range from hospital pathology to battlefield management. Different algorithms in each fusion level, namely data, feature, and decision are compared. The PCT-Based algorithm, which has the characteristic of data compression, is described. The algorithm is experimented on a foliated aerial scene and the fusion result is presented.

  • PDF

Change Detection of Land-cover from Multi-temporal KOMPSAT-1 EOC Imageries

  • Ha, Sung-Ryong;Ahn, Byung-Woon;Park, Sang-Young
    • 대한원격탐사학회지
    • /
    • 제18권1호
    • /
    • pp.13-23
    • /
    • 2002
  • A radiometric correction method is developed to apply multi-temporal KOMPSAT-1 EOC satellite images for the detection of land-cover changes b\ulcorner recognizing changes in reflection pattern. Radiometric correction was carried out to eliminate the atmospheric effects that could interfere with the image properly of the satellite data acquired at different multi-times. Four invariant features of water, sand, paved road, and roofs of building are selected and a linear regression relationship among the control set images is used as a correction scheme. It is found that the utilization of panchromatic multi-temporal imagery requires the radiometric scene standardization process to correct radiometric errors that include atmospheric effects and digital image processing errors. Land-cover with specific change pattern such as paddy field is extracted by seasonal change recognition process.

다시점 카메라와 깊이 카메라를 이용한 고화질 깊이 맵 제작 기술 (High-resolution Depth Generation using Multi-view Camera and Time-of-Flight Depth Camera)

  • 강윤석;호요성
    • 대한전자공학회논문지SP
    • /
    • 제48권6호
    • /
    • pp.1-7
    • /
    • 2011
  • 깊이 카메라는 Time-of-Flight (TOF) 기술을 이용하여 장면 내 물체들의 거리 정보를 실시간으로 측정하며, 측정된 값은 깊이 영상으로 출력되어 양안식 혹은 다시점 카메라와 함께 장면의 고화질 깊이 맵을 제작하는 데 사용된다. 그러나 깊이 카메라 자체가 가지는 기술적 한계로 인하여 영상에 잡음과 왜곡이 포함되어 있기 때문에 이를 효과적으로 제거할 수 있는 기술이 요구되며, 처리 된 깊이 카메라 영상은 다양한 방법으로 색상 영상과 융합되어 장면의 깊이 정보를 생성할 수 있다. 본 논문에서는 이와 같이 다시 점 카메라와 깊이 카메라를 함께 사용하여 고화질의 깊이 정보를 획득할 수 있는 혼합형 카메라 방식의 원리와 깊이 영상 처리 및 깊이 생성을 위한 기술 동향을 설명한다.

실감방송을 위한 3차원 영상 촬영 및 3차원 콘텐츠 제작 기술 (3D Image Capturing and 3D Content Generation for Realistic Broadcasting)

  • 강윤석;호요성
    • 스마트미디어저널
    • /
    • 제1권1호
    • /
    • pp.10-16
    • /
    • 2012
  • 3차원 영상은 기본적으로 양안식 혹은 다시점 카메라를 이용해 촬영되며, 3차원 공간의 정보를 실시간적으로 얻기 위해 깊이 센서도 함께 사용된다. 이렇게 얻어진 영상은 잡음과 왜곡 제거, 깊이 생성, 중간 시점 합성 등의 3차원 영상처리 기술을 이용하여 3차원 입체영상 콘텐츠로 제작된다. 실감방송은 다양한 실감 콘텐츠를 이용하여 시청자가 마치 현장에 있는 것과 같은 생생함을 느끼게 해주는 차세대 방송이며, 3차원 입체영상 콘텐츠는 실감방송을 위한 가장 기본적인 미디어로 사용된다. 본 논문에서는 다양한 카메라 시스템을 이용하여 3차원 영상을 촬영하고 편집하여 실감방송을 위한 3차원 콘텐츠를 제작하는 연구의 국내외 기술동향을 살펴보고 주요 기술을 소개, 비교 및 분석한다.

  • PDF

다시점 카메라로부터 획득된 깊이 및 컬러 영상을 이용한 실내환경의 파노라믹 3D 복원 (Panoramic 3D Reconstruction of an Indoor Scene Using Depth and Color Images Acquired from A Multi-view Camera)

  • 김세환;우운택
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.24-32
    • /
    • 2006
  • 본 논문에서는 다시점 카메라부터 획득된 부분적인 3D 점군을 사용하여 실내환경의 3D 복원을 위한 새로운 방법을 제안한다. 지금까지 다양한 양안차 추정 알고리즘이 제안되었으며, 이는 활용 가능한 깊이 영상이 다양함을 의미한다. 따라서, 본 논문에서는 일반화된 다시점 카메라를 이용하여 실내환경을 복원하는 방법을 다룬다. 첫 번째, 3D 점군들의 시간적 특성을 기반으로 변화량이 큰 3D 점들을 제거하고, 공간적 특성을 기반으로 주변의 3D 점을 참조하여 빈 영역을 채움으로써 깊이 영상 정제 과정을 수행한다. 두 번째, 연속된 두 시점에서의 3D 점군을 동일한 영상 평면으로 투영하고, 수정된 KLT (Kanade-Lucas-Tomasi) 특징 추적기를 사용하여 대응점을 찾는다. 그리고 대응점 간의 거리 오차를 최소화함으로써 정밀한 정합을 수행한다. 마지막으로, 여러 시점에서 획득된 3D 점군과 한 쌍의 2D 영상을 동시에 이용하여 3D 점들의 위치를 세밀하게 조절함으로써 최종적인 3D 모델을 생성한다. 제안된 방법은 대응점을 2D 영상 평면에서 찾음으로써 계산의 복잡도를 줄였으며, 3D 데이터의 정밀도가 낮은 경우에도 효과적으로 동작한다. 또한, 다시점 카메라를 이용함으로써 수 시점에서의 깊이 영상과 컬러 영상만으로도 실내환경 3D 복원이 가능하다. 제안된 방법은 네비게이션 뿐만 아니라 상호작용을 위한 3D 모델 생성에 활용될 수 있다.

  • PDF

다시점 카메라와 깊이 카메라를 이용한 3차원 장면의 깊이 정보 생성 방법 (Depth Generation Method Using Multiple Color and Depth Cameras)

  • 강윤석;호요성
    • 대한전자공학회논문지SP
    • /
    • 제48권3호
    • /
    • pp.13-18
    • /
    • 2011
  • 본 논문에서는 다시점 색상 카메라와 다시점 깊이 카메라를 이용하여 촬영한 영상의 후처리 방법과 3차원 장면의 깊이 정보를 생성하는 방법을 제안한다. 깊이 카메라는 장면의 깊이 정보를 실시간으로 측정할 수 있는 장점이 있지만, 잡음과 왜곡이 발생하고 색상 영상과의 상관도도 떨어진다. 따라서 다시점 깊이 영상에 후처리 작업을 수행한 후, 이를 다시점 색상 영상과 조합하여 3차원 깊이 정보를 생성한다. 깊이 카메라로부터 얻은 각 시점에서의 초기 변이 정보를 기반으로 한 스테레오 정합의 결과는 기존 방법의 결과 보다 우수한 성능을 나타내었음을 볼 수 있었다.

야지환경에서 연합형 필터 기반의 다중센서 융합을 이용한 무인지상로봇 위치추정 (UGV Localization using Multi-sensor Fusion based on Federated Filter in Outdoor Environments)

  • 최지훈;박용운;주상현;심성대;민지홍
    • 한국군사과학기술학회지
    • /
    • 제15권5호
    • /
    • pp.557-564
    • /
    • 2012
  • This paper presents UGV localization using multi-sensor fusion based on federated filter in outdoor environments. The conventional GPS/INS integrated system does not guarantee the robustness of localization because GPS is vulnerable to external disturbances. In many environments, however, vision system is very efficient because there are many features compared to the open space and these features can provide much information for UGV localization. Thus, this paper uses the scene matching and pose estimation based vision navigation, magnetic compass and odometer to cope with the GPS-denied environments. NR-mode federated filter is used for system safety. The experiment results with a predefined path demonstrate enhancement of the robustness and accuracy of localization in outdoor environments.

깊이정보 카메라 및 다시점 영상으로부터의 다중깊이맵 융합기법 (Multi-Depth Map Fusion Technique from Depth Camera and Multi-View Images)

  • 엄기문;안충현;이수인;김강연;이관행
    • 방송공학회논문지
    • /
    • 제9권3호
    • /
    • pp.185-195
    • /
    • 2004
  • 본 논문에서는 정확한 3차원 장면복원을 위한 다중깊이맵 융합기법을 제안한다. 제안한 기법은 수동적 3차원 정보획득 방법인 스테레오 정합기법과 능동적 3차원 정보획득 방법인 깊이정보 카메라로부터 얻어진 다중깊이맵을 융합한다. 전통적인 두 개의 스테레오 영상 간에 변이정보를 추정하는 전통적 스테레오 정합기법은 차폐 영역과 텍스쳐가 적은 영역에서 변이 오차를 많이 발생한다. 또한 깊이정보 카메라를 이용한 깊이맵은 비교적 정확한 깊이정보를 얻을 수 있으나, 잡음이 많이 포함되며, 측정 가능한 깊이의 범위가 제한되어 있다. 따라서 본 논문에서는 이러한 두 기법의 단점을 극복하고, 상호 보완하기 위하여 이 두 기법에 의해 얻어진다. 중깊이맵의 변이 또는 깊이값을 적절하게 선택하기 위한 깊이맵 융합기법을 제안한다. 3-시점 영상으로부터 가운데 시점을 기준으로 좌우 영상에 대해 두 개의 변이맵들을 각각 얻으며, 가운데 시점 카메라에 설치된 깊이정보 카메라로부터 얻어진 깊이맵들 간에 위치와 깊이값을 일치시키기 위한 전처리를 행한 다음. 각 화소 위치의 텍스쳐 정보, 깊이맵 분포 등에 기반하여 적절한 깊이값을 선택한다. 제안한 기법의 컴퓨터 모의실험 결과. 일부 배경 영역에서 깊이맵의 정확도가 개선됨을 볼 수 있었다.

Application of Virtual Studio Technology and Digital Human Monocular Motion Capture Technology -Based on <Beast Town> as an Example-

  • YuanZi Sang;KiHong Kim;JuneSok Lee;JiChu Tang;GaoHe Zhang;ZhengRan Liu;QianRu Liu;ShiJie Sun;YuTing Wang;KaiXing Wang
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.106-123
    • /
    • 2024
  • This article takes the talk show "Beast Town" as an example to introduce the overall technical solution, technical difficulties and countermeasures for the combination of cartoon virtual characters and virtual studio technology, providing reference and experience for the multi-scenario application of digital humans. Compared with the live broadcast that combines reality and reality, we have further upgraded our virtual production technology and digital human-driven technology, adopted industry-leading real-time virtual production technology and monocular camera driving technology, and launched a virtual cartoon character talk show - "Beast Town" to achieve real Perfectly combined with virtuality, it further enhances program immersion and audio-visual experience, and expands infinite boundaries for virtual manufacturing. In the talk show, motion capture shooting technology is used for final picture synthesis. The virtual scene needs to present dynamic effects, and at the same time realize the driving of the digital human and the movement with the push, pull and pan of the overall picture. This puts forward very high requirements for multi-party data synchronization, real-time driving of digital people, and synthetic picture rendering. We focus on issues such as virtual and real data docking and monocular camera motion capture effects. We combine camera outward tracking, multi-scene picture perspective, multi-machine rendering and other solutions to effectively solve picture linkage and rendering quality problems in a deeply immersive space environment. , presenting users with visual effects of linkage between digital people and live guests.

연성해석과 통계적 방법을 이용한 Butterfly Valve의 다목적 최적설계 (Multi-objective Optimization of Butterfly Valve using the Coupled-Field Analysis and the Statistical Method)

  • 배인환;이동화;박영철
    • 한국정밀공학회지
    • /
    • 제21권9호
    • /
    • pp.127-134
    • /
    • 2004
  • It is difficult to have the existing structural optimization using coupled field analysis from CFD to structure analysis when the structure is influenced of fluid. Therefore in an initial model of this study after doing parameter design from the background of shape using topology optimization. and it is making a approximation formula using by the CFD-structure coupled-field analysis and design of experiment. By using this result, we conducted multi-objective optimization. We could confirm efficiency of stochastic method applicable in the scene of structure reliability design to be needed multi-objective optimization. And we presented a way of design that could overcome the time and space restriction in structural design such as the butterfly valve with the less experiment.