• 제목/요약/키워드: multi-camera

검색결과 879건 처리시간 0.023초

가상 시점 영상 합성을 위한 방향성 고려 홀 채움 방법 (Consider the directional hole filling method for virtual view point synthesis)

  • 문지훈;호요성
    • 스마트미디어저널
    • /
    • 제3권4호
    • /
    • pp.28-34
    • /
    • 2014
  • 최근 깊이 영상 기반 합성 방법을 이용한 가상시점 합성 방법이 3차원 영상의 적용 분야에서 많이 사용되고 있다. 가상 시점 영상은 기존에 알고 있는 영상과 이와 관련된 깊이 영상 정보를 이용하여 카메라로 촬영 하지 않은 가상시점 영상을 생성하게 된다. 하지만 깊이 영상 기반 합성 방법을 이용해 가상시점 영상을 생성할 경우, 깊이 영상을 기반으로 합성하기 때문에 이미지 워핑 과정에서 폐색 영역이 발생하게 된다. 이러한 폐색 영역을 제거하기 위해 지금까지 다양한 홀 채움 방법들이 제안되어 왔다. 동일 색상영역 검색, 수평방향 보간 방법, 수평방향 보외 방법 그리고 다양한 인페인팅 방법들이 홀 채움 방법들로 제안되었다. 하지만 이러한 방법들을 사용하여 텍스쳐 영역의 홀을 제거할 경우 다른 종류의 간섭 현상이 발생하는 문제가 있다. 본 논문에서는 이러한 문제점을 해결하기 위해 다양한 방향성을 고려한 홀 채움 방법을 새롭게 제안하여 확장된 홀 영역을 효율적으로 채우는 방법을 설명한다. 제안된 방법들은 복잡한 텍스쳐들이 있는 배경부분에서 발생하는 홀 영역을 채울 때 성능 효율성을 나타낸다. 방향성을 고려한 홀 채움 방법은 픽셀 단위로 홀 채움 영역 값을 측정하는 과정에서 홀 영역의 주변 텍스쳐 픽셀 값들을 사용하게 된다. 제안한 방법을 이용해 가상시점 영상 합성 결과 발생하는 홀 영역을 기존의 홀 채움 방법보다 보다 더 효율적으로 채울 수 있는 것을 확인할 수 있었다.

구름에 의한 지표 일사량의 증가 (The effects of clouds on enhancing surface solar irradiance)

  • 정연진;조희구;김준;김영준;김윤미
    • 대기
    • /
    • 제21권2호
    • /
    • pp.131-142
    • /
    • 2011
  • Spectral solar irradiances were observed using a visible and UV Multi-Filter Rotating Shadowband Radiometer on the rooftop of the Science Building at Yonsei University, Seoul ($37.57^{\circ}N$, $126.98^{\circ}E$, 86 m) during one year period in 2006. 1-min measurements of global(total) and diffuse solar irradiances over the solar zenith angle (SZA) ranges from $20^{\circ}$ to $70^{\circ}$ were used to examine the effects of clouds and total optical depth (TOD) on enhancing four solar irradiance components (broadband 395-955 nm, UV channel 304.5 nm, visible channel 495.2 nm, and infrared channel 869.2 nm) together with the sky camera images for the assessment of cloud conditions at the time of each measurement. The obtained clear-sky irradiance measurements were used for empirical model of clear-sky irradiance with the cosine of the solar zenith angle (SZA) as an independent variable. These developed models produce continuous estimates of global and diffuse solar irradiances for clear sky. Then, the clear-sky irradiances are used to estimate the effects of clouds and TOD on the enhancement of surface solar irradiance as a difference between the measured and the estimated clear-sky values. It was found that the enhancements occur at TODs less than 1.0 (i.e. transmissivity greater than 37%) when solar disk was not obscured or obscured by optically thin clouds. Although the TOD is less than 1.0, the probability of the occurrence for the enhancements shows 50~65% depending on four different solar radiation components with the low UV irradiance. The cumulus types such as stratoculmus and altoculumus were found to produce localized enhancement of broadband global solar irradiance of up to 36.0% at TOD of 0.43 under overcast skies (cloud cover 90%) when direct solar beam was unobstructed through the broken clouds. However, those same type clouds were found to attenuate up to 80% of the incoming global solar irradiance at TOD of about 7.0. The maximum global UV enhancement was only 3.8% which is much lower than those of other three solar components because of the light scattering efficiency of cloud drops. It was shown that the most of the enhancements occurred under cloud cover from 40 to 90%. The broadband global enhancement greater than 20% occurred for SZAs ranging from 28 to $62^{\circ}$. The broadband diffuse irradiance has been increased up to 467.8% (TOD 0.34) by clouds. In the case of channel 869.0 nm, the maximum diffuse enhancement was 609.5%. Thus, it is required to measure irradiance for various cloud conditions in order to obtain climatological values, to trace the differences among cloud types, and to eventually estimate the influence on solar irradiance by cloud characteristics.

MIRIS 우주관측카메라의 기계부 개발 (DEVELOPMENT OF THE MECHANICAL STRUCTURE OF THE MIRIS SOC)

  • 문봉곤;정웅섭;차상목;이창희;박성준;이대희;육인수;박영식;박장현;남욱원;;;양순철;이선희;이승우;한원용
    • 천문학논총
    • /
    • 제24권1호
    • /
    • pp.53-64
    • /
    • 2009
  • MIRIS is the main payload of the STSAT-3 (Science and Technology Satellite 3) and the first infrared space telescope for astronomical observation in Korea. MIRIS space observation camera (SOC) covers the observation wavelength from $0.9{\mu}m$ to $2.0{\mu}m$ with a wide field of view $3.67^{\circ}\times3.67^{\circ}$. The PICNIC HgCdTe detector in a cold box is cooled down below 100K by a micro Stirling cooler of which cooling capacity is 220mW at 77K. MIRIS SOC adopts passive cooling technique to chill the telescope below 200 K by pointing to the deep space (3K). The cooling mechanism employs a radiator, a Winston cone baffle, a thermal shield, MLI (Multi Layer Insulation) of 30 layers, and GFRP (Glass Fiber Reinforced Plastic) pipe support in the system. Optomechanical analysis was made in order to estimate and compensate possible stresses from the thermal contraction of mounting parts at cryogenic temperatures. Finite Element Analysis (FEA) of mechanical structure was also conducted to ensure safety and stability in launching environments and in orbit. MIRIS SOC will mainly perform Galactic plane survey with narrow band filters (Pa $\alpha$ and Pa $\alpha$ continuum) and CIB (Cosmic Infrared Background) observation with wide band filters (I and H) driven by a cryogenic stepping motor.

고정식 표면영상유속계 (FSIV)를 이용한 실시간 하천 유량 산정 (Real-time Discharge Measurement of the River Using Fixed-type Surface Image Velocimetry)

  • 김서준;류권규;윤병만
    • 한국수자원학회논문집
    • /
    • 제44권5호
    • /
    • pp.377-388
    • /
    • 2011
  • 표면영상유속계(SIV)는 영상 분석 기법을 이용하여 하천의 표면유속을 측정하고, 이를 토대로 유량을 산정하는 시스템이다. 본 연구에서는 고정식 표면영상유속계(FSIV) 시스템을 달천 수전교에 설치하여 실시간으로 연속적인 유량 측정을 실시하였다. 수전교에 적용된 FSIV의 하드웨어 시스템은 영상 획득을 위한 2대의 디지털 카메라와 컴퓨터, 그리고 수위 측정을 위한 초음파 수위계로 구성된다. 이 현장 장비들에서 획득된 실시간 영상과 수위 자료는 무선인터넷을 이용하여 실시간으로 홈페이지에 전송되며, 표면영상유속분석 소프트웨어를 이용하여 유량을 산정한다. FSIV에 의한 유량산정 결과는 직상류의 괴산댐 방류량과 FSIV와 동일한 지점에 설치된 Acoustic Doppler Velocity Meter (ADVM)를 설치한 후 유속지수법으로 산정된 유량과 비교하여 검토하였다. 댐 방류량과 비교한 결과 30$m^3/s$ 이상의 유량에서는 대부분 5~10%의 오차를 보였으며, ADVM을 이용하여 측정된 유량과 비교한 결과는 약 200$m^3/s$ 이상의 유량에서는 오차가 약 5 % 이내로 확인되었다. FSIV의 설치 경비와 운용에 드는 비용과 인력을 감안한다면, FSIV는 실시간으로 유량을 관측할 수 있는 좋은 대안이 될 것으로 판단된다.

영상의 물리적 센서모델을 이용한 RPC 모델 추출 (RPC Model Generation from the Physical Sensor Model)

  • 김혜진;이재빈;김용일
    • 대한공간정보학회지
    • /
    • 제11권4호
    • /
    • pp.21-27
    • /
    • 2003
  • IKONOS 2호와 QuickBird 2호의 센서 모델로서 제공되는 RPC(rational polynomial coefficients) 모델은 물리적 센서 모델의 대체 모델로 다양한 센서에 적용 가능하다. 고해상도 위성들이 상용화되면서 각기 센서들의 복잡성과 보안성 문제로 인해 물리적 센서모델을 대체할 수 있는 센서 모델로서 RPC의 활용도가 높아지고 있다. 대표적인 상업용 고해상도 위성인 IKONOS 2호는 물리적 센서 모델을 공개하지 않고 각영상에 대한 RPC만을 제공하며 QuckBird 영상은 센서의 기하 정보와 함께 RPC를 제공한다. 이에 본 연구에서는 물리적 센서모델로부터 RPC를 추출하는 원천 기술을 확보하고 RPC의 물리적 센서모델에 대한대체 적합성을 평가해보고자 하였다. 이를 위해 공간해상도가 높은 항공사진과 국내 위성인 KOMPSAT 1호의 기하 모델로부터 분모식과 차수를 달리하는 RPC모델들을 추출하는 실험을 수행하였다. 최소제곱법을 통해 RPC 초기값을 구하고 Levenberg Marquardt 기법을 이용하여 반복 조정한 RPC를 물리적 센서 모델과 비교 평가하여 최적의 RPC를 결정하였다. 그 결과 항공사진은 분모식이 동일한 1차 RPC가 KOMPSAT 1호는 분모식이 상이한 3차 RPC가 가장 정확도가 높았으며 각 오차(RMSE)는 $2{\times}10^{-5}$ 화소 이하로 나타났다.

  • PDF

융합현실 기반의 가상건설 시뮬레이션을 위한 마커 추적 방식에 관한 연구 (A Study on the Marker Tracking for Virtual Construction Simulation based Mixed-Reality)

  • 백지웅
    • 한국산학기술학회논문지
    • /
    • 제19권12호
    • /
    • pp.660-668
    • /
    • 2018
  • 본 연구는 융합현실(MR; Mixed Reality) 장비를 이용하여 가상건설 시뮬레이션을 수행하기 위한 마커 운용방법을 알아보는 것을 목적으로 한다. 부수적으로 BIM 데이터를 이용하여 형상 데이터를 추출하고 이를 MR장비를 통하여 재현하는 프로세스를 검토하도록 한다. 건축물은 규모가 매우 큰 오브젝트이기 때문에, 축척의 오차에 따른 길이의 오차가 매우 크다. 축척은 MR 장비의 카메라가 마커를 인식하는 방법에 영향을 받는다. 따라서 마커를 설치하고 운용하는 방법에 따라 오브젝트의 오차가 달라질 수 있다. 실험결과에 따르면 MR 장비를 이용한 가상 건설 시뮬레이션 운용 시 마커 추적 방식에 따른 가상 오브젝트의 길이의 오차율은 약 0.47% 정도로 나타났으며, 이를 바탕으로 시뮬레이션을 위한 요구 오차한계에 따른 설치 마커 간의 거리를 구할 수 있었다. 또한 MR 장비의 마커 인식거리를 고려하여 마커간의 최소 설치 간격은 5M이상으로 설정할 필요가 있으며 이때 약 23mm의 길이 오차가 발생함을 고려해야한다. 가상 오브젝트를 20mm 이하의 오차에서 정밀하게 재현하고 하고자 할 때는 해당 오브젝트를 기준으로 반경 5M내에 해당 오브젝트를 위한 별도의 마커를 설치할 필요가 있는 것으로 나타났다. 본 연구를 바탕으로 가상 건설 시뮬레이션의 건설현장 적용에 MR의 활용도가 높아지길 기대한다.

고정익 UAV를 이용한 고해상도 영상의 토지피복분류 (Land Cover Classification of High-Spatial Resolution Imagery using Fixed-Wing UAV)

  • 양승룡;이학술
    • 한국재난정보학회 논문집
    • /
    • 제14권4호
    • /
    • pp.501-509
    • /
    • 2018
  • 연구목적: UAV기반의 사진측량은 기존 항공촬영에 비해 비용이 절감될 뿐만 아니라 원하는 시간과 장소에 대한 고해상도의 데이터를 취득하기 용이하기 때문에, 공간정보 분야에서도 UAV를 활용한 연구가 진행되고 있다. 본 연구에서는 UAV 기반의 고해상도 영상을 활용하여 토지피복 분류를 수행하고자 하였다. 연구방법: 고해상도 영상의 획득을 위하여 RGB카메라를 사용하였으며, 추가적으로 식생지역을 정확하게 분류하기 위해서 다중분광 카메라를 사용하여 동일 지역을 추가 촬영하였다. 최종적으로 RGB 및 다중분광 카메라를 이용하여 생성된 정사영상, DSM(Digital Surface Model), NDVI(Normalized Difference Vegetation Index), GLCM(Gray-Level Co-occurrence Matrix)을 이용하여 대표적인 감독분류기법인 RF(Random Forest)방법을 이용해 총 7개 클래스에 대해 토지피복분류를 수행하였다. 연구결과: 분류정확도 평가를 위해 오차행렬을 기반으로 한 정확도 평가를 실시하였으며, 정확도 평가 결과 RGB 영상만을 이용한 감독분류결과와 비교하여 제안 방법이 해당 지역의 클래스를 효과적으로 분류할 수 있음을 확인하였다. 결론: 본 연구에서 제안한 정사영상, 다중분광영상, NDVI, GLCM을 모두 추가한 경우 기존의 정사영상만을 이용하였을 때 보다 높은 정확도를 나타냈다. 추후 연구로는 추가적인 입력자료의 개발을 통해 분류 정확도를 향상시키고자 한다.

드론 탑재 복합센서의 매핑 정확도 분석: 데이터 취득 환경에 따른 사전 캘리브레이션 여부를 중심으로 (Analysis on Mapping Accuracy of a Drone Composite Sensor: Focusing on Pre-calibration According to the Circumstances of Data Acquisition Area)

  • 전일서;함상우;이임평
    • 대한원격탐사학회지
    • /
    • 제37권3호
    • /
    • pp.577-589
    • /
    • 2021
  • 드론 매핑 시스템은 재난 피해 조사, 국토 환경 모니터링, 건설 공정 모니터링 등 여러 분야에 응용 가능하다. 드론에 장착된 다양한 개별 센서를 통합하여 활용하려면 시간동기화 등 여러가지 절차가 필요했다. 최근, 영상 센서와 GPS/INS가 함께 내장된 복합센서가 다수 출시되었다. 복합센서는 여러 가지 센서 데이터를 내부적으로 통합하여, 위치/자세를 영상 파일에 바로 태깅하여 제공한다. 이러한 복합센서를 드론 매핑 시스템에 활용하려면 매핑 정확도를 확인해 볼 필요가 있다. 이에 본 연구에서는 다양한 데이터 취득 환경과 사전 캘리브레이션 여부를 중심으로 복합센서의 매핑 정확도를 확인하였다. 첫째, 매핑 정확도가 지상기준점의 개수에 따라 어떻게 변하는지 살펴보았다. 지상기준점 개수가 2개일 때부터 총 RMSE가 1 m 이상에서 약 60 cm로 40 cm가량 줄어드는 것을 확인할 수 있었다. 둘째, 데이터 취득 상황과 사전 캘리브레이션 여부에 따른 매핑 정확도를 확인하였다. 지상기준점이 있는 경우에는 개수가 적을지라도 사전 캘리브레이션의 영향이 크지 않은 것을 확인할 수 있었다. 영상의 중복도가 충분하지 않을 때는 사전 캘리브레이션 하는 것이 정확도 개선에 영향을 주는 것을 확인할 수 있었다. 지상기준점이 없는 경우에는 카메라, 탑재체 모두 사전 캘리브레이션 하는 것이 정확도를 개선시키는데 영향이 있음을 확인하였다. 본 연구를 기반으로, 향후 복합센서를 이용한 드론 매핑 수행 시 데이터 취득 조건에 따라 지상기준점 측량과 캘리브레이션 과정을 효율화 하는데 기여할 것으로 기대한다.

농업관측을 위한 다중분광 무인기 반사율 변동성 분석 (Analysis of UAV-based Multispectral Reflectance Variability for Agriculture Monitoring)

  • 안호용;나상일;박찬원;홍석영;소규호;이경도
    • 대한원격탐사학회지
    • /
    • 제36권6_1호
    • /
    • pp.1379-1391
    • /
    • 2020
  • 농업에서의 무인기는 촬영 영역은 작지만, 위성이 가지지 못하는 초고해상도의 영상 수집이 가능하며, 작물의 생물계절에 맞는 영상을 적시에 획득 할 수 있어 들녘단위 농경지의 모니터링에 유용하게 사용될 수 있다. 하지만 무인기의 경우 위성과 달리 다양한 카메라와 촬영 환경에 따른 다중시기 영상을 활용하기 때문에 시계열 영상 활용을 위해서는 정규화 된 영상자료를 활용하는 것이 필수적으로 요구된다. 본 연구는 무인기 다중분광 영상의 농업 모니터링 시계열 활용을 위해 촬영 환경에 따른 무인기 반사율 및 식생지수의 변동성을 분석하였다. 촬영 고도, 촬영 방향, 촬영시간, 운량과 같은 환경요인에 따른 반사율 변동성은 8%에서 11%로 매우 크게 나타났으나, 식생지수의 변동성은 1% ~ 5%로 안정적인 것을 확인 할 수 있었다. 이러한 현상은 무인기 다중분광센서의 특성과 후처리 프로그램의 정규화 등 다양한 원인이 존재하는 것으로 판단된다. 따라서 무인기 영상의 시계열 활용을 위해서는 식생지수와 같은 밴드비율함수를 활용하는 것이 권장되며 촬영 시 가능한 동일한 촬영시간, 촬영 고도, 촬영 방향을 설정하여 시계열 영상의 변동성을 최소화하는 것이 권장된다.

제페토 월드를 활용한 메타버스 콘텐츠 제작 공정에 관한 연구 (A Study on The Metaverse Content Production Pipeline using ZEPETO World)

  • 박명석;조윤식;조다솜;나기리;이자민;조세홍;김진모
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제28권3호
    • /
    • pp.91-100
    • /
    • 2022
  • 본 연구는 대표적인 국내 메타버스 플랫폼의 대표 중 하나인 제페토 월드를 활용한 메타버스 콘텐츠 제작 공정을 제안한다. 유니티 3D 엔진을 기반으로 제페토 템플릿을 활용하여 제페토 월드를 구성하고, 제페토 스크립트를 통해 로직, 상호작용, 속성 제어 등 다중 사용자 참여가 가능한 메타버스 콘텐츠의 핵심 기능들을 구현한다. 본 연구는 제페토 스크립트의 속성, 이벤트, 컴포넌트 등의 기본 기능과 아바타 로딩, 캐릭터 이동, 카메라 제어 기능을 포함하는 제페토 플레이어를 활용한다. 그리고 제페토의 월드 멀티플레이(WorldMultiplay), 클라이언트 스타터(ClientStarter) 등의 속성을 토대로 객체 변환, 동적 객체 생성 그리고 속성 추가 및 실시간 속성 제어 등 멀티플레이 메타버스 콘텐츠 제작에서 필요한 핵심적인 동기화 처리 과정을 정리한다. 이를 기반으로 제페토 월드를 활용한 멀티플레이 메타버스 콘텐츠를 직접 제작함으로써 제안하는 제작 공정을 확인한다.