• 제목/요약/키워드: video stitching

검색결과 50건 처리시간 0.026초

City-Scale Modeling for Street Navigation

  • Huang, Fay;Klette, Reinhard
    • Journal of information and communication convergence engineering
    • /
    • 제10권4호
    • /
    • pp.411-419
    • /
    • 2012
  • This paper proposes a semi-automatic image-based approach for 3-dimensional (3D) modeling of buildings along streets. Image-based urban 3D modeling techniques are typically based on the use of aerial and ground-level images. The aerial image of the relevant area is extracted from publically available sources in Google Maps by stitching together different patches of the map. Panoramic images are common for ground-level recording because they have advantages for 3D modeling. A panoramic video recorder is used in the proposed approach for recording sequences of ground-level spherical panoramic images. The proposed approach has two advantages. First, detected camera trajectories are more accurate and stable (compared to methods using multi-view planar images only) due to the use of spherical panoramic images. Second, we extract the texture of a facade of a building from a single panoramic image. Thus, there is no need to deal with color blending problems that typically occur when using overlapping textures.

Novel Parallel Approach for SIFT Algorithm Implementation

  • Le, Tran Su;Lee, Jong-Soo
    • Journal of information and communication convergence engineering
    • /
    • 제11권4호
    • /
    • pp.298-306
    • /
    • 2013
  • The scale invariant feature transform (SIFT) is an effective algorithm used in object recognition, panorama stitching, and image matching. However, due to its complexity, real-time processing is difficult to achieve with current software approaches. The increasing availability of parallel computers makes parallelizing these tasks an attractive approach. This paper proposes a novel parallel approach for SIFT algorithm implementation using a block filtering technique in a Gaussian convolution process on the SIMD Pixel Processor. This implementation fully exposes the available parallelism of the SIFT algorithm process and exploits the processing and input/output capabilities of the processor, which results in a system that can perform real-time image and video compression. We apply this implementation to images and measure the effectiveness of such an approach. Experimental simulation results indicate that the proposed method is capable of real-time applications, and the result of our parallel approach is outstanding in terms of the processing performance.

A Fast SIFT Implementation Based on Integer Gaussian and Reconfigurable Processor

  • Su, Le Tran;Lee, Jong Soo
    • 한국정보전자통신기술학회논문지
    • /
    • 제2권3호
    • /
    • pp.39-52
    • /
    • 2009
  • Scale Invariant Feature Transform (SIFT) is an effective algorithm in object recognition, panorama stitching, and image matching, however, due to its complexity, real time processing is difficult to achieve with software approaches. This paper proposes using a reconfigurable hardware processor with integer half kernel. The integer half kernel Gaussian reduces the Gaussian pyramid complexity in about half [] and the reconfigurable processor carries out a parallel implementation of a full search Fast SIFT algorithm. We use a low memory, fine grain single instruction stream multiple data stream (SIMD) pixel processor that is currently being developed. This implementation fully exposes the available parallelism of the SIFT algorithm process and exploits the processing and I/O capabilities of the processor which results in a system that can perform real time image and video compression. We apply this novel implementation to images and measure the effectiveness. Experimental simulation results indicate that the proposed implementation is capable of real time applications.

  • PDF

실사 VR영상 획득 및 생성 기술 검증용 CG툴 (CG Tool for Validating Acquisition and Generation Technology of VR Video)

  • 정준영;윤국진;정원식;서정일
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.229-230
    • /
    • 2019
  • 실사 기반의 VR (Virtual Reality) 영상을 생성하기 위해서는 카메라 리그 (rig) 설계 기술, 스티칭(stitching) 기술, 3 차원 공간 정보 추정 기술 등 여러 기술이 필요하다. 이러한 기술에 대한 연구를 진행하려면 카메라 위치, 피사체 거리, 조명 정도 등 다양한 요소를 고려한 수 많은 실험을 수행해야 하는데, 실사 조건에서 이를 직접 수행하려면 상당한 시간과 노력이 소요된다. 따라서 원하는 실험 조건을 쉽게 구성할 수 있는 컴퓨터 그래픽스 (CG: Computer Graphics) 환경 상에서 먼저 실험을 진행한 이후 실사로 확장하는 것이 더욱 효율적인 접근법이 될 것이다. 본 논문에서는 VR 영상의 생성에 요구되는 다양한 기술을 연구할 때 활용할 수 있는 CG 기반의 툴을 소개하고자 한다.

  • PDF

특징점 누적 기반 호모그래피를 이용한 고정형 비디오의 스티칭 방법 (Video stitching method using homography based on feature point accumulation)

  • 박건우;강두식;이명진
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 추계학술대회
    • /
    • pp.131-132
    • /
    • 2018
  • 비디오 스티칭은 카메라 간 변환 관계인 호모그래피를 이용하여 스티칭하는 것이 일반적이다. 본 논문은 호모그래피를 이용한 고정형 비디오 스티칭에서 조도 변화, 노이즈 등으로 일관되지 않는 특징점 추출과 유니폼한 입력 영상으로 적은 특징점이 추출되는 경우에 대하여 정확도 높은 호모그래피 추출이 가능한 특징점 누적 기반 고정형 비디오 스티칭 방법을 제안한다. 실험을 통해 단일 프레임 특징점을 이용한 결과 영상에 비해 특징점 누적을 이용하는 경우 영상 내 부정합 영역 등의 왜곡이 크게 감소하였음을 확인하였다.

  • PDF

메타버스에서 360° 영상 품질향상을 위한 조명기 투사각연구 (A study on lighting angle for improvement of 360 degree video quality in metaverse)

  • 김준호;안경석;최성진
    • 문화기술의 융합
    • /
    • 제8권1호
    • /
    • pp.499-505
    • /
    • 2022
  • 최근 메타버스가 많은 관심을 받고 있다. 메타버스는 가상공간을 의미하며 이 공간에서 다양한 이벤트가 펼쳐질 수 있을 것이다. 특히 메타버스 공간에 최적화된 포맷인 360° 영상이 주목을 받고 있다. 360도 영상 이미지는 여러 대의 카메라 또는 렌즈로 촬영한 이미지를 360도 모든 방향으로 스티칭하여 생성된다. 360도 영상 촬영 시에는 카메라 전면에서 피사체를 촬영하기 위한 촬영 스태프를 비롯한 다양한 촬영 장비들이 영상에 표시된다. 따라서 360° 영상을 촬영할 때는 카메라 주변의 피사체를 제외한 모든 것을 숨겨야 한다. 이러한 촬영 방식에는 여러 가지 문제점이 있다. 그 중 조명에 관한 부분이 가장 큰 문제이다. 기존의 이미지 촬영처럼 카메라 뒤에서 피사체에 초점을 맞추는 고정된 조명기를 설치하기가 매우 어렵기 때문이다. 본 연구는 실내조명의 각도를 조절하여 360° 영상에 최적화된 각도를 찾기 위한 실험적 연구이다. 추가 조명을 설치하지 않고 360도 영상을 촬영할 수 있는 방법을 제안한다. 본 연구의 결과를 바탕으로 앞으로 더욱 다양한 촬영 앵글을 통해 실험이 이루어지고 나아가 메타버스 공간에서 360도영상 활용 시 도움이 될 것으로 기대한다.

An Efficient Feature Point Extraction Method for 360˚ Realistic Media Utilizing High Resolution Characteristics

  • Won, Yu-Hyeon;Kim, Jin-Sung;Park, Byuong-Chan;Kim, Young-Mo;Kim, Seok-Yoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권1호
    • /
    • pp.85-92
    • /
    • 2019
  • In this paper, we propose a efficient feature point extraction method that can solve the problem of performance degradation by introducing a preprocessing process when extracting feature points by utilizing the characteristics of 360-degree realistic media. 360-degree realistic media is composed of images produced by two or more cameras and this image combining process is accomplished by extracting feature points at the edges of each image and combining them into one image if they cover the same area. In this production process, however, the stitching process where images are combined into one piece can lead to the distortion of non-seamlessness. Since the realistic media of 4K-class image has higher resolution than that of a general image, the feature point extraction and matching process takes much more time than general media cases.

딥 러닝을 이용한 실감형 콘텐츠 특징점 추출 및 식별 방법 (A Feature Point Extraction and Identification Technique for Immersive Contents Using Deep Learning)

  • 박병찬;장세영;유인재;이재청;김석윤;김영모
    • 전기전자학회논문지
    • /
    • 제24권2호
    • /
    • pp.529-535
    • /
    • 2020
  • 4차 산업의 주요 기술로 실감형 360도 영상 콘텐츠가 주목받고 있다. 전 세계 실감형 360도 영상 콘텐츠의 시장 규모는 2018년 67억 달러에서 2020년 약 700억 달러까지 증가될 것이라고 전망하고 있다. 하지만 대부분 실감형 360도 영상 콘텐츠가 웹하드, 토렌트 등의 불법 유통망을 통해 유통되고 있어 불법복제로 인한 피해가 증가하고 있다. 이러한 불법 유통을 막기 위하여 기존 2D 영상은 불법저작물 필터링 기술을 사용하고 있다. 그러나 초고화질을 지원하고 두 대 이상의 카메라를 통해 촬영된 영상을 하나의 영상에 담는 실감형 360도 영상 콘텐츠의 특징 때문에 왜곡 영역이 존재하여 기존 2D 영상에 적용된 기술을 그대로 사용하기엔 다소 무리가 있다. 또한, 초고화질에 따른 특징점 데이터량 증가와 이에 따른 처리 속도 문제와 같은 기술적 한계가 존재한다. 본 논문에서는 이러한 문제를 해결하기 위하여 왜곡이 심한 영역을 제외한 객체 식별 영역을 선정하고, 식별 영역에서 딥 러닝 기술을 이용하여 객체를 인식하고 인식된 객체의 정보를 이용하여 특징 벡터를 추출하는 특징점 추출 및 식별 방법을 제안한다. 제안한 방법은 기존에 제안 되었던 스티칭 영역을 이용한 실감형 콘텐츠 특징점 추출방법과 비교하여 성능의 우수성을 보였다.

깊이지도를 이용한 3D 파노라마 생성에 관한 연구 (A Study on 3D Panoramic Generation using Depth-map)

  • 조승일;김종찬;반경진;김응곤
    • 한국전자통신학회논문지
    • /
    • 제6권6호
    • /
    • pp.831-838
    • /
    • 2011
  • 컴퓨터 그래픽스 적용분야에서 표현되는 모습들은 현실 세계의 모습을 기반으로 컴퓨터 비전(Computer Vision) 분야에서는 사실적인 3D(Dimension) 모델 또는 가상 환경을 구축하기 위한 연구가 활발하게 진행되고 있다. 3D 디스플레이의 발전과 보급으로 인해 사용자들이 입체감 있는 3차원 가상현실을 손쉽게 접할 수 있게 됨에 따라 가상현실 콘텐츠에 대한 수요가 증가되고 있다. 본 논문은 소실점 위치에 따른 깊이지도 생성 기법을 이용하여 3D 파노라마 시스템을 제안했다. 3D 파노라마는 사용자에게 마치 촬영 장소에 서서 주위를 살펴보는 것과 같은 입체감 있는 효과가 나타난다. 또한, 3D 파노라마 시스템은 넓은 영역에 대해 근거리의 사물과 원거리의 배경에 대한 자유로운 시점과 변함없는 고화질의 사진과 같은 현실감 있는 3차원 입체영상이 제공된다.

360 VR 기반 파노라마 영상 구성을 위한 칼라 및 밝기 보상 알고리즘 (Color and Illumination Compensation Algorithm for 360 VR Panorama Image)

  • 남다윤;한종기
    • 방송공학회논문지
    • /
    • 제24권1호
    • /
    • pp.3-24
    • /
    • 2019
  • 360 VR 기반 파노라마 영상을 제작하는 과정에서 인접한 장면을 촬영한 영상들일 지라도 촬영 각도 및 조명의 위치에 따라 영상들 간에 밝기 변화가 크고 색상값에서도 큰 차이가 발생한다. 이런 영상들을 스티칭하여 360 VR 영상을 만들면, 제작된 파노라마 영상의 품질이 저하되기 때문에 밝기 보상 기법을 전처리 과정으로 사용해야 한다. 기존의 밝기 보상 기법들은 밝기 차이가 적은 경우 또는 적은 장수의 영상들을 스티칭하는 경우에 적용되도록 설계되었기 때문에, 360 VR 서비스용 스티칭 기법에서처럼 스티칭되는 영상의 개수가 많고, 영상들 간의 밝기 차이가 클 경우에는 성능 저하가 발생하는 것으로 알려졌다. 본 논문에서는 기존의 밝기 보상 기법이 급격한 밝기 차이가 발생하는 360 VR 서비스에서도 효과적으로 이용될 수 있도록 추가의 '색상 보정' 및 '밝기 보정' 단계를 전처리 과정으로 사용함으로써, 복잡도 증가는 최소화하면서 360 VR 영상 합성의 성능을 향상시키는 것을 목표로 한다. 본 논문에서는 다양한 환경에서 촬영된 실험 영상들을 이용해서, 제안하는 기술이 기존 기술들의 성능을 향상시킬 수 있음을 보이고 있다.