• 제목/요약/키워드: video to images

검색결과 1,355건 처리시간 0.028초

전경 추출에 기반한 파노라마 비디오 생성 기법 (Panoramic Video Generation Method Based on Foreground Extraction)

  • 김상환;김창수
    • 전기학회논문지
    • /
    • 제60권2호
    • /
    • pp.441-445
    • /
    • 2011
  • In this paper, we propose an algorithm for generating panoramic videos using fixed multiple cameras. We estimate a background image from each camera. Then we calculate perspective relationships between images using extracted feature points. To eliminate stitching errors due to different image depths, we process background images and foreground images separately in the overlap regions between adjacent cameras by projecting regions of foreground images selectively. The proposed algorithm can be used to enhance the efficiency and convenience of wide-area surveillance systems.

하이퍼맵 데이타베이스에 관한 연구 (A Study on Hypermap Database)

  • 김용일;편무욱
    • 대한공간정보학회지
    • /
    • 제4권1호
    • /
    • pp.43-55
    • /
    • 1996
  • 본 연구에서는 하이퍼맵의 주요 하부구조의 하나인 동영상을 GIS에 도입하는 과정에서 필요한 동영상지원 수치지도 데이타베이스의 구조에 대한 연구를 진행하였다. 이 데이타베이스는 도로상의 위치와 연결된 동영상의 출력 및 동영상에 표현된 각종 지형지물과 2차원 수치지도내의 지형지물을 연계가 가능하도록 설계하였다. 연구의 평가를 위해 실험용 GIS시스템을 제작하여 2차원 수치지도의 기능, 동영상과 도로선형의 연계 기능, 동영상 및 수치지도상의 지형지물의 상호연계기능 등을 검토한 결과, 본 연구에서 제안된 수치지도 데이타베이스 구조를 바탕으로 수치지도 도로선형과 지형지물 데이타 및 동영상을 기능적으로 통합하여 활용하는 것이 가능함을 알 수 있었다.

  • PDF

가우시안 피라미드 기반 차영상을 이용한 도로영상에서의 이동물체검출 (Moving Object Detection using Gaussian Pyramid based Subtraction Images in Road Video Sequences)

  • 김동근
    • 한국산학기술학회논문지
    • /
    • 제12권12호
    • /
    • pp.5856-5864
    • /
    • 2011
  • 본 논문은 도로상에 설치한 고정 카메라로부터 획득된 비디오 영상으로부터 이동물체를 검출하는 방법을 제안한다. 제안된 방법은 배경과 입력 비디오 프레임에서 가우시안 피라미드를 사용한 배경 차영상 기법에 기반하며, 입력 비디오 프레임과 배경영상의 오정합으로 발생하는 오검출을 줄이는데 화소기반 방법에 비해 효과적이다. 차영상에서 임계값을 효과적으로 결정하기위하여 각 프레임에서 Otsu의 방법으로 계산된 임계값에 스칼라 칼만필터를 적용하여 필터링하였다. 실험 결과 도로 비디오 영상에서 움직이는 물체를 효과적으로 검출함을 보였다.

Video Mosaics in 3D Space

  • Chon, Jaechoon;Fuse, Takashi;Shimizu, Eihan
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2003년도 Proceedings of ACRS 2003 ISRS
    • /
    • pp.390-392
    • /
    • 2003
  • Video mosaicing techniques have been widely used in virtual reality environments. Especially in GIS field, video mosaics are becoming more and more common in representing urban environments. Such applications mainly use spherical or panoramic mosaics that are based on images taken from a rotating camera around its nodal point. The viewpoint, however, is limited to location within a small area. On the other hand, 2D-mosaics, which are based on images taken from a translating camera, can acquire data in wide area. The 2D-mosaics still have some problems : it can‘t be applied to images taken from a rotational camera in large angle. To compensate those problems , we proposed a novel method for creating video mosaics in 3D space. The proposed algorithm consists of 4 steps: feature -based optical flow detection, camera orientation, 2D-image projection, and image registration in 3D space. All of the processes are fully automatic and successfully implemented and tested with real images.

  • PDF

A Comparative Study of Local Features in Face-based Video Retrieval

  • Zhou, Juan;Huang, Lan
    • Journal of Computing Science and Engineering
    • /
    • 제11권1호
    • /
    • pp.24-31
    • /
    • 2017
  • Face-based video retrieval has become an active and important branch of intelligent video analysis. Face profiling and matching is a fundamental step and is crucial to the effectiveness of video retrieval. Although many algorithms have been developed for processing static face images, their effectiveness in face-based video retrieval is still unknown, simply because videos have different resolutions, faces vary in scale, and different lighting conditions and angles are used. In this paper, we combined content-based and semantic-based image analysis techniques, and systematically evaluated four mainstream local features to represent face images in the video retrieval task: Harris operators, SIFT and SURF descriptors, and eigenfaces. Results of ten independent runs of 10-fold cross-validation on datasets consisting of TED (Technology Entertainment Design) talk videos showed the effectiveness of our approach, where the SIFT descriptors achieved an average F-score of 0.725 in video retrieval and thus were the most effective, while the SURF descriptors were computed in 0.3 seconds per image on average and were the most efficient in most cases.

A Video Expression Recognition Method Based on Multi-mode Convolution Neural Network and Multiplicative Feature Fusion

  • Ren, Qun
    • Journal of Information Processing Systems
    • /
    • 제17권3호
    • /
    • pp.556-570
    • /
    • 2021
  • The existing video expression recognition methods mainly focus on the spatial feature extraction of video expression images, but tend to ignore the dynamic features of video sequences. To solve this problem, a multi-mode convolution neural network method is proposed to effectively improve the performance of facial expression recognition in video. Firstly, OpenFace 2.0 is used to detect face images in video, and two deep convolution neural networks are used to extract spatiotemporal expression features. Furthermore, spatial convolution neural network is used to extract the spatial information features of each static expression image, and the dynamic information feature is extracted from the optical flow information of multiple expression images based on temporal convolution neural network. Then, the spatiotemporal features learned by the two deep convolution neural networks are fused by multiplication. Finally, the fused features are input into support vector machine to realize the facial expression classification. Experimental results show that the recognition accuracy of the proposed method can reach 64.57% and 60.89%, respectively on RML and Baum-ls datasets. It is better than that of other contrast methods.

비디오 프레임 영상을 이용한 자유 입체 모자이크 영상 제작에 관한 연구 (A Study on Generation of Free Stereo Mosaic Image Using Video Sequences)

  • 노명종;조우석;박준구
    • 한국측량학회지
    • /
    • 제27권4호
    • /
    • pp.453-460
    • /
    • 2009
  • 3차원 정보를 추출하기 위해서는 중복된 영역에 대하여 서로 다른 시야각을 가지고 있는 입체 영상이 존재하여야 하며, 비디오 프레임 영상에 있어서 입체 모자이크 영상은 연속적인 프레임 영상에서 좌우 슬라이스 영상을 추출하여 모자이킹 함으로써 제작할 수 있다. 따라서 본 논문에서는 항공기에 탑재한 비디오카메라로 촬영한 영상의 활용성을 극대화하기 위하여 3차원 정보 추출이 가능한 입체 모자이크 영상을 제작하는데 목적을 두고 있다. 모자이크 영상을 제작하기 위해서는 인접한 비디오 프레임 영상간의 위치관계를 규명하기 위한 이동변수가 결정되어져야 하므로, 본 연구에서는 자유 모자이크 방법으로 GPS/INS 데이터 없이 인접한 프레임 영상간의 상호표정요소를 이용한 방법을 사용하였다. 이동변수를 결정 한 후, 영상등록, 영상 슬라이싱, 접합선 추출 및 3D 모자이킹 과정을 거쳐 최종적인 입체 모자이크 영상을 제작하였다. 본 연구의 결과로써 제작된 자유 입체 모자이크 영상과 그 적용 가능성을 분석하기 위하여 종시차와 횡시차를 분석하여 나타내었다.

컬러공간 특성을 이용한 유해 동영상 식별방법에 관한 연구 (An Identification Method of Detrimental Video Images Using Color Space Features)

  • 김성균;김창근;정대율
    • 한국산학기술학회논문지
    • /
    • 제12권6호
    • /
    • pp.2807-2814
    • /
    • 2011
  • 본 논문은 컬러공간 특성을 이용하여 유해동영상을 식별하는 알고리즘을 개발하고, 실험을 통하여 알고리즘의 효율성을 검증한다. 유해동영상 식별 알고리즘은 2차원 투영맵에 기초하고 있다. 비디오 이미지의 컬러특성을 추출하는데 있어 2차원 투영맵은 후보 프레임을 효과적으로 추출하는데 적용되어진다. 본 연구에서는 제시된 유사도 계산 알고리즘을 이용하여 추출된 프레임과 기준 이미지 간의 유사도를 먼저 계산하고, 유사도 평가를 통하여 유해동영상 후보프레임을 식별해 내고 임계치를 적용하여 최종 판단을 내린다. 제시된 알고리즘을 적용한 실험결과, 유해동영상을 찾는데 있어 컬러히스토그램보다 본 연구에서 제안한 2차원 투영맵을 이용한 기법이 계산속도와 식별능력 면에서 더 우수함을 입증하였다.

Zero Deep Curve 추정방식을 이용한 저조도에 강인한 비디오 개선 방법 (Low-Light Invariant Video Enhancement Scheme Using Zero Reference Deep Curve Estimation)

  • 최형석;양윤기
    • 한국멀티미디어학회논문지
    • /
    • 제25권8호
    • /
    • pp.991-998
    • /
    • 2022
  • Recently, object recognition using image/video signals is rapidly spreading on autonomous driving and mobile phones. However, the actual input image/video signals are easily exposed to a poor illuminance environment. A recent researches for improving illumination enable to estimate and compensate the illumination parameters. In this study, we propose VE-DCE (video enhancement zero-reference deep curve estimation) to improve the illumination of low-light images. The proposed VE-DCE uses unsupervised learning-based zero-reference deep curve, which is one of the latest among learning based estimation techniques. Experimental results show that the proposed method can achieve the quality of low-light video as well as images compared to the previous method. In addition, it can reduce the computational complexity with respect to the existing method.

3차원 동영상의 시ㆍ공간적 정보 중복성을 이용한 효과적인 3차원 비디오 홀로그램의 생성 (Efficient Generation of 3-D Video Holograms Using Temporal-Spatial Redundancy of 3-D Moving Images)

  • 김동욱;구정식;김승철;김은수
    • 한국통신학회논문지
    • /
    • 제37C권10호
    • /
    • pp.859-869
    • /
    • 2012
  • 본 논문에서는 3차원 동영상의 시 공간적 정보 중복성 (TSR: temporal-spatial redundancy)과 노블 룩업테이블(N-LUT: novel look-up table)를 이용한 효과적인 3차원 동영상 홀로그램 생성기법인 TSR-N-LUT을 제시하였다. 제안된 기법에서는 먼저, DPCM (differential pulse code modulation) 알고리즘을 이용하여 3차원 동영상 프레임간의 시간적 중복 데이터를 제거한 다음, 잔여 영상에 대해서도 각 프레임별로 영상라인 간 중복 데이터를 제거하게 된다. 따라서, 시 공간적인 중복 데이터가 제거된 물체영상에 N-LUT 기법을 적용함으로써 효과적으로 3차원 비디오 홀로그램을 합성하게 된다. 실험결과 제안된 TSR-N-LUT 기법은 기존 방법에 비해 평균적으로 홀로그램 계산을 위한 물체 포인트 수가 23.72% 감소함과 동시에 홀로그램 생성속도 역시 19.55% 개선됨을 보임으로써 제안된 기법의 실제 응용 가능성을 제시하였다.