• 제목/요약/키워드: 3D video

검색결과 1,152건 처리시간 0.023초

깊이 불연속 정보를 이용한 저해상도 깊이 영상의 업샘플링 방법 (Low-Resolution Depth Map Upsampling Method Using Depth-Discontinuity Information)

  • 강윤석;호요성
    • 한국통신학회논문지
    • /
    • 제38C권10호
    • /
    • pp.875-880
    • /
    • 2013
  • 시청자에게 입체감과 몰입감을 줄 수 있는 3차원 영상의 제작을 위해서는 장면의 색상 영상과 함께 깊이 정보가 필요하다. 일반적으로 장면의 깊이를 측정하는 깊이 센서에서 획득된 깊이 영상은 매우 작은 해상도를 가진다. 따라서 색상 영상과 함께 3차원 영상 제작에 이러한 깊이 영상을 사용하기 위해서는 저해상도 깊이 영상의 업샘플링 기술이 필요하다. 본 논문에서는 깊이 불연속 정보를 이용하여 저해상도 깊이 영상을 업샘플링하는 방법을 설명한다. 깊이 영상을 업샘플링할 때 가장 민감하게 다루어야 할 깊이 불연속 부분을 고해상도 색상과 저해상도 깊이 영상으로부터 찾아낸다. 그리고 깊이 불연속 부분을 고려하여 깊이 영상 업샘플링을 위한 에너지 함수를 모델링하고, 신뢰 확산(belief propagation) 방법을 이용하여 해상도가 확대된 깊이 영상을 획득한다. 제안하는 방법은 필터 기반이나 에너지 함수 기반의 다른 방법들보다 우수한 성능을 나타내었다.

Depth Images-based Human Detection, Tracking and Activity Recognition Using Spatiotemporal Features and Modified HMM

  • Kamal, Shaharyar;Jalal, Ahmad;Kim, Daijin
    • Journal of Electrical Engineering and Technology
    • /
    • 제11권6호
    • /
    • pp.1857-1862
    • /
    • 2016
  • Human activity recognition using depth information is an emerging and challenging technology in computer vision due to its considerable attention by many practical applications such as smart home/office system, personal health care and 3D video games. This paper presents a novel framework of 3D human body detection, tracking and recognition from depth video sequences using spatiotemporal features and modified HMM. To detect human silhouette, raw depth data is examined to extract human silhouette by considering spatial continuity and constraints of human motion information. While, frame differentiation is used to track human movements. Features extraction mechanism consists of spatial depth shape features and temporal joints features are used to improve classification performance. Both of these features are fused together to recognize different activities using the modified hidden Markov model (M-HMM). The proposed approach is evaluated on two challenging depth video datasets. Moreover, our system has significant abilities to handle subject's body parts rotation and body parts missing which provide major contributions in human activity recognition.

캐릭터 객체의 변환을 이용하는 입체 동영상 콘텐츠 제작 (Producing Stereoscopic Video Contents Using Transformation of Character Objects)

  • 이관욱;원지연;최창열;김만배
    • 방송공학회논문지
    • /
    • 제16권1호
    • /
    • pp.33-43
    • /
    • 2011
  • 3D 디스플레이의 급격한 공급으로 다양한 3D 입체 콘텐츠의 제작이 요구되고 있다. 3D 콘텐츠의 제작 방법으로는 일반적으로 스테레오 카메라로 입체물을 제작할 수 있지만, 기존 2D 콘텐츠에서 입체영상물을 제작하는 기법도 중요한 기술이다. 이러한 2D 콘텐츠의 변환작업을 통한 3D 영상물 제작은 3D 변환 분야에서 활발히 진행되고 있다. 그러나 단순히 한 장의 영상을 3D로 변환하는 것은 콘텐츠의 실감을 전달하지 못한다. 본 논문에서는 기존의 2D 영상에 존재하는 객체에 생명력을 불어넣어, 그림속이 객체가 살아나 움직이는 새로운 애니메이션 콘텐츠 제작 방법을 제안한다. 또한 3D 디스플레이에서 시청이 가능하도록 입체영상으로 제작된다. 입력영상이 주어지면 배경영상, 전경객체 마스크, 배경 깊이맵, 객체 깊이맵을 생성한다. 각 전경객체의 이동, 회전, 및 줌을 통해 생동감있는 객체를 구현하며, 변환된 객체의 깊이맵 및 배경영상을 이용하여 실감있는 입체영상을 제작한다. 실험영상은 신윤복의 단오풍정 및 픽사의 애니메이션 UP의 클립영상을 이용하여 3D 입체영상으로 구현하였다.

3D영상 객체인식을 통한 얼굴검출 파라미터 측정기술에 대한 연구 (Object Recognition Face Detection With 3D Imaging Parameters A Research on Measurement Technology)

  • 최병관;문남미
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권10호
    • /
    • pp.53-62
    • /
    • 2011
  • 본 논문에서는 첨단 IT융,복합기술의 발달로 특수 기술로만 여겨졌던 영상객체인식 기술분야가 스마트-폰 기술의 발전과 더불어 개인 휴대용 단말기기로 발전하고 있다. 3D기반의 얼굴인식 검출기술은 객체인식 기술을 통하여 지능형 영상검출 인식기술기술로 진화되고 있음에 따라 영상인식을 통한 얼굴검출기술과 더불어 개발속도가 급속히 발전하고 있다. 본 논문에서는 휴먼인식기술을 기반으로 한 얼굴객체인식 영상검출을 통한 얼굴인식처리 기술의 인지 적용기술을 IP카메라에 적용하여 인가자의 입,출입등의 식별능력을 적용한 휴먼인식을 적용한 얼굴측정 기술에 대한 연구방안을 제안한다. 연구방안은 1)얼굴모델 기반의 얼굴 추적기술을 개발 적용하였고 2)개발된 알고리즘을 통하여 PC기반의 휴먼인식 측정 연구를 통한 기본적인 파라미터 값을 CPU부하에도 얼굴 추적이 가능하며 3)양안의 거리 및 응시각도를 실시간으로 추적할 수 있는 효과를 입증하였다.

3D CAD 수업에서의 플립드러닝 기반의 PBL 교수학습법 효과 연구 (Study of Flipped Learning-based PBL Teaching in 3D CAD Class)

  • 박현하;장성욱
    • 한국정보통신학회논문지
    • /
    • 제26권5호
    • /
    • pp.779-785
    • /
    • 2022
  • 이 연구는 플립드러닝 기반의 PBL을 활용한 3D CAD 수업이 전문지식 습득과 인재양성에 미치는 영향을 분석한다. 동의대학교 기계자동차로봇부품공학부 3학년 학생들에게 플립드러닝 기반의 PBL 수업을 구현하였으며, 만족도 및 효과에 대한 설문조사를 실시하였다. 학생들은 대체로 교과목, 교수방법, 비대면 정보교류 등에 대체로 만족하는 것으로 나타났으며, '자동차 CAD 및 실습' 교과목에 대한 지식 습득 및 과정에서 자기주도학습, 문제해결력, 책임감, 성실성, 소통능력 등이 향상되는데 플립드러닝 기반의 PBL이 유의한 영향이 있는 것으로 보였다. 특히 비대면 학습에서도 공학설계수업이 효과적으로 운영될 수 있다는 사실이 입증됨으로써 앞으로 실기 교과목의 영상교육 활용에 기여가 있기를 바란다. 본 연구는 추후 연구를 위한 중요한 지표로서 수업 개선을 위한 정량적 지표로 사용할 예정이다.

An Automatic Camera Tracking System for Video Surveillance

  • Lee, Sang-Hwa;Sharma, Siddharth;Lin, Sang-Lin;Park, Jong-Il
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2010년도 하계학술대회
    • /
    • pp.42-45
    • /
    • 2010
  • This paper proposes an intelligent video surveillance system for human object tracking. The proposed system integrates the object extraction, human object recognition, face detection, and camera control. First, the object in the video signals is extracted using the background subtraction. Then, the object region is examined whether it is human or not. For this recognition, the region-based shape descriptor, angular radial transform (ART) in MPEG-7, is used to learn and train the shapes of human bodies. When it is decided that the object is human or something to be investigated, the face region is detected. Finally, the face or object region is tracked in the video, and the pan/tilt/zoom (PTZ) controllable camera tracks the moving object with the motion information of the object. This paper performs the simulation with the real CCTV cameras and their communication protocol. According to the experiments, the proposed system is able to track the moving object(human) automatically not only in the image domain but also in the real 3-D space. The proposed system reduces the human supervisors and improves the surveillance efficiency with the computer vision techniques.

  • PDF

Bit-rate Scalable Video Coder Using a $2{\times}2{\times}2$ DCT for Progressive Transmission

  • Woo, Seock-Hoon;Park, Jin-Hyung;Won, Chee-Sun
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -1
    • /
    • pp.66-69
    • /
    • 2000
  • In this paper, we propose a progressive transmission of a video using a 2$\times$2$\times$2 DCT First of all, the video data is transformed into multiresolution represented video data using a 2$\times$2$\times$2 DCT. Then. it is represented by a 3-D EZT(Embedded Zero Tree) coding fur the progressive transmission with a bit-rate scalability. The proposed progressive transmission algorithm needs much less computations and buffer memories than the higher-order convolution based wavelet filter. Also, since the 2$\times$2$\times$2 DCT requires independent local computations, parallel processing can be applied.

  • PDF

Global Disparity Compensation for Multi-view Video Coding

  • ;호요성
    • 방송공학회논문지
    • /
    • 제12권6호
    • /
    • pp.624-629
    • /
    • 2007
  • While single view video coding uses the temporal prediction scheme, multi-view video coding (MVC) applies both temporal and inter-view prediction schemes. Thus, the key problem of MVC is how to reduce the inter-view redundancy efficiently, because various existing video coding schemes have already provided solutions to reduce the temporal correlation. In this paper, we propose a global disparity compensation scheme which increases the inter-view correlation and a new inter-view prediction structure based on the global disparity compensation. By experiment, we demonstrate that the proposed global disparity compensation scheme is less sensitive to change of the search range. In addition, the new Inter-view prediction structure achieved about $0.1{\sim}0.3dB$ quality improvement compared to the reference software.

DeepAct: A Deep Neural Network Model for Activity Detection in Untrimmed Videos

  • Song, Yeongtaek;Kim, Incheol
    • Journal of Information Processing Systems
    • /
    • 제14권1호
    • /
    • pp.150-161
    • /
    • 2018
  • We propose a novel deep neural network model for detecting human activities in untrimmed videos. The process of human activity detection in a video involves two steps: a step to extract features that are effective in recognizing human activities in a long untrimmed video, followed by a step to detect human activities from those extracted features. To extract the rich features from video segments that could express unique patterns for each activity, we employ two different convolutional neural network models, C3D and I-ResNet. For detecting human activities from the sequence of extracted feature vectors, we use BLSTM, a bi-directional recurrent neural network model. By conducting experiments with ActivityNet 200, a large-scale benchmark dataset, we show the high performance of the proposed DeepAct model.

3D Panorama Generation Using Depth-MapStitching

  • Cho, Seung-Il;Kim, Jong-Chan;Ban, Kyeong-Jin;Park, Kyoung-Wook;Kim, Chee-Yong;Kim, Eung-Kon
    • Journal of information and communication convergence engineering
    • /
    • 제9권6호
    • /
    • pp.780-784
    • /
    • 2011
  • As the popularization and development of 3D display makes common users easy to experience a solid 3D virtual reality, the demand for virtual reality contents are increasing. In this paper, we propose 3D panorama system using vanishing point locationbased depth map generation method. 3D panorama using depthmap stitching gives an effect that makes users feel staying at real place and looking around nearby circumstances. Also, 3D panorama gives free sight point for both nearby object and remote one and provides solid 3D video.