• 제목/요약/키워드: The 3D image

검색결과 5,062건 처리시간 0.033초

3D 영상 게임에서 이미지 스페이스 글로우 효과 (Image Space Glow Effects for 3D Visual Carne)

  • 최학현;이명학;김정희
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(하)
    • /
    • pp.589-592
    • /
    • 2003
  • 3D 영상엔 화려하고 멋진 그래픽 기술들이 존재한다. 본 논문에서는 영상 게임 연출자들이 표현하고 싶어하는 백열광 효과인 Image Space Glow 효과를 구현하는 방법과 프로그램 디자인과 프로그램 구현을 3D 라이브러리를 이용하는 데에 초점을 두었다.

  • PDF

3차원 다중 기선을 사용만 비데오 영상 모자이크 기술 (Video Image Mosaicing Technique Using 3 Dimensional Multi Base Lines)

  • 전재춘;서용철
    • 대한원격탐사학회지
    • /
    • 제20권2호
    • /
    • pp.125-137
    • /
    • 2004
  • 하나의 기선에 작은 여러 영상을 투영하여 하나의 영상 모자이크를 생성하는 2차원 영상 모자이크 기법은 비데오 카메라가 도심지역을 이동하여 얻은 영상을 하나의 모자이크 영상을 생성할 수 없다. 본 논문에서는, 3차원 다중 기준선을 이용함으로서 3차원 공간에서 영상 모자이크를 생성시킬 수 있는 새로운 기법을 제안하였다. 제안된 방법은 각 영상 프레임마다 독립적인 기선을 가지도록 하여 3차원 공간에서 영상 모자이크를 생성 제안하는 것으로서, 독립적인 기선은 각 영상 프레임에서 추출된 광류의 지상 기준점들을 1차 방정식으로 표현한 것이다. 제안한 방법은 계층적 방법을 이용한 광류(Optical Flow)계산, 카메라 외부표정(Exterior Orientation)계산, 다중 기선(Multi-baselines)계산과 모자이크 된 영상들간의 경계를 감지 못하는 화소(Optimal Seamline Detection)의한 영상 모자이크 재생성 과정을 통해 구현되며, 실제 영상 프레임을 이용한 실험을 통해 효과적으로 3차원 공간에서 영상 모자이크 제작이 가능함을 입증하였다.

8진트리 모델을 사용한 3D 물체 모델링과 특징점 (3D Object Modeling and Feature Points using Octree Model)

  • 이영재
    • 한국멀티미디어학회논문지
    • /
    • 제5권5호
    • /
    • pp.599-607
    • /
    • 2002
  • 8진트리 모델은 3차원 물체를 계층적으로 모델링할 수 있는 기법으로 임의의 시각 방향에서 투영영상을 생성할 수 있으므로 3차원 물체인식 등 다양한 분야에서 효율적인 데이터 베이스로 사용될 수 있다. 본 논문에서는 8진트리 모델을 사용해 투영 영상을 만들어 보고 Multi level boundary search 알고리즘을 사용해 표면 영상을 생성해 본다. 또한 2D 영상과 3D 영상의 특징점을 구하는 방법과 2D 특징점, 3D 특징점의 기하학적 변환을 통하여 유사 특징점을 찾는 방법에 대하여 언급한다. 이 방법들은 3D 물체 모델링을 위한 효율적인 데이터 베이스 구축과 물체 특징점 응용을 위한 기본 자료로 활용될 수 있다.

  • PDF

3D Image Correlator using Computational Integral Imaging Reconstruction Based on Modified Convolution Property of Periodic Functions

  • Jang, Jae-Young;Shin, Donghak;Lee, Byung-Gook;Hong, Suk-Pyo;Kim, Eun-Soo
    • Journal of the Optical Society of Korea
    • /
    • 제18권4호
    • /
    • pp.388-394
    • /
    • 2014
  • In this paper, we propose a three-dimensional (3D) image correlator by use of computational integral imaging reconstruction based on the modified convolution property of periodic functions (CPPF) for recognition of partially occluded objects. In the proposed correlator, elemental images of the reference and target objects are picked up by a lenslet array, and subsequently are transformed to a sub-image array which contains different perspectives according to the viewing direction. The modified version of the CPPF is applied to the sub-images. This enables us to produce the plane sub-image arrays without the magnification and superimposition processes used in the conventional methods. With the modified CPPF and the sub-image arrays, we reconstruct the reference and target plane sub-image arrays according to the reconstruction plane. 3D object recognition is performed through cross-correlations between the reference and the target plane sub-image arrays. To show the feasibility of the proposed method, some preliminary experiments on the target objects are carried out and the results are presented. Experimental results reveal that the use of plane sub-image arrays enables us to improve the correlation performance, compared to the conventional method using the computational integral imaging reconstruction algorithm.

3D 얼굴 영상 인식을 위한 LVQ 네트워크 (LVQ network for a face image recognition of the 3D)

  • 김영렬;박진성;임성진;이용구;엄기환
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2003년도 춘계종합학술대회
    • /
    • pp.151-154
    • /
    • 2003
  • 본 논문에서는 LVQ 네트워크를 이용하여 3D 얼굴 영상을 인식하는 방법을 제안하였다. 제안한 방식의 LVQ 네트워크는 coded light로 획득한 얼굴 영상의 정면도를 학습 데이터로 사용하여 측면을 비롯한 다양한 각도에서의 얼굴 영상도 분류가 가능하다. 다양한 각도에서의 얼굴 영상을 분류하는 실험을 통하여 제안한 알고리즘의 유용성을 확인하였다.

  • PDF

색상과 깊이 카메라를 이용한 3차원 영상 구성 (3D Image Construction Using Color and Depth Cameras)

  • 정하형;김태연;유준
    • 전자공학회논문지SC
    • /
    • 제49권1호
    • /
    • pp.1-7
    • /
    • 2012
  • 본 논문에서는 색상과 깊이 카메라로 구성된 복합형 카메라 시스템을 이용하여 3차원 영상을 구성하는 방법을 제안한다. 복합형 카메라 시스템은 3차원 영상 구성에 대하여 각 카메라가 갖는 단점을 상호 보완할 수 있다. 3차원 영상 구성에 앞서 개별적인 카메라의 내부변수 및 외부변수를 추출하며 이를 이용하여 영상 정합에 필요한 두 카메라 사이의 관계를 얻는다. 또한, 깊이 카메라의 출력과 거리 관계를 실험적으로 유도하며 정합된 영상에 대하여 좌표 변환을 통해 3차원 영상을 구성한다. 제안된 기법을 구현하기 위해 마이크로소프트사의 복합형 카메라를 이용하며 실험을 수행하며 3차원 영상 및 실제 측정치와의 비교 결과를 제시함으로써 성능을 검증한다.

사용자 환경에 적응적인 3DTV 시스템 (3DTV System Adaptive to User's Environment)

  • 백윤기;최미남;박세환;유지상
    • 한국통신학회논문지
    • /
    • 제32권10C호
    • /
    • pp.982-989
    • /
    • 2007
  • 본 논문에서는 사용자의 시점과 환경을 고려한 3DTV 시스템을 제안한다. 제안된 시스템은 다시점 영상의 부 복호화기, 얼굴 추적, 2D/3D동영상 입체 변환으로 구성된다. 다시점 영상에 입체감을 부여하기 위한 방법 중 실시간 처리가 가능한 2차원 영상을 3차원 영상으로 변환하는 2D/3D 동영상 입체 변환을 이용하여 입체 영상을 생성하였다. 기존의 2D/3D 동영상 입체 변환은 다시점 영상을 고려한 변환 방법이 아니기 때문에 다시점 영상의 시점 변화 시 다른 시점의 영상을 사용하여 불안정한 입체 영상을 생성한다. 본 논문에서는 이러한 문제점을 해결하기 위하여 다시점 영상에 적합하도록 시점 변화 시를 고려한 2D/3D변환방법을 사용함으로써 시점 변화 시 안정된 입체영상을 생성할 수 있었다.

Visual Fatigue Reduction Based on Depth Adjustment for DIBR System

  • Liu, Ran;Tan, Yingchun;Tian, Fengchun;Xie, Hui;Tai, Guoqin;Tan, Weimin;Liu, Junling;Xu, Xiaoyan;Kadri, Chaibou;Abakah, Naana
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제6권4호
    • /
    • pp.1171-1187
    • /
    • 2012
  • A depth adjustment method for visual fatigue reduction for depth-image-based rendering (DIBR) system is proposed. One important aspect of the method is that no calibration parameters are needed for adjustment. By analyzing 3D image warping, the perceived depth is expressed as a function of three adjustable parameters: virtual view number, scale factor and depth value of zero parallax setting (ZPS) plane. Adjusting these three parameters according to the proposed parameter modification algorithm when performing 3D image warping can effectively change the perceived depth of stereo pairs generated in DIBR system. As the depth adjustment is performed in simple 3D image warping equations, the proposed method is facilitative for hardware implementation. Experimental results show that the proposed depth adjustment method provides an improvement in visual comfort of stereo pairs as well as generating comfortable stereoscopic images with different perceived depths that people desire.

정제 모듈을 포함한 컨볼루셔널 뉴럴 네트워크 모델을 이용한 라이다 영상의 분할 (LiDAR Image Segmentation using Convolutional Neural Network Model with Refinement Modules)

  • 박병재;서범수;이세진
    • 로봇학회논문지
    • /
    • 제13권1호
    • /
    • pp.8-15
    • /
    • 2018
  • This paper proposes a convolutional neural network model for distinguishing areas occupied by obstacles from a LiDAR image converted from a 3D point cloud. The channels of a LiDAR image used as input consist of the distances to 3D points, the reflectivities of 3D points, and the heights of 3D points from the ground. The proposed model uses a LiDAR image as an input and outputs a result of a segmented LiDAR image. The proposed model adopts refinement modules with skip connections to segment a LiDAR image. The refinement modules with skip connections in the proposed model make it possible to construct a complex structure with a small number of parameters than a convolutional neural network model with a linear structure. Using the proposed model, it is possible to distinguish areas in a LiDAR image occupied by obstacles such as vehicles, pedestrians, and bicyclists. The proposed model can be applied to recognize surrounding obstacles and to search for safe paths.