• 제목/요약/키워드: camera and object parameter

검색결과 47건 처리시간 0.027초

Augmented Reality Service Based on Object Pose Prediction Using PnP Algorithm

  • Kim, In-Seon;Jung, Tae-Won;Jung, Kye-Dong
    • International Journal of Advanced Culture Technology
    • /
    • 제9권4호
    • /
    • pp.295-301
    • /
    • 2021
  • Digital media technology is gradually developing with the development of convergence quaternary industrial technology and mobile devices. The combination of deep learning and augmented reality can provide more convenient and lively services through the interaction of 3D virtual images with the real world. We combine deep learning-based pose prediction with augmented reality technology. We predict the eight vertices of the bounding box of the object in the image. Using the predicted eight vertices(x,y), eight vertices(x,y,z) of 3D mesh, and the intrinsic parameter of the smartphone camera, we compute the external parameters of the camera through the PnP algorithm. We calculate the distance to the object and the degree of rotation of the object using the external parameter and apply to AR content. Our method provides services in a web environment, making it highly accessible to users and easy to maintain the system. As we provide augmented reality services using consumers' smartphone cameras, we can apply them to various business fields.

Modified Particle Filtering for Unstable Handheld Camera-Based Object Tracking

  • Lee, Seungwon;Hayes, Monson H.;Paik, Joonki
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제1권2호
    • /
    • pp.78-87
    • /
    • 2012
  • In this paper, we address the tracking problem caused by camera motion and rolling shutter effects associated with CMOS sensors in consumer handheld cameras, such as mobile cameras, digital cameras, and digital camcorders. A modified particle filtering method is proposed for simultaneously tracking objects and compensating for the effects of camera motion. The proposed method uses an elastic registration algorithm (ER) that considers the global affine motion as well as the brightness and contrast between images, assuming that camera motion results in an affine transform of the image between two successive frames. By assuming that the camera motion is modeled globally by an affine transform, only the global affine model instead of the local model was considered. Only the brightness parameter was used in intensity variation. The contrast parameters used in the original ER algorithm were ignored because the change in illumination is small enough between temporally adjacent frames. The proposed particle filtering consists of the following four steps: (i) prediction step, (ii) compensating prediction state error based on camera motion estimation, (iii) update step and (iv) re-sampling step. A larger number of particles are needed when camera motion generates a prediction state error of an object at the prediction step. The proposed method robustly tracks the object of interest by compensating for the prediction state error using the affine motion model estimated from ER. Experimental results show that the proposed method outperforms the conventional particle filter, and can track moving objects robustly in consumer handheld imaging devices.

  • PDF

동일 평면상에 존재하는 특징점 검출을 이용한 실시간 카메라 추적 기법 (Real-time camera tracking using co-planar feature points)

  • 이석한
    • 한국정보전자통신기술학회논문지
    • /
    • 제17권5호
    • /
    • pp.358-366
    • /
    • 2024
  • 본 논문에서는 3차원 공간 내의 2차원 평면에 존재하는 특징점을 검출한 다음 이를 기반으로 실시간 카메라 추적을 수행하기 위한 방법을 제안한다. 제안된 방법은 두 단계를 거쳐서 수행된다. 먼저 3차원 공간 내에서 다수의 특징점을 검출한 다음 동일 평면 상에 존재하는 특징점들만을 선별한다. 그리고 특징점들이 존재하는 평면 객체와 카메라 영상 평면 사이의 사영기하(projective geometry) 관계를 추정한 다음 이를 기반으로 카메라의 외부 파라미터(extrinsic parameter)를 추정한다. 실험 과정에서 별도의 특수 조명은 이용하지 않으며 일반적인 조명이 갖추어진 실내 환경 내에서 실험을 수행하였다. 제안된 방법은 기존의 방법과는 다르게 실시간으로 평면 객체 상의 새로운 특징점을 검출하여 카메라 추적에 이용함으로써 카메라 자세정보 초기화를 위한 기준 특징점(reference feature)이 검출 불가능한 상황에서도 카메라의 추적이 가능하다는 장점을 갖고 있다. 실험을 통하여 제안된 방법은 평균 5~7픽셀 정도의 재사영 오차를 발생시킴을 확인할 수 있었다. 이는 영상의 해상도를 고려했을 때 상대적으로 작은 값으로 간주될 수 있으며, 기준 특징점이 영상 내에 존재하지 않은 환경에서도 카메라 추적을 수행할 수 있음을 알 수 있다.

그림자식 모아레를 이용한 형상측정법의 정확도 개선에 관한 연구 (A Study on the Improvement of Accuracy of Shape Measurement in the Shadow Moire Method)

  • 박경근;박윤창;정경민
    • 한국공작기계학회:학술대회논문집
    • /
    • 한국공작기계학회 1999년도 춘계학술대회 논문집
    • /
    • pp.175-180
    • /
    • 1999
  • Generally, When we measure of object 3D surfaces with phase shifting shadow moire method, it is use of optical system consist of light source, grating, and ccd camera. At this time, it is important parameter that vertical distance of grating and camera, grating and light source, and horizontal distance of camera and light source. When use camera consist of complex lens vertical distance of grating and camera is unknown parameter. From this cause equivalent wave length of moire fringe is uncertain. In this study, We exactly obtain a vertical distance of grating and camera so improve on measurement accuracy.

  • PDF

실거리 파라미터 교정식 복합센서 기반 3차원 거리측정 시스템 (3D Depth Measurement System based on Parameter Calibration of the Mu1ti-Sensors)

  • 김종만;김원섭;황종선;김영민
    • 한국전기전자재료학회:학술대회논문집
    • /
    • 한국전기전자재료학회 2006년도 영호남 합동 학술대회 및 춘계학술대회 논문집 센서 박막 기술교육
    • /
    • pp.125-129
    • /
    • 2006
  • The analysis of the depth measurement system with multi-sensors (laser, camera, mirror) has been done and the parameter calibration technique has been proposed. In the proposed depth measurement system, the laser beam is reflected to the object by the rotating mirror and again the position of the laser beam is observed through the same mirror by the camera. The depth of the object pointed by the laser beam is computed depending on the pixel position on the CCD. There involved several number of internal and external parameters such as inter-pixel distance, focal length, position and orientation of the system components in the depth measurement error. In this paper, it is shown through the error sensitivity analysis of the parameters that the most important parameters in the sense of error sources are the angle of the laser beam and the inter pixel distance.

  • PDF

Offline Camera Movement Tracking from Video Sequences

  • Dewi, Primastuti;Choi, Yeon-Seok;Cha, Eui-Young
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 춘계학술대회
    • /
    • pp.69-72
    • /
    • 2011
  • In this paper, we propose a method to track the movement of camera from the video sequences. This method is useful for video analysis and can be applied as pre-processing step in some application such as video stabilizer and marker-less augmented reality. First, we extract the features in each frame using corner point detection. The features in current frame are then compared with the features in the adjacent frames to calculate the optical flow which represents the relative movement of the camera. The optical flow is then analyzed to obtain camera movement parameter. The final step is camera movement estimation and correction to increase the accuracy. The method performance is verified by generating a 3D map of camera movement and embedding 3D object to the video. The demonstrated examples in this paper show that this method has a high accuracy and rarely produce any jitter.

  • PDF

효율적인 비디오 데이터베이스 구축을 위해 카메라와 객체 파라미터를 이용한 계층형 영상 모자이크 (A Hierarchical Image Mosaicing using Camera and Object Parameters for Efficient Video Database Construction)

  • 신성윤;이양원
    • 한국멀티미디어학회논문지
    • /
    • 제5권2호
    • /
    • pp.167-175
    • /
    • 2002
  • 모자이크 영상은 연관성 있는 비디오 프레임이나 정지 영상들을 합성하여 하나의 새로운 영상을 생성하는 것으로서 영상의 정렬, 통합 그리고 중복성에 대한 분석으로 수행된다. 본 논문에서는 효율적인 비디오 데이터 베이스 구축을 위하여 카메라와 객체 파라미터를 이용한 계층형 영상 모자이크 시스템을 제시한다. 모자이크 영상 생성의 빠른 계산 시간과 정적 및 동적 영상 모자이크 구축을 위하여 트리 기반 영상 모자이크 시스템을 구축한다. 카메라 파라미터를 측정하기 위하여 최소사각형 오류기법과 어파인 모델을 이용하였다. 객체의 추출을 위하여 차영상, 매크로 블록, 영역 분할과 4분할 탐색 기법들을 제시하여 사용하였다. 또한, 동적 객체 표현을 위하여 동적 궤도 표현 방법을 제시하였고, 완만한 모자이크 영상 생성을 위하여 블러링을 이용하였다.

  • PDF

컴퓨터 비젼 방법을 이용한 3차원 물체 위치 결정에 관한 연구 (A Study on the Determination of 3-D Object's Position Based on Computer Vision Method)

  • 김경석
    • 한국생산제조학회지
    • /
    • 제8권6호
    • /
    • pp.26-34
    • /
    • 1999
  • This study shows an alternative method for the determination of object's position, based on a computer vision method. This approach develops the vision system model to define the reciprocal relationship between the 3-D real space and 2-D image plane. The developed model involves the bilinear six-view parameters, which is estimated using the relationship between the camera space location and real coordinates of known position. Based on estimated parameters in independent cameras, the position of unknown object is accomplished using a sequential estimation scheme that permits data of unknown points in each of the 2-D image plane of cameras. This vision control methods the robust and reliable, which overcomes the difficulties of the conventional research such as precise calibration of the vision sensor, exact kinematic modeling of the robot, and correct knowledge of the relative positions and orientation of the robot and CCD camera. Finally, the developed vision control method is tested experimentally by performing determination of object position in the space using computer vision system. These results show the presented method is precise and compatible.

  • PDF

Calibration of the depth measurement system with a laser pointer, a camera and a plain mirror

  • Kim, Hyong-Suk;Lin, Chun-Shin;Gim, Seong-Chan;Chae, Hee-Sung
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1994-1998
    • /
    • 2005
  • Characteristic analysis of the depth measurement system with a laser, a camera and a rotating mirror has been done and the parameter calibration technique for it has been proposed. In the proposed depth measurement system, the laser beam is reflected to the object by the rotating mirror and again the position of the laser beam is observed through the same mirror by the camera. The depth of the object pointed by the laser beam is computed depending on the pixel position on the CCD. There involved several number of internal and external parameters such as inter-pixel distance, focal length, position and orientation of the system components in the depth measurement error. In this paper, it is shown through the error sensitivity analysis of the parameters that the most important parameters in the sense of error sources are the angle of the laser beam and the inter pixel distance. The calibration techniques to minimize the effect of such major parameters are proposed.

  • PDF

입체 카메라의 자동 초점 제어를 위한 웨이블릿 변환을 이용한 제어 변수 추출 (Control Parameter Extraction using Wavelet Transform for Auto-Focus Control of Stereo Camera)

  • 엄기문;허남호;김형남;조진호;이진환
    • 방송공학회논문지
    • /
    • 제5권2호
    • /
    • pp.239-246
    • /
    • 2000
  • 본 논문에서는 입체 카메라의 자동 초점 제어에 필요한 제어 변수 추출 방법을 제안한다. 일반적으로 카메라로 획득한 입체 영상에서 관심 있는 피사체가 영상의 중심부에 있다고 가정을 한다. 이 경우에 획득된 영상에서 특정한 크기의 중심 영역에 대해서만 2D 웨이블릿 변환을 한다. 변환을 거친 신호 중에서 고역 성분 (HH)에 대한 Ll Norm을 이용하여 필요한 초점제어 변수를 추출한다. 실험결과를 통해 제안된 방식이 기존의 DCT를 이용한 방식에 비해 입체카메라의 자동 초점 제어에 효과적으로 적용될 수 있음을 보인다.

  • PDF