• 제목/요약/키워드: 3D Camera

검색결과 1,635건 처리시간 0.03초

CCD카메라와 레이저 센서를 조합한 지능형 로봇 빈-피킹에 관한 연구 (A Study on Intelligent Robot Bin-Picking System with CCD Camera and Laser Sensor)

  • 신찬배;김진대;이재원
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.231-233
    • /
    • 2007
  • In this paper we present a new visual approach for the robust bin-picking in a two-step concept for a vision driven automatic handling robot. The technology described here is based on two types of sensors: 3D laser scanner and CCD video camera. The geometry and pose(position and orientation) information of bin contents was reconstructed from the camera and laser sensor. these information can be employed to guide the robotic arm. A new thinning algorithm and constrained hough transform method is also explained in this paper. Consequently, the developed bin-picking demonstrate the successful operation with 3D hole object.

  • PDF

라인 스캔 카메라를 위한 저가형 시 균일 조명장치 구현 (Development of a Low-cost Lighting System for Line-acan Camera)

  • 김홍갑;김형석
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제49권5호
    • /
    • pp.235-240
    • /
    • 2000
  • A low cost lighting system for line-scan cameras has been developed with 3-phase power. When exposure time of line-scan camera is shorter than fluctuation period of illumination, the average gray value of each acquired 1-D image varies. Detecting defects on the objects's surface under such illuminating environment is very difficult. The proposed lighting system is composed of low-cost fluorescent lights based on 3-phase power. The specially designed lighting pack and the properly selected lighting position enable to get the rippleless lighting. The principle of the proposed lighting system has been explained analytically. The lighting system has been tested for fabric inspection with line-scan camera and it's efficacy has been proved.

  • PDF

2D-3D 정합기반 실제 제품의 사실적 3D 모델 생성 (Realistic 3D model generation of a real product based on 2D-3D registration)

  • 김강연;손성민
    • 한국산학기술학회논문지
    • /
    • 제14권11호
    • /
    • pp.5385-5391
    • /
    • 2013
  • 온라인을 기반한 제품의 구매가 활성화 됨에 따라, 소비자들의 제품 디자인에 대한 사실적이고 정확한 정보를 요구하고 있다. 본 연구에서는 제품의 형상정보(3D mesh)와 색/질감정보(image)를 이용하여 텍스쳐 맵핑된 실사적 3차원 모델을 생성하는 효율적인 방법을 제안한다. 3 차원 형상정보에 대응하는 이미지 상의 텍스쳐 좌표 관계를 구하기 위해 오브젝트 좌표계와 카메라 좌표계 사이의 변환행렬, 카메라의 초점거리, 카메라 CCD 와 프레임상의 이미지 사이의 종횡비를 파라미터로 하는 2D-3D 정합을 수행한다. 이러한 2D-3D 정합에 있어 발생하는 연산의 복잡도와 비선형도를 낮추기 위하여, 카메라 내부파라미터 검정단계, 임의의 회전행렬에 대한 임시적 최적 이동 벡터 (TOTV), 회전행렬에 대한 비선형 최적화 단계로 접근한다. 제안하는 방법의 유용성을 시현하기 위해 3차원 컬러 측정기로는 색외관을 획득하기 힘든 메탈릭 페인트 재질로 이루어진 제품에 적용한 구현결과를 보인다.

모델 기반 카메라 추적에서 3차원 객체 모델링의 허용 오차 범위 분석 (Tolerance Analysis on 3-D Object Modeling Errors in Model-Based Camera Tracking)

  • 이은주;서병국;박종일
    • 방송공학회논문지
    • /
    • 제18권1호
    • /
    • pp.1-9
    • /
    • 2013
  • 모델 기반 카메라 추적에서 추적을 위해 사용되는 3차원 객체 모델의 정확도는 매우 중요하다. 하지만 3차원 객체의 실측 모델링은 일반적으로 정교한 작업을 요구할 뿐만 아니라, 오차 없이 모델링하기가 매우 어렵다. 반면에 오차를 포함하고 있는 3차원 객체 모델을 이용하더라도 모델링 오차에 의해서 계산되는 추적 오차와 실제 사용자의 육안으로 느끼는 추적 오차는 다를 수 있다. 이는 처리비용이 높은 정밀한 모델링 과정을 요구하지 않더라도 사용자가 느끼는 오차 허용 범위 내에서 추적을 위한 객체 모델링을 효과적으로 수행할 수 있기에 중요한 측면이 된다. 따라서 본 논문에서는 모델 기반 카메라 추적에서 모델링 오차에 따른 실제 정합 오차와 사용자의 육안으로 인지되는 정합 오차를 사용자 평가를 통해 비교 분석하고, 3차원 객체 모델링의 허용 오차 범위에 대해 논의한다.

비디오 영상에서의 비보정 3차원 좌표 복원을 통한 가상 객체의 비디오 합성 (Video Augmentation of Virtual Object by Uncalibrated 3D Reconstruction from Video Frames)

  • 박종승;성미영
    • 한국멀티미디어학회논문지
    • /
    • 제9권4호
    • /
    • pp.421-433
    • /
    • 2006
  • 본 논문에서는 비디오에서 비보정 3차원 좌표의 복원과 카메라의 움직임 추정을 통하여 가상 객체를 비디오에 자연스럽게 합성하는 방법을 제안한다. 비디오의 장면에 부합되도록 가상 객체를 삽입하기 위해서는 장면의 상대적인 구조를 얻어야 하고 비디오 프레임의 흐름에 따른 카메라 움직임의 변화도 추정해야 한다. 먼저 특장점을 추적하고 비보정 절차를 수행하여 카메라 파라메터와 3차원 구조를 복원한다. 각 프레임에서 카메라 파라메터들을 고정시켜 촬영하고 이들 카메라 파라메터는 일정 프레임 동안 불변으로 가정하였다. 제안된 방법으로 세 프레임 이상에서 작은 수의 특징점 만으로도 올바른 3차원 구조를 얻을 수 있었다. 가상객체의 삽입 위치는 초기 프레임에서 특정 면의 모서리점의 대응점을 지정하여 결정한다. 가상 객체의 투사 영역을 계산하고 이 영역에 이음새가 없도록 텍스처를 혼합하여 가상객체와 비디오의 부자연스러운 합성 문제를 해결하였다. 제안 방법은 비보정 절차를 선형으로만 구현하여 기존의 방법에 비해서 안정성과 수행속도의 면에서 우수하다. 실제 비디오 스트림에 대한 다양한 실험을 수행한 결과 여러 증강현실 응용 시스템에 유용하게 사용될 수 있음을 입증하였다.

  • PDF

퍼지 모델을 이용한 카메라 보정에 관한 연구 (Camera Calibration Using the Fuzzy Model)

  • 박민기
    • 한국지능시스템학회논문지
    • /
    • 제11권5호
    • /
    • pp.413-418
    • /
    • 2001
  • 본 논문에서는 기존에 사용한 물리적 카메라 모델 대신 퍼지 모델을 사용한 새로운 카메라 보정 방식을 제안한다. 카메라 보정은 카메라의 영상 좌표계와 실제 환경이 가지는 좌표계와의 관계를 규정하는 것으로, 퍼지 모델을 이용하는 방법은 기존의 방법에서 이용했던 물리적 변수들을 설정할 수는 없지만 카메라 보정의 목적인 카메라 좌표계와 실제 환경 좌표계와의 관계를 별다른 제약없이 규정할 수 있으므로 매우 간단하고 효율적인 카메라 보정 방법이다. 실제 실험을 통해 얻은 실공간상의 하나의 보정면 좌표에 대해 퍼지 모델링 방법을 이용하여 3차원 실 공간 좌표 및 2차원 영상좌표 예측을 통해 제안한 방법의 유효성을 보인다.

  • PDF

카메라 보정을 이용한 텍스쳐 좌표 결정에 관한 연구 (Coordinate Determination for Texture Mapping using Camera Calibration Method)

  • 정관웅;이윤영;하성도;박세형;김재정
    • 한국CDE학회논문집
    • /
    • 제9권4호
    • /
    • pp.397-405
    • /
    • 2004
  • Texture mapping is the process of covering 3D models with texture images in order to increase the visual realism of the models. For proper mapping the coordinates of texture images need to coincide with those of the 3D models. When projective images from the camera are used as texture images, the texture image coordinates are defined by a camera calibration method. The texture image coordinates are determined by the relation between the coordinate systems of the camera image and the 3D object. With the projective camera images, the distortion effect caused by the camera lenses should be compensated in order to get accurate texture coordinates. The distortion effect problem has been dealt with iterative methods, where the camera calibration coefficients are computed first without considering the distortion effect and then modified properly. The methods not only cause to change the position of the camera perspective line in the image plane, but also require more control points. In this paper, a new iterative method is suggested for reducing the error by fixing the principal points in the image plane. The method considers the image distortion effect independently and fixes the values of correction coefficients, with which the distortion coefficients can be computed with fewer control points. It is shown that the camera distortion effects are compensated with fewer numbers of control points than the previous methods and the projective texture mapping results in more realistic image.

Enhanced Access Grid(e-AG)를 통한 3차원 미디어 공유 (Sharing 3D Media with Enhanced Access Grid(e-AG))

  • 이영호;오세찬;이석희;우운택
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 컴퓨터소사이어티 추계학술대회논문집
    • /
    • pp.107-110
    • /
    • 2003
  • In this paper, we propose sharing 3D media between multisite using enhanced Access Grid (e-AG) which is a composition of 3D display and Access Grld (AG) Conventional AG and other collaborative systems have a limitation to share immersive 3D media Thus, proposed system supports sharing 3D media contents in a AG meeting section. Real object can be shared by acquiring stereo image with pre-calibrated stereo camera and by delivering, and virtual object can be shared by transmitting state information after downloading 3D model. And also, real video scene acquired by stereo camera and virtual object from 3D model can be displayed on the 3D display system of each node adaptively. The characteristics of proposed sharing method are sharing 3D media, displaying 3D media on a system adaptively, supporting real-time interaction. The proposed sharing method will be used remote lecture, remote collaboration with 3D media.

  • PDF

멀티뷰 카메라를 사용한 외부 카메라 보정 (Extrinsic calibration using a multi-view camera)

  • 김기영;김세환;박종일;우운택
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 신호처리소사이어티 추계학술대회 논문집
    • /
    • pp.187-190
    • /
    • 2003
  • In this paper, we propose an extrinsic calibration method for a multi-view camera to get an optimal pose in 3D space. Conventional calibration algorithms do not guarantee the calibration accuracy at a mid/long distance because pixel errors increase as the distance between camera and pattern goes far. To compensate for the calibration errors, firstly, we apply the Tsai's algorithm to each lens so that we obtain initial extrinsic parameters Then, we estimate extrinsic parameters by using distance vectors obtained from structural cues of a multi-view camera. After we get the estimated extrinsic parameters of each lens, we carry out a non-linear optimization using the relationship between camera coordinate and world coordinate iteratively. The optimal camera parameters can be used in generating 3D panoramic virtual environment and supporting AR applications.

  • PDF

On Design of Visual Servoing using an Uncalibrated Camera and a Calibrated Robot

  • Uchikado, Shigeru;Morita, Masahiko;Osa, Yasuhiro;Mabuchi, Tesuo;Tanya, Kanya
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.23.2-23
    • /
    • 2001
  • In this paper we deal with visual servoing that can control a robot arm with a camera using information of images only, without estimating 3D position and rotation of the robot arm. Here it is assumed that the robot arm is calibrated and the camera is uncalibrated. We use a pinhole camera model as the camera one. The essential notion can be show, that is, epipolar geometry, epipole, epipolar equation, and epipolar constrain. These play an important role in designing visual servoing. For easy understanding of the proposed method we first show a design in case of the calibrated camera. The design is constructed by 4 steps and the directional motion of the robot arm is fixed only to a constant direction. This means that an estimated epipole denotes the direction, to which the robot arm translates in 3D space, on the image plane.

  • PDF