• 제목/요약/키워드: 3D vision

검색결과 932건 처리시간 0.031초

기하학적 패턴 매칭을 이용한 3차원 비전 검사 알고리즘 (3D Vision Inspection Algorithm using Geometrical Pattern Matching Method)

  • 정철진;허경무;김장기
    • 제어로봇시스템학회논문지
    • /
    • 제10권1호
    • /
    • pp.54-59
    • /
    • 2004
  • We suggest a 3D vision inspection algorithm which is based on the external shape feature. Because many electronic parts have the regular shape, if we have the database of pattern and can recognize the object using the database of the object s pattern, we can inspect many types of electronic parts. Our proposed algorithm uses the geometrical pattern matching method and 3D database on the electronic parts. We applied our suggested algorithm fer inspecting several objects including typical IC and capacitor. Through the experiments, we could find that our suggested algorithm is more effective and more robust to the inspection environment(rotation angle, light source, etc.) than conventional 2D inspection methods. We also compared our suggested algorithm with the feature space trajectory method.

Anaglyph 3D입체 영상 시청 후의 시기능 변화 (Changes in Visual Function After Viewing an Anaglyph 3D Image)

  • 이욱진;곽호원;손정식;김인수;유동식
    • 한국안광학회지
    • /
    • 제16권2호
    • /
    • pp.179-186
    • /
    • 2011
  • 목적: Anaglyph 3D입체 영상 시청에서 나타나는 시기능 변화를 비교 평가하고자 하였다. 방법: 대학생 70명(평균나이 22.29${\pm}$2.19세)을 대상으로 2D영상과 적록안경방식의 anaglyph 3D영상 시청 전후의 시기능을 검사하였다. 시기능 평가는 von Graefe법을 이용한 사위 검사, (-)렌즈 부가법을 이용한 조절력 검사, 음성 및 양성상대조절력(negative relative accommodation, NRA; positive relative accommodation, PRA) 검사, 음성 및 양성상대폭주력(negative relative convergence, NRC; positive relative convergence, PRC) 검사, 조절용이성 및 이향용이성 검사로 하였다. 결과: 3D영상 시청 후의 시기능 평가에서 근거리의 외사위 감소와 조절력 감소를 보였고, 이와 관련하여 적은 변화이긴 하지만 근거리의 NRC는 증가하는 경향을, PRC는 감소하는 경향을 보였다. NRA와 PRA의 변화는 없었으며, 조절용이성과 이향용이성은 더 좋아진 것으로 확인되었다. 결론: 시기능 변화는 2D영상보다 3D영상 시청에서, 원거리보다 근거리에서 더 많은 변화를 보였으며, 특히 3D영상 시청 후의 조절용이성과 이향용이성 향상은 3D영상에서 입체감을 갖기 위한 조절과 이향의 지속적인 운동 효과와 관련이 있는 것으로 판단된다. 이러한 시기능 변화를 볼 때, anaglyph 3D영상이 anaglyph방식의 시기능 훈련과 같은 효과가 어느 정도 있는 것으로 본다.

삼차원 시각 자극을 이용한 f-MRI 연구 (f-MRI with Three-Dimensional Visual Stimulation)

  • 김치영;박호종;오승준;안창범
    • Investigative Magnetic Resonance Imaging
    • /
    • 제9권1호
    • /
    • pp.24-29
    • /
    • 2005
  • 목적 : 기존의 시각 자극과 관련한 뇌기능 연구가 일반적인 이차원 시각 자극을 이용한 데 반하여 본 논문에서는 삼차원 스트레오스코픽 비젼에 의한 시각 자극을 이용한 뇌기능 영상 연구를 수행하였다. 본 연구를 통하여 삼차원 시각처리와 관련한 뇌의 기능 영역 및 특징을 이차원 시각 자극 결과와 비교 검토하였다. 대상 및 방법 Anaglyph(이차원 그림을 칼라 코딩한 후 왼쪽과 오른쪽에 서로 다른 색깔의 렌즈를 사용하여 스트레오스코픽 비젼을 구현)를 이용하여 삼차원 시각 자극을 주었으며, 이와 비교를 위하여 동일한 영상으로 이차원 시각 자극을 구현하였다. 건강한 volunteer들에 대하여 삼차원 및 이차원 시각 자극에 대한 뇌기능 영상을 3.0 Tesla MRI 시스템에서 얻었다. 결과 : 삼차원 시각 자극에 의하여 활성화된 뇌의 영역은 이차원 시각 자극과 동일하게 후두엽으로 나타났으며, 삼차원 시각 자극에 의한 활성영역이 이차원 시각 자극에 의한 영역 보다 약 $18\%$ 더 넓게 나타났다. 결론 : 사람은 양 눈을 사용하여 삼차원 물체를 인식한다. 삼차원 물체 인식은 스테레오스코픽 비젼에 기인하는데, anaglyph 를 이용하여 삼차원 시각 자극에 대한 뇌기능 영상을 3.0 Tesla MRI 시스템에서 수행하였다. 삼차원 시각 자극에 의하여 활성화된 뇌의 영역은 이차원 시각 자극과 동일하게 후두엽으로 나타났으나, 활성영역이 이차원 자극에 비하여 약 $18\%$ 더 넓게 나타났다. 이것은 삼차원 영상 처리가 이차원 영상 처리에 비하여 왼쪽 영상과 오른쪽 영상의 차이에서 거리 정보를 추출하는 삼차원 시각 처리 기능이 추가됨에 따라 뇌의 처리 영역이 넓어진 것으로 판단된다. 이러한 삼차원 시각 자극 뇌기능 영상은 가상현실이나 3-D 디스플레이, 3-D 멀티미디어 콘텐츠 연구 등 다양한 분야에 활용될 수 있을 것으로 기대한다.

  • PDF

Object Recognition Using Planar Surface Segmentation and Stereo Vision

  • Kim, Do-Wan;Kim, Sung-Il;Won, Sang-Chul
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1920-1925
    • /
    • 2004
  • This paper describes a new method for 3D object recognition which used surface segment-based stereo vision. The position and orientation of an objects is identified accurately enabling a robot to pick up, even though the objects are multiple and partially occluded. The stereo vision is used to get the 3D information as 3D sensing, and CAD model with its post processing is used for building models. Matching is initially performed using the model and object features, and calculate roughly the object's position and orientation. Though the fine adjustment step, the accuracy of the position and orientation are improved.

  • PDF

3D object recognition using the CAD model and stereo vision

  • Kim, Sung-Il;Choi, Sung-Jun;Won, Sang-Chul
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.669-672
    • /
    • 2003
  • 3D object recognition is difficult but important in computer vision. The important thing is to understand about the relationship between a geometric structure in three dimensions and its image projection. Most 3D recognition systems construct models either manually or by training the pose and orientation of the objects. But both approaches are not satisfactory. In this paper, we focus on a commercial CAD model as a third type of model building for vision. The models are expressed in Initial Graphics Exchanges Specification(IGES) output and reconstructed in a pinhole camera coordinate.

  • PDF

빈피킹을 위한 스테레오 비전 기반의 제품 라벨의 3차원 자세 추정 (Stereo Vision-Based 3D Pose Estimation of Product Labels for Bin Picking)

  • 우다야 위제나야카;최성인;박순용
    • 제어로봇시스템학회논문지
    • /
    • 제22권1호
    • /
    • pp.8-16
    • /
    • 2016
  • In the field of computer vision and robotics, bin picking is an important application area in which object pose estimation is necessary. Different approaches, such as 2D feature tracking and 3D surface reconstruction, have been introduced to estimate the object pose accurately. We propose a new approach where we can use both 2D image features and 3D surface information to identify the target object and estimate its pose accurately. First, we introduce a label detection technique using Maximally Stable Extremal Regions (MSERs) where the label detection results are used to identify the target objects separately. Then, the 2D image features on the detected label areas are utilized to generate 3D surface information. Finally, we calculate the 3D position and the orientation of the target objects using the information of the 3D surface.

휴머노이드 로봇을 위한 비전기반 장애물 회피 시스템 개발 (Development of Vision based Autonomous Obstacle Avoidance System for a Humanoid Robot)

  • 강태구;김동원;박귀태
    • 전기학회논문지
    • /
    • 제60권1호
    • /
    • pp.161-166
    • /
    • 2011
  • This paper addresses the vision based autonomous walking control system. To handle the obstacles which exist beyond the field of view(FOV), we used the 3d panoramic depth image. Moreover, to decide the avoidance direction and walking motion of a humanoid robot for the obstacle avoidance by itself, we proposed the vision based path planning using 3d panoramic depth image. In the vision based path planning, the path and walking motion are decided under environment condition such as the size of obstacle and available avoidance space. The vision based path planning is applied to a humanoid robot, URIA. The results from these evaluations show that the proposed method can be effectively applied to decide the avoidance direction and the walking motion of a practical humanoid robot.

3D Robot Vision System using the Hierarchical Opto-Digital Algorithm

  • Ko, Jung-Hwan;Kim, Eun-Soo
    • 한국정보디스플레이학회:학술대회논문집
    • /
    • 한국정보디스플레이학회 2002년도 International Meeting on Information Display
    • /
    • pp.887-890
    • /
    • 2002
  • In this paper, a new 3D robot vision system using the hierarchical opto-digital algorithm is proposed and implemented. From some experimental results with the 20 frames of the stereo input image pairs, the proposed system is found to be able to effectively extract the area where the target object is located from the stereo input image regardless of the background noises.

  • PDF

어안 렌즈와 레이저 스캐너를 이용한 3차원 전방향 영상 SLAM (3D Omni-directional Vision SLAM using a Fisheye Lens Laser Scanner)

  • 최윤원;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제21권7호
    • /
    • pp.634-640
    • /
    • 2015
  • This paper proposes a novel three-dimensional mapping algorithm in Omni-Directional Vision SLAM based on a fisheye image and laser scanner data. The performance of SLAM has been improved by various estimation methods, sensors with multiple functions, or sensor fusion. Conventional 3D SLAM approaches which mainly employed RGB-D cameras to obtain depth information are not suitable for mobile robot applications because RGB-D camera system with multiple cameras have a greater size and slow processing time for the calculation of the depth information for omni-directional images. In this paper, we used a fisheye camera installed facing downwards and a two-dimensional laser scanner separate from the camera at a constant distance. We calculated fusion points from the plane coordinates of obstacles obtained by the information of the two-dimensional laser scanner and the outline of obstacles obtained by the omni-directional image sensor that can acquire surround view at the same time. The effectiveness of the proposed method is confirmed through comparison between maps obtained using the proposed algorithm and real maps.

2-D 슬리트광 비젼 센서를 이용한 물체의 자세측정 (The Position Estimation of a Body Using 2-D Slit Light Vision Sensors)

  • 김정관;한명철
    • 한국정밀공학회지
    • /
    • 제16권12호
    • /
    • pp.133-142
    • /
    • 1999
  • We introduce the algorithms of 2-D and 3-D position estimation using 2-D vision sensors. The sensors used in this research issue red laser slit light to the body. So, it is very convenient to obtain the coordinates of corner point or edge in sensor coordinate. Since the measured points are normally not fixed in the body coordinate, the additional conditions, that corner lines or edges are straight and fixed in the body coordinate, are used to find out the position and orientation of the body. In the case of 2-D motional body, we can find the solution analytically. But in the case of 3-D motional body, linearization technique and least mean squares method are used because of hard nonlinearity.

  • PDF