• Title/Summary/Keyword: 3차원 비전

Search Result 266, Processing Time 0.034 seconds

LabVIEW using PC-based three dimensional machine vision-based inspection system research and development of the PCB substrate (LabVIEW를 이용한 PC 기반의 머신 비전 PCB기판 부품 검사 3차원 시스템 연구)

  • Sin, Dong-Min;HwangBo, Seong
    • Proceedings of the KIEE Conference
    • /
    • 2009.07a
    • /
    • pp.1739_1740
    • /
    • 2009
  • 인간의 몸의 값이 1000냥이라고 하면 그중의 눈의 값은 900냥이라는 말이 있다. 그만큼 눈이 차지하는 즉 시각이 차지하는 비중이 매우 크다고 할 수가 있겠다. 또한 하등동물보다 고등동물로 진화해갈수록 시각의 활용도가 높아지는 것과 같이 각종 기계에 있어서도 자동화가 진전될수록 머신비전(Machine Vision)기술의 의존도 또한 높아지게 되었다. 따라서 산업이 발전함에 따라 머신 비전의 기술은 여러 분야에 걸쳐 요구되고, 연구가 활발히 진행되고 있다. 하지만 기존의 패키지 형식의 머신 비전 시스템은 산업 현장에 적용하는데 가격이 비싸고, 인터페이스 문제, 환경이나 필요조건 및 요구에 의한 시스템의 대처능력이 떨어지는 문제 등을 가지고 있다. 이러한 문제를 해결하기 위한 PC 기반의 머신비젼 시스템에 관한 연구가 필수적일 수 있다. 이러한 점을 궁극적인 목표로 설정하고 본 연구는 산업현장에 적용할 수 있는 머신 비전 시스템의 최적화 설계 에 대한 기술을 연구하였다.

  • PDF

Estimation of the Dimensions of Horticultural Products and the Mean Plant Height of Plug Seedlings Using Three-Dimensional Images (3차원 영상을 이용한 원예산물의 크기와 플러그묘의 평균초장 추정)

  • Jang, Dong Hwa;Kim, Hyeon Tae;Kim, Yong Hyeon
    • Journal of Bio-Environment Control
    • /
    • v.28 no.4
    • /
    • pp.358-365
    • /
    • 2019
  • This study was conducted to estimate the dimensions of horticultural products and the mean plant height of plug seedlings using three-dimensional (3D) images. Two types of camera, a ToF camera and a stereo-vision camera, were used to acquire 3D images for horticultural products and plug seedlings. The errors calculated from the ToF images for dimensions of horticultural products and mean height of plug seedlings were lower than those predicted from stereo-vision images. A new indicator was defined for determining the mean plant height of plug seedlings. Except for watermelon with tap, the errors of circumference and height of horticultural products were 0.0-3.0% and 0.0-4.7%, respectively. Also, the error of mean plant height for plug seedlings was 0.0-5.5%. The results revealed that 3D images can be utilized to estimate accurately the dimensions of horticultural products and the plant height of plug seedlings. Moreover, our method is potentially applicable for segmenting objects and for removing outliers from the point cloud data based on the 3D images of horticultural crops.

Vision-based Camera Localization using DEM and Mountain Image (DEM과 산영상을 이용한 비전기반 카메라 위치인식)

  • Cha Jeong-Hee
    • Journal of the Korea Society of Computer and Information
    • /
    • v.10 no.6 s.38
    • /
    • pp.177-186
    • /
    • 2005
  • In this Paper. we propose vision-based camera localization technique using 3D information which is created by mapping of DEM and mountain image. Typically, image features for localization have drawbacks, it is variable to camera viewpoint and after time information quantify increases . In this paper, we extract invariance features of geometry which is irrelevant to camera viewpoint and estimate camera extrinsic Parameter through accurate corresponding Points matching by Proposed similarity evaluation function and Graham search method we also propose 3D information creation method by using graphic theory and visual clues, The Proposed method has the three following stages; point features invariance vector extraction, 3D information creation, camera extrinsic Parameter estimation. In the experiments, we compare and analyse the proposed method with existing methods to demonstrate the superiority of the proposed methods.

  • PDF

Vision-based Obstacle Detection using Geometric Analysis (기하학적 해석을 이용한 비전 기반의 장애물 검출)

  • Lee Jong-Shill;Lee Eung-Hyuk;Kim In-Young;Kim Sun-I.
    • Journal of the Institute of Electronics Engineers of Korea SC
    • /
    • v.43 no.3 s.309
    • /
    • pp.8-15
    • /
    • 2006
  • Obstacle detection is an important task for many mobile robot applications. The methods using stereo vision and optical flow are computationally expensive. Therefore, this paper presents a vision-based obstacle detection method using only two view images. The method uses a single passive camera and odometry, performs in real-time. The proposed method is an obstacle detection method using 3D reconstruction from taro views. Processing begins with feature extraction for each input image using Dr. Lowe's SIFT(Scale Invariant Feature Transform) and establish the correspondence of features across input images. Using extrinsic camera rotation and translation matrix which is provided by odometry, we could calculate the 3D position of these corresponding points by triangulation. The results of triangulation are partial 3D reconstruction for obstacles. The proposed method has been tested successfully on an indoor mobile robot and is able to detect obstacles at 75msec.

Recent Trends and Analysis on AR Technology - Focused on 3D Object Tracking Methods - (증강현실 기술 최근 동향 및 분석 - 3차원 객체 추적 기술을 중심으로 -)

  • Park, Hanhoon;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.06a
    • /
    • pp.299-300
    • /
    • 2018
  • 최근 증강현실(augmented reality) 기술이 큰 주목을 받고 있다. 스마트폰, HMD 등과 같은 모바일 기기의 성능 향상 및 위치 기반 서비스의 보편화로 인해 증강현실 기술의 유용성을 입증하는 다양한 응용 분야들이 소개되고 있다. 증강현실은 기본적으로 현실세계에 가상의 디지털 콘텐츠를 자연스럽게 병치하여 인간의 감각과 인식을 확장시키는 실감미디어 기술이다. 증강현실을 구현하기 위해서는 사용자나 현실세계의 상황을 파악하고 인지하기 위한 컴퓨터 비전 기술, 가상의 디지털 콘텐츠를 생성하고 렌더링하기 위한 컴퓨터 그래픽스 기술, 증강현실 콘텐츠와 상호작용하기 위한 상호작용 기술, 사용자 중심의 증강현실 프로그램 개발을 지원하기 위한 저작 기술 등 다양한 요소 기술들을 필요로 한다. 본 논문에서는 컴퓨터 비전 기술 중의 하나로 객체의 3차원 움직임(포즈 변화)을 추적하기 위한 방법들의 최신 동향을 간략하게 분석하고, 향후 발전 방향에 대해 전망해 본다.

  • PDF

Real-time Expression Control of Vision Based 3 Dimensional Face Model (비전 기반 3차원 얼굴 모델의 실시간 표정 제어)

  • 김정기;민경필;전준철
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10b
    • /
    • pp.748-750
    • /
    • 2004
  • 본 논문은 연속적으로 입력되는 2차원 얼굴 영상에서 얼굴의 특징 영역들을 추출하여 3차원 얼굴 모델의 표정을 실시간으로 제어하는 방법에 관한 연구이다. 2차원 얼굴 영상에서 얼굴을 추출하기 위해 Hue, Saturation 색상 값을 사용하며, 두 가지 색상 값을 이용하여 피부색과 배경색을 분리함으로써 얼굴 영역을 추출 할 수 있다. 추출 된 얼굴에서 특징 영역인 눈 코, 입술 영역 등의 일지를 각각의 영역에 적합한 추출 방법을 이용하여 추출한 뒤, 프레임 별로 영역들의 움직임을 비교함으로써 영역의 움직임 정보를 획득 할 수 있다. 이 정보를 3차원 얼굴 모델에 적용하여 2차원 동영상에서 획득된 대상의 얼굴의 표정을 3차원 얼굴 모델에 실시간으로 표현 할 수 있도록 한다.

  • PDF

An Optimal Position and Orientation of Stereo Camera (스테레오 카메라의 최적 위치 및 방향)

  • Choi, Hyeung-Sik;Kim, Hwan-Sung;Shin, Hee-Young;Jung, Sung-Hun
    • Journal of Advanced Navigation Technology
    • /
    • v.17 no.3
    • /
    • pp.354-360
    • /
    • 2013
  • A stereo vision analysis was performed for motion and depth control of unmanned vehicles. In stereo vision, the depth information in three-dimensional coordinates can be obtained by triangulation after identifying points between the stereo image. However, there are always triangulation errors due to several reasons. Such errors in the vision triangulation can be alleviated by careful arrangement of the camera position and orientation. In this paper, an approach to the determination of the optimal position and orientation of camera is presented for unmanned vehicles.

Markerless Image-to-Patient Registration Using Stereo Vision : Comparison of Registration Accuracy by Feature Selection Method and Location of Stereo Bision System (스테레오 비전을 이용한 마커리스 정합 : 특징점 추출 방법과 스테레오 비전의 위치에 따른 정합 정확도 평가)

  • Joo, Subin;Mun, Joung-Hwan;Shin, Ki-Young
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.53 no.1
    • /
    • pp.118-125
    • /
    • 2016
  • This study evaluates the performance of image to patient registration algorithm by using stereo vision and CT image for facial region surgical navigation. For the process of image to patient registration, feature extraction and 3D coordinate calculation are conducted, and then 3D CT image to 3D coordinate registration is conducted. Of the five combinations that can be generated by using three facial feature extraction methods and three registration methods on stereo vision image, this study evaluates the one with the highest registration accuracy. In addition, image to patient registration accuracy was compared by changing the facial rotation angle. As a result of the experiment, it turned out that when the facial rotation angle is within 20 degrees, registration using Active Appearance Model and Pseudo Inverse Matching has the highest accuracy, and when the facial rotation angle is over 20 degrees, registration using Speeded Up Robust Features and Iterative Closest Point has the highest accuracy. These results indicate that, Active Appearance Model and Pseudo Inverse Matching methods should be used in order to reduce registration error when the facial rotation angle is within 20 degrees, and Speeded Up Robust Features and Iterative Closest Point methods should be used when the facial rotation angle is over 20 degrees.