• 제목/요약/키워드: 3D Camera

검색결과 1,635건 처리시간 0.032초

3차원 로봇 레이저 스캐닝 시스템의 모델링과 캘리브레이션 (Modeling and Calibration of a 3D Robot Laser Scanning System)

  • 이종광;윤지섭;강이석
    • 제어로봇시스템학회논문지
    • /
    • 제11권1호
    • /
    • pp.34-40
    • /
    • 2005
  • In this paper, we describe the modeling for the 3D robot laser scanning system consisting of a laser stripe projector, camera, and 5-DOF robot and propose its calibration method. Nonlinear radial distortion in the camera model is considered for improving the calibration accuracy. The 3D range data is calculated using the optical triangulation principle which uses the geometrical relationship between the camera and the laser stripe plane. For optimal estimation of the system model parameters, real-coded genetic algorithm is applied in the calibration process. Experimental results show that the constructed system is able to measure the 3D position within about 1mm error. The proposed scheme could be applied to the kinematically dissimilar robot system without losing the generality and has a potential for recognition for the unknown environment.

웹 기반 로봇 시뮬레이터 (A Web-Based Robot Simulator)

  • 홍순혁;이상현;전재욱;윤지섭
    • 제어로봇시스템학회논문지
    • /
    • 제7권3호
    • /
    • pp.255-262
    • /
    • 2001
  • According to the advancement of web related technologies, many works on robots using these technologies, called web-based robots enables sharing of expensive equipments as well as control of remote robots. But none of the existing methods about web-based robots in-clude robot simulators in their web browser, which transfer appropriate information of a remote place to the local users. In this paper, a web-based robot simulator is proposed and developed to control a remote robot by using the web. The proposed simulator can transfer the 3D information about the remote robot to the local users by using 3D graphics, which has not been previously developed. Also, it sends the camera image of a remote place to the local users so that the users can use this camera image as well as 3D information in order to control the remote robot.

  • PDF

카메라 재투영 오차로부터 중요영상 선택을 이용한 3차원 재구성 (3D Reconstruction using the Key-frame Selection from Reprojection Error)

  • 서융호;김상훈;최종수
    • 대한전자공학회논문지SP
    • /
    • 제45권1호
    • /
    • pp.38-46
    • /
    • 2008
  • 중요영상 선택 알고리즘은 다수의 비교정 영상으로부터 3차원 재구성을 위해 필수 영상을 선택하는 과정이다. 또한 3차원 재구성을 위해 영상들 사이의 카메라 자동교정(auto-calibration)이 필수적이다. 본 논문은 재구성 오차를 최대한 줄이는 최적의 영상을 선택하는 중요영상 선택 알고리즘을 제안한다. 선택된 중요영상들 사이의 카메라 투영행렬은 카메라 전자동교정(full-auto-calibration)과정을 통하여 추정한다. 정확하게 추정된 카메라 투영행렬로부터 대수학적 유도를 이용하여 기본행렬(fundamental matrix)을 계산하고, 이로부터 잘못된 대응점들을 제거하여 최종적으로 3차원 데이터를 얻는다. 실험 결과는 제안한 중요영상 선택 알고리즘이 다른 알고리즘에 비해 적은 시간이 소요되며, 재구성된 3차원 데이터의 오차가 가장 작았다. 대수학적 유도로부터 얻어낸 기본행렬은 다른 알고리즘에 비해 매우 짧은 시간이 소요 되며 평균 오차는 비슷한 결과를 갖는다.

Camera Imaging Lens Fabrication using Wafer-Scale UV Embossing Process

  • Jeong, Ho-Seop;Kim, Sung-Hwa;Shin, Dong-Ik;Lee, Seok-Cheon;Jin, Young-Su;Noh, Jung-Eun;Oh, Hye-Ran;Lee, Ki-Un;Song, Seok-Ho;Park, Woo-Je
    • Journal of the Optical Society of Korea
    • /
    • 제10권3호
    • /
    • pp.124-129
    • /
    • 2006
  • We have developed a compact and cost-effective camera module on the basis of wafer-scale-replica processing. A multiple-layered structure of several aspheric lenses in a mobile-phone camera module is first assembled by bonding multiple glass-wafers on which 2-dimensional replica arrays of identical aspheric lenses are UV-embossed, followed by dicing the stacked wafers and packaging them with image sensor chips. This wafer-scale processing leads to at least 95% yield in mass-production, and potentially to a very slim phone with camera-module less than 2 mm in thickness. We have demonstrated a VGA camera module fabricated by the wafer-scale-replica processing with various UV-curable polymers having refractive indices between 1.4 and 1.6, and with three different glass-wafers of which both surfaces are embossed as aspheric lenses having $230{\mu}m$ sag-height and aspheric-coefficients of lens polynomials up to tenth-order. We have found that precise compensation in material shrinkage of the polymer materials is one of the most technical challenges, in orderto achieve a higher resolution in wafer-scaled lenses for mobile-phone camera modules.

대면적 대상물 변위계측을 위한 스테레오 카메라 3차원 DIC 시스템 기초설계 및 검증에 관한 연구 (Design and Verification of 3D Digital Image Correlation Systems for Measurement of Large Object Displacement Using Stereo Camera)

  • 고영훈;서승환;임현성;김태렬;정문경
    • 화약ㆍ발파
    • /
    • 제38권2호
    • /
    • pp.1-12
    • /
    • 2020
  • 이미지 영상 상관법(DIC)은 대상물의 변위, 변형을 측정하기 위해 잘 확립된 방법이라 할 수 있다. 스테레오 카메라를 이용한 3차원 DIC 시스템은 기계산업 분야에서 재료의 변형 등을 측정하기 위해서 개발된 방법이다. 3차원 DIC 시스템을 지반 및 구조물의 변위측정 등을 위해 적용하는 부분에서의 문제는 대상물의 면적이 매우 크다는 것이 중요한 해결사항이다. DIC 알고리즘에는 대상 영역(FOV)에 대한 스케일링 기능이 있지만, 단일 카메라 시스템으로는 높은 정밀도의 시스템을 구현할 수 없다. 본 연구에서는 설정 대상물 면적(30m×20m)에서 0.5mm의 z변위 정밀도로 측정 할 수 있는 3차원 DIC 시스템의 스테레오 비전 조건을 실험을 통하여 제시하였다.

2차원 영상 정보를 이용한 3차원 위치 측정 알고리즘 개발 (Development of a 3-D Position Measurement Algorithm using 2-D Image Information)

  • 이준호;정성호;김동현
    • 한국기계가공학회지
    • /
    • 제12권5호
    • /
    • pp.141-148
    • /
    • 2013
  • There are several problems in the conventional 2-D image processing and 3-D measurement systems. In the case of the 2-D image processing system, it is not possible to detect elevation data. In a 3-D measurement system, it requires a skillful operator and a lot of time for measuring data. Also, there exist data errors depending on operators. The limitation of detecting elevation data in the 2-D image processing system can be solved by laser diodes. In this study an algorithm that measures the accurate data in a subject face to be detected by combining laser diodes and a commercial CCD camera is developed. In the development process, a planar equation is developed using laser diodes and the equation is used to obtain a normal vector. Based on the results, an algorithm that transforms commercial CCD camera coordinates to 3-D coordinates is proposed. The completed measurement method will be applied to replace a manual measurement system for vehicle bodies and parts by an automated system.

깊이 영상 카메라로부터 획득된 3D 영상의 품질 향상 방법 (A method of improving the quality of 3D images acquired from RGB-depth camera)

  • 박병서;김동욱;서영호
    • 한국정보통신학회논문지
    • /
    • 제25권5호
    • /
    • pp.637-644
    • /
    • 2021
  • 일반적으로, 컴퓨터 비전, 로보틱스, 증강현실 분야에서 3차원 공간 및 3차원 객체 검출 및 인식기술의 중요성이 대두되고 있다. 특히, 마이크로소프트사의 키넥트(Microsoft Kinect) 방식을 사용하는 영상 센서를 통하여 RGB 영상과 깊이 영상을 실시간 획득하는 것이 가능해짐으로 인하여 객체 검출, 추적 및 인식 연구에 많은 변화를 가져오고 있다. 본 논문에서는 다시점 카메라 시스템 상에서의 깊이 기반(RGB-Depth) 카메라를 통해 획득된 영상을 처리하여 3D 복원 영상의 품질을 향상하는 방법을 제안한다. 본 논문에서는 컬러 영상으로부터 획득한 마스크 적용을 통해 객체 바깥쪽 잡음을 제거하는 방법과 객체 안쪽의 픽셀 간 깊이 정보 차이를 구하는 필터링 연산을 결합하여 적용하는 방법을 제시하였다. 각 실험 결과를 통해 제시한 방법이 효과적으로 잡음을 제거하여 3D 복원 영상의 품질을 향상할 수 있음을 확인하였다.

MOBA 게임 카메라 밸런스 개선을 위한 영향요소 분석 - 중심으로 (Study on Influencing Factors of Camera Balance in MOBA Games - Focused on )

  • 이정;조동민
    • 한국멀티미디어학회논문지
    • /
    • 제23권12호
    • /
    • pp.1565-1575
    • /
    • 2020
  • This study examines the game balance of the MOBA game genre, which was selected as a model item for the Asian Games. The "bird-eye view" was used for a more efficient representation of 3D modeling. Based on that, statistical analysis was conducted to present appropriate game camera settings and camera balance to match the competitive structure of the MOBA game. A review of the game camera settings reveals that 64° to 70° is the angle that minimizes the difference in vision between the two-player teams the most. Through a one-way ANOVA analysis, we found that the user ranking level and SVB value are closely related. Therefore, the factor of the regression equation using the SVB value must have a user ranking level. As a result of the optimized camera focus analysis of , the camera setting methods were classified into 3 types. For main action games, the recommended camera angle is 64°~66°, and the recommended camera focus is 11.2 mm~19.3 mm. For action and strategy games, the camera angle is 66°~68°, camera focus - 19.3 mm~27.3 mm. And lastly, for the main strategy game, the recommended camera angle is 68°~70°, and the camera focus is 27.3 mm~35.3 mm.

3차원 환경 복원을 위한 다수 카메라 최적 배치 학습 기법 (Optimal Camera Placement Leaning of Multiple Cameras for 3D Environment Reconstruction)

  • 김주환;조동식
    • 스마트미디어저널
    • /
    • 제11권9호
    • /
    • pp.75-80
    • /
    • 2022
  • 최근 현실감 있는 경험을 제공하기 위한 몰입형 가상현실(VR) 기술에 대한 연구 개발이 활발하게 진행되고 있다. 가상현실 참여자에게 실제와 유사한 실감적인 가상현실 체험을 제공하기 위해서는 실제 현실 공간에 존재하는 환경 및 객체의 정보를 정밀하게 캡처 및 복원하여 가상 환경 시스템의 모델 데이터로 적용한 시스템 구성이 필요하다. 이러한 가상 환경 구성에 필요한 실 데이터를 획득하기 위해서는 다수의 비정형 카메라를 활용한 셋업으로 이루어진다. 하지만, 다수의 비정형 위치의 카메라를 활용해 실제 공간에서의 3차원으로 구성된 정보를 획득할 경우 카메라의 개수 및 위치가 최적화되지 않아 복원의 오류가 발생할 수 있다. 또한, 정밀한 객체 복원을 위해 과도한 양의 비정형 카메라가 배치될 경우 비정형 카메라 배치에 따른 자원의 낭비 또한 발생할 수 있어 적절한 개수의 비정형 카메라가 배치되어야 한다. 본 논문에서는 3차원 공간 데이터를 복원 시 필요한 정보를 얻기 위해 배치되는 다수의 비정형 카메라를 최적화할 수 있는 최적 카메라 배치(Optimal Camera Placement) 학습 기법을 제안한다. 본 논문에서 제안한 방법을 통해 실제 환경 정보 획득 시 정확한 형태의 복원 데이터를 이용하여 가상 환경을 생성하고, 더욱 몰입도 높은 실감형 콘텐츠 시스템을 사용자에게 제공할 수 있다.

자율주행을 위한 센서 데이터 융합 기반의 맵 생성 (Map Building Based on Sensor Fusion for Autonomous Vehicle)

  • 강민성;허수정;박익현;박용완
    • 한국자동차공학회논문집
    • /
    • 제22권6호
    • /
    • pp.14-22
    • /
    • 2014
  • An autonomous vehicle requires a technology of generating maps by recognizing surrounding environment. The recognition of the vehicle's environment can be achieved by using distance information from a 2D laser scanner and color information from a camera. Such sensor information is used to generate 2D or 3D maps. A 2D map is used mostly for generating routs, because it contains information only about a section. In contrast, a 3D map involves height values also, and therefore can be used not only for generating routs but also for finding out vehicle accessible space. Nevertheless, an autonomous vehicle using 3D maps has difficulty in recognizing environment in real time. Accordingly, this paper proposes the technology for generating 2D maps that guarantee real-time recognition. The proposed technology uses only the color information obtained by removing height values from 3D maps generated based on the fusion of 2D laser scanner and camera data.