• 제목/요약/키워드: Focal point position

검색결과 38건 처리시간 0.029초

Self-calibration의 초점 거리 추정에서 특징점 위치의 영향 (Impact of Feature Positions on Focal Length Estimation of Self-Calibration)

  • 홍유정;이병욱
    • 한국통신학회논문지
    • /
    • 제31권4C호
    • /
    • pp.400-406
    • /
    • 2006
  • 3차원 정보 복원이나 형상 복원, 가상 물체 삽입 등의 과정을 수행하기 위해서는 영상 촬영에 사용된 카메라의 위치와 방향, 그리고 초점 거리 등의 변수가 필요하다. 본 논문에서는 이차원 영상간의 대응관계를 이용하여 카메라 내부 변수인 초점 거리를 추정하는 셀프 캘리브레이션(self-calibration) 과정에서 특징점의 위치가 초점 거리 추정에 미치는 영향을 분석하였다. 캘리브레이션에 사용하는 특징점과 주점과의 거리에 따라 초점 거리 추정 결과에 미치는 영향을 시뮬레이션을 통하여 검증하고, 이를 바탕으로 오차 민감도를 줄일 수 있는 특징점 선택 방법을 제안한다.

Absolute Depth Estimation Based on a Sharpness-assessment Algorithm for a Camera with an Asymmetric Aperture

  • Kim, Beomjun;Heo, Daerak;Moon, Woonchan;Hahn, Joonku
    • Current Optics and Photonics
    • /
    • 제5권5호
    • /
    • pp.514-523
    • /
    • 2021
  • Methods for absolute depth estimation have received lots of interest, and most algorithms are concerned about how to minimize the difference between an input defocused image and an estimated defocused image. These approaches may increase the complexity of the algorithms to calculate the defocused image from the estimation of the focused image. In this paper, we present a new method to recover depth of scene based on a sharpness-assessment algorithm. The proposed algorithm estimates the depth of scene by calculating the sharpness of deconvolved images with a specific point-spread function (PSF). While most depth estimation studies evaluate depth of the scene only behind a focal plane, the proposed method evaluates a broad depth range both nearer and farther than the focal plane. This is accomplished using an asymmetric aperture, so the PSF at a position nearer than the focal plane is different from that at a position farther than the focal plane. From the image taken with a focal plane of 160 cm, the depth of object over the broad range from 60 to 350 cm is estimated at 10 cm resolution. With an asymmetric aperture, we demonstrate the feasibility of the sharpness-assessment algorithm to recover absolute depth of scene from a single defocused image.

태양열 집광기의 초점 지역에 형성된 플럭스 밀도 분포의 특성 (An Experimental Study on the Characteristics of Flux Density Distributions in the Focal Region of a Solar Concentrator)

  • 현성택;강용혁;윤환기;유창균;강명철
    • 한국태양에너지학회 논문집
    • /
    • 제22권3호
    • /
    • pp.31-37
    • /
    • 2002
  • This experimental study represents the results of an analysis on the characteristics of flux density distributions in the focal region of solar concentrator. The characteristics of flux density distributions are investigated to optimally design and position a cavity receiver. This deemed very useful to find and correct various errors associated with a dish concentrator. We estimated the flux density distribution on the target placed along with focal lengths from the dish vertex to experimentally determine the focal length. It is observed that the actual focal point exists when the focal length is 2.17 m. We also evaluated the position of flux centroid, and it was found that there were errors within 2 cm from the target center. The total integrated power of 2467 W was measured under focal flux distributions, which corresponds to the intercept rate of 85.8%. As a result of the percent power within radius, approximately 90% of the incident radiation is intercepted by about 0.06 m radius.

단일 비전에서 칼만 필티와 차선 검출 필터를 이용한 모빌 로봇 주행 위치.자세 계측 제어에 관한 연구 (A Study on Measurement and Control of position and pose of Mobile Robot using Ka13nan Filter and using lane detecting filter in monocular Vision)

  • 이용구;송현승;노도환
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2000년도 제15차 학술회의논문집
    • /
    • pp.81-81
    • /
    • 2000
  • We use camera to apply human vision system in measurement. To do that, we need to know about camera parameters. The camera parameters are consisted of internal parameters and external parameters. we can fix scale factor&focal length in internal parameters, we can acquire external parameters. And we want to use these parameters in automatically driven vehicle by using camera. When we observe an camera parameters in respect with that the external parameters are important parameters. We can acquire external parameter as fixing focal length&scale factor. To get lane coordinate in image, we propose a lane detection filter. After searching lanes, we can seek vanishing point. And then y-axis seek y-sxis rotation component(${\beta}$). By using these parameter, we can find x-axis translation component(Xo). Before we make stepping motor rotate to be y-axis rotation component(${\beta}$), '0', we estimate image coordinates of lane at (t+1). Using this point, we apply this system to Kalman filter. And then we calculate to new parameters whick make minimum error.

  • PDF

태양열 집광기의 플럭스 밀도 분포 특성에 관한 연구 (An Experimental Study on the Characteristics of Flux Density Distributions produced by Solar Concentrating System)

  • 강명철;강용혁;윤환기;유창균
    • 한국신재생에너지학회:학술대회논문집
    • /
    • 한국신재생에너지학회 2005년도 춘계학술대회
    • /
    • pp.422-426
    • /
    • 2005
  • This experimental study represents the results of an analysis on the characteristics of flux density distribution in the focal region of solar concentrator. The characteristics of flux density distributions are investigated to optimally design and position a cavity receiver. This was deemed very useful to find and correct various errors associated with a dish concentrator. We estimated the flux density distribution on the target placed along with focal lengths from the dish vertex to experimentally determine the focal length. It is observed that the actual focal point exists when the focal length is 2.17m. The total integrated power and percent power was 2467W and $85.8\%$, respectively, in the case of small dish, and also 2095W and $79\%$, respectively, in the case of KIERDISH II. As a result of the percent power within radius, approximately $90\%$ of the incident radiation is intercepted by about 0.06 m radius. The minimum radius of receiver in KIERDISH II is found to be 0.15m and approximately $90\%$ of the incident radiation is intercepted by receiver aperture.

  • PDF

압전식 충격파 체외 쇄석기 사용시 초점위치에 의한 대상물의 진동과 파쇄효율과의 상관성 (The Relativity between Vibration of Phantom and Its Break Efficiency Due to Position of Focus Induced by Piezoelectric Extracorporeal Shock Wave Lithotripter)

  • 장윤석
    • 한국음향학회지
    • /
    • 제19권5호
    • /
    • pp.35-40
    • /
    • 2000
  • 본 연구에서는 먼저 압전형 쇄석기에 의한 충격파 조사시에 발생하는 파쇄대상물의 진동과 그 때 들려오는 방사음과의 관계에 대하여 검토한다. 다음에 대상물에 있어서의 초점위치와 고유진동과의 관계에 대해서도 조사한 결과를 제시한다. 아울러 동일한 실험을 파쇄가능한 대상물에 시행하여 대상물의 진동과 그 파쇄효율과의 관계에 대해서도 실험적으로 검토한다. 그 결과, 초점위치에 따른 대상물 고유진동의 피크 주파수 파워와 파쇄효율과의 상관성을 명확히 확인할 수 있었다.

  • PDF

변형된 삼각 및 마하젠더 간섭계 기반의 인코히어런트 홀로그래픽 3D 디스플레이 시스템의 광학적 구현 (Optical Implementation of Incoherent Holographic 3D Display System using Modified Triangular and Mach-Zehender Interferometer)

  • 김승철;구정식;김은수
    • 한국통신학회논문지
    • /
    • 제29권4C호
    • /
    • pp.524-532
    • /
    • 2004
  • 본 논문에서는 변형된 삼각 및 마하젠더 간섭계를 이용한 인코히어런트 홀로그래픽 3D 디스플레이 시스템의 광 입출력 장치를 구현하고 실험하였다. 먼저, 변형된 삼각 간섭계 기반의 광 입력장치를 구성하여 3차원 물체에 대한 인코히어런트 복소 홀로그램을 생성하고, LCD 공간광변조기와 위상 지연기가 추가된 마하젠더 간섭계 기반의 광 출력장치 구성을 통해 홀로그램의 실시간적 복원을 수행하였다. 즉, 100mm의 깊이감을 갖는 두 점광원에 대한 인코히어런트 홀로그램의 생성과 복원 실험을 통해 바이어스와 공액영상이 제거되고 초점에 따라 깊이감이 다른 두 영상의 복원이 가능함을 확인하였으며, 구현된 광 입출력 장치를 통해 서로 30 mm의 깊이감을 갖는 3차원 물체인 두개의 주사위에 대한 홀로그램을 실시간적으로 생성하고 복원시킴으로서 변형된 삼각 간섭계에 기반한 홀로그래픽 3차원 영상디스플레이 시스템의 광학적 구현 가능성을 제시하였다.

입체영상 가시화를 위한 자동 피사계 심도 조절기법 (Automatic Depth-of-Field Control for Stereoscopic Visualization)

  • 강동수;김양욱;박준;신병석
    • 한국멀티미디어학회논문지
    • /
    • 제12권4호
    • /
    • pp.502-511
    • /
    • 2009
  • 컴퓨터그래픽스에서 실세계의 피사계 심도를 표현하기 위해 많은 연구가 진행되어왔다. 피사계 심도는 초점이 맺히는 초점평면을 기준으로 초점거리보다 가깝거나 멀 경우 렌즈와 조리개의 특성에 따라 해당부분이 흐리게 표현되는 현상이다. 이것을 이용하면 사람의 눈처럼 수정체에 의한 아웃 포커스 현상을 표현할 수 있기 때문에 현실감 있는 영상 표현이 가능하다. 본 논문에서는 eye-tracking 기술을 이용하여 사용자의 착안점을 계산하고 이를 바탕으로 GPU기반의 피사계 심도 조절방법을 구현함으로써 입체영상을 볼 때 발생하는 부작용을 줄이는 방법을 제안한다. 일반적으로 입체영상은 사용자의 초점을 강제로 조정하기 때문에 장시간 입체영상을 보면 어지럼증 등 부작용이 나타난다. 제안하는 기법은 눈동자의 움직임을 실시간으로 추적하여 입체영상의 피사계 심도를 자동으로 조절할 수 있기 때문에 부작용 저감이 가능하며 몰입감을 향상시킬 수 있다.

  • PDF

머신비젼 기반의 자율주행 차량을 위한 카메라 교정 (Camera Calibration for Machine Vision Based Autonomous Vehicles)

  • 이문규;안택진
    • 제어로봇시스템학회논문지
    • /
    • 제8권9호
    • /
    • pp.803-811
    • /
    • 2002
  • Machine vision systems are usually used to identify traffic lanes and then determine the steering angle of an autonomous vehicle in real time. The steering angle is calculated using a geometric model of various parameters including the orientation, position, and hardware specification of a camera in the machine vision system. To find the accurate values of the parameters, camera calibration is required. This paper presents a new camera-calibration algorithm using known traffic lane features, line thickness and lane width. The camera parameters considered are divided into two groups: Group I (the camera orientation, the uncertainty image scale factor, and the focal length) and Group II(the camera position). First, six control points are extracted from an image of two traffic lines and then eight nonlinear equations are generated based on the points. The least square method is used to find the estimates for the Group I parameters. Finally, values of the Group II parameters are determined using point correspondences between the image and its corresponding real world. Experimental results prove the feasibility of the proposed algorithm.

점 배치 작업 시 제시된 로봇 비젼 제어알고리즘의 가중행렬의 영향에 관한 연구 (A Study on the Effect of Weighting Matrix of Robot Vision Control Algorithm in Robot Point Placement Task)

  • 손재경;장완식;성윤경
    • 한국정밀공학회지
    • /
    • 제29권9호
    • /
    • pp.986-994
    • /
    • 2012
  • This paper is concerned with the application of the vision control algorithm with weighting matrix in robot point placement task. The proposed vision control algorithm involves four models, which are the robot kinematic model, vision system model, the parameter estimation scheme and robot joint angle estimation scheme. This proposed algorithm is to make the robot move actively, even if relative position between camera and robot, and camera's focal length are unknown. The parameter estimation scheme and joint angle estimation scheme in this proposed algorithm have form of nonlinear equation. In particular, the joint angle estimation model includes several restrictive conditions. For this study, the weighting matrix which gave various weighting near the target was applied to the parameter estimation scheme. Then, this study is to investigate how this change of the weighting matrix will affect the presented vision control algorithm. Finally, the effect of the weighting matrix of robot vision control algorithm is demonstrated experimentally by performing the robot point placement.