• Title/Summary/Keyword: 영상기반 위치 추정

Search Result 261, Processing Time 0.029 seconds

Stopping Power Ratio Estimation Method Based on Dual-energy Computed Tomography Denoising Images for Proton Radiotherapy Planning (양성자치료계획을 위한 이중에너지 전산화단층촬영 잡음 제거 영상 기반 저지능비 추정 방법)

  • Byungdu Jo
    • Journal of the Korean Society of Radiology
    • /
    • v.17 no.2
    • /
    • pp.207-213
    • /
    • 2023
  • Computed tomography (CT) images are used as the basis for proton Bragg peak position estimation and treatment plan simulation. During the Hounsfield Unit (HU) based proton stopping power ratio (SPR) estimation, small differences in the patient's density and elemental composition lead to uncertainty in the Bragg peak positions along the path of the proton beam. In this study, we investigated the potential of dual-energy computed tomography image-based proton SPRs prediction accuracy to reduce the uncertainty of Bragg peak position prediction. Single- and dual-energy images of an electron density phantom (CIRS Model 062M electron density phantom, CIRS Inc., Norfolk, VA, USA) were acquired using a computed tomography system (Somatom Definition AS, Siemens Health Care, Forchheim, Germany) to estimate the SPRs of the proton beam. To validate the method, it was compared to the SPRs estimated from standard data provided by the National Institute of Standards and Technology (NIST). The results show that the dual-energy image-based method has the potential to improve accuracy in predicting the SPRs of proton beams, and it is expected that further improvements in predicting the position of the proton's Bragg peak will be possible if a wider variety of substitutes with different densities and elemental compositions of the human body are used to predict the SPRs.

Robust Object Pose Estimation for Dynamic Projection Mapping (동적 프로젝션 맵핑을 위한 안정적 객체 자세 추정)

  • Kim, Sang-Joon;Byun, Young-Ju;Choi, Yoo-Joo
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.06a
    • /
    • pp.105-106
    • /
    • 2018
  • 본 논문에서는 동적 프로젝션 맵핑을 구현하기 위하여 3차원 공간의 깊이 정보와 대상 객체의 색상영상에서의 특징점을 추출하여 3차원 공간상에서 움직이는 2차원 평면 객체의 자세를 안정적으로 추정하는 기법을 제안한다. 제안 기법은 타겟 이미지를 출력하여 타겟 이미지 보다 큰 평면 패널에 부착하고, 이 평면 패널을 3차원 공간상에서 움직이는 환경에서 타겟 이미지의 자세를 안정적으로 추정하기 위하여 고안되었다. 제안 기법에서는 우선 패널이 움직일 수 있는 깊이 영역을 지정하여 해당 깊이 영역에 존재하는 2차원 패널을 추출하고, 패널의 사각영역을 추출한다. 또한, 색상 영상에 SURF 알고리즘을 적용하여 2차원 평면상에 부착된 타겟 이미지의 영역을 색상 특징을 기반으로 함께 추출하여 패널의 사각 영역과 타겟 이미지의 상대적인 위치 정보를 추출한다. 셋업 단계에서 추출된 타겟 이미지의 상대적인 위치 정보를 이용하여, 조명의 변화에 의하여 순간적으로 타겟 이미지의 특징점 추적에 실패한 경우, 패널의 사각 영역에 의해 계산된 타겟 이미지의 상대적 위치 정보를 계산하여 자세 추정에 사용함으로써 움직이는 타겟 이미지의 3차원 자세를 안정적으로 추정할 수 있도록 하였다.

  • PDF

A Method for Effective Homography Estimation Applying a Depth Image-Based Filter (깊이 영상 기반 필터를 적용한 효과적인 호모그래피 추정 방법)

  • Joo, Yong-Joon;Hong, Myung-Duk;Yoon, Ui-Nyoung;Go, Seung-Hyun;Jo, Geun-Sik
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.8 no.2
    • /
    • pp.61-66
    • /
    • 2019
  • Augmented reality is a technology that makes a virtual object appear as if it exists in reality by composing a virtual object in real time with the image captured by the camera. In order to augment the virtual object on the object existing in reality, the homography of images utilized to estimate the position and orientation of the object. The homography can be estimated by applying the RANSAC algorithm to the feature points of the images. But the homography estimation method using the RANSAC algorithm has a problem that accurate homography can not be estimated when there are many feature points in the background. In this paper, we propose a method to filter feature points of a background when the object is near and the background is relatively far away. First, we classified the depth image into relatively near region and a distant region using the Otsu's method and improve homography estimation performance by filtering feature points on the relatively distant area. As a result of experiment, processing time is shortened 71.7% compared to a conventional homography estimation method, and the number of iterations of the RANSAC algorithm was reduced 69.4%, and Inlier rate was increased 16.9%.

A Vision-based Position Estimation Method Using a Horizon (지평선을 이용한 영상기반 위치 추정 방법 및 위치 추정 오차)

  • Shin, Jong-Jin;Nam, Hwa-Jin;Kim, Byung-Ju
    • Journal of the Korea Institute of Military Science and Technology
    • /
    • v.15 no.2
    • /
    • pp.169-176
    • /
    • 2012
  • GPS(Global Positioning System) is widely used for the position estimation of an aerial vehicle. However, GPS may not be available due to hostile jamming or strategic reasons. A vision-based position estimation method can be effective if GPS does not work properly. In mountainous areas without any man-made landmark, a horizon is a good feature for estimating the position of an aerial vehicle. In this paper, we present a new method to estimate the position of the aerial vehicle equipped with a forward-looking infrared camera. It is assumed that INS(Inertial Navigation System) provides the attitudes of an aerial vehicle and a camera. The horizon extracted from an infrared image is compared with horizon models generated from DEM(Digital Elevation Map). Because of a narrow field of view of the camera, two images with a different camera view are utilized to estimate a position. The algorithm is tested using real infrared images acquired on the ground. The experimental results show that the method can be used for estimating the position of an aerial vehicle.

Image-Based Relighting of Moving Objects with Considering Specular Reflectance (전반사 성분을 고려한 움직이는 물체의 영상 기반 재조명)

  • Kim Su Hyun;Park Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2004.11a
    • /
    • pp.241-246
    • /
    • 2004
  • 각각 다른 영상에서 추출된 배경이나 물체를 합성하고자 할 때 조명 조건의 이질감 때문에 자연스럽지 못한 영상이 얻어질 수 있다. 이러한 문제를 해결하기 위해서는 특히 전반사 성분의 위치와 모양이 사실적으로 처리되는 것이 중요하다. 기존의 많은 연구에서 정지된 물체에 대해 전반사 성분과 난반사 성분을 분리하여 다루는 방법이 제안되었는데 이러한 방법들을 토대로 본 논문에서는 동영상에 대한 적용 가능성을 확인한다. 정지한 물체에 대한 재조명을 위해서는 물체의 위치가 동일하고 조명 조건이 다른 두개이상의 이미지가 필요하므로 동영상의 연속된 필드들을 이용하여 이러한 조건을 유사하게 만족시키는 이미지 쌍을 만드는 방법을 먼저 제안한다. n번째 n+2번째 필드 간의 물체의 움직임을 추정하여 중간 위치의 합성 영상을 만들어 내면 n+1번째 필드의 물체와 동일한 위치와 모양의 영상을 얻을 수 있을 것이다. 이렇게 얻어진 합성 영상과 원래의 n+1번째 필드의 영상이 서로 다른 조명 조건을 가지고 있으면 정지된 물체에 행해졌던 영상 재조명 방법의 사용이 가능하며, 이 두 영상으로 전반사 성분과 난반사 성분을 분리하고 난반사 성분끼리의 선형 보간과, 전반사 성분끼리의 모핑(morphing) 과정을 통해 재조명된 영상을 생성한다. 이러한 과정을 거쳐 얻어진 결과 영상과 같은 조건의 정지 영상을 직접 재조명한 결과 영상을 비교하여 그 성능이 거의 차이가 없음을 확인할 수 있다.

  • PDF

Localization of Unmanned Ground Vehicle based on Matching of Ortho-edge Images of 3D Range Data and DSM (3차원 거리정보와 DSM의 정사윤곽선 영상 정합을 이용한 무인이동로봇의 위치인식)

  • Park, Soon-Yong;Choi, Sung-In
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.1 no.1
    • /
    • pp.43-54
    • /
    • 2012
  • This paper presents a new localization technique of an UGV(Unmanned Ground Vehicle) by matching ortho-edge images generated from a DSM (Digital Surface Map) which represents the 3D geometric information of an outdoor navigation environment and 3D range data which is obtained from a LIDAR (Light Detection and Ranging) sensor mounted at the UGV. Recent UGV localization techniques mostly try to combine positioning sensors such as GPS (Global Positioning System), IMU (Inertial Measurement Unit), and LIDAR. Especially, ICP (Iterative Closest Point)-based geometric registration techniques have been developed for UGV localization. However, the ICP-based geometric registration techniques are subject to fail to register 3D range data between LIDAR and DSM because the sensing directions of the two data are too different. In this paper, we introduce and match ortho-edge images between two different sensor data, 3D LIDAR and DSM, for the localization of the UGV. Details of new techniques to generating and matching ortho-edge images between LIDAR and DSM are presented which are followed by experimental results from four different navigation paths. The performance of the proposed technique is compared to a conventional ICP-based technique.

Robot Control using Vision based Hand Gesture Recognition (비전기반 손 제스처 인식을 통한 로봇 컨트롤)

  • Kim, Dae-Soo;Kang, Hang-Bong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.11a
    • /
    • pp.197-200
    • /
    • 2007
  • 본 논문에서는 로봇 컨트롤 시스템을 위해 입력 받은 영상부터 몇 가지의 손 제스처를 인식하는 비전기반 손 제스처 인식방법을 제안한다. 로봇으로부터 입력 받은 이미지는 로봇의 위치, 주변환경, 조명 등 여러 요인에 따라 다양하게 존재한다. 본 논문은 다양한 환경에서 입력되는 영상으로부터 시스템이 로봇 컨트롤을 위해 미리 지정한 몇 가지 제스처를 인식하도록 한다. 먼저 이미지 조명 변화에 강한 손 제스처 인식을 위하여 레티넥스 이미지 정규화를 적용한 후, YCrCb 공간 상에서 입력된 영상에서 손 영역을 검출 후 위치를 추정한다. 인식된 손 영역에서 특징벡터를 추출함으로서 입력 영상내의 존재할 수 있는 손의 크기나 손의 회전각도 등에 상관없이 필요로 하는 제스처를 인식하도록 한다. 제안된 제스처 인식 결과는 로봇컨트롤을 위한 기존의 제스처인식과 비교하여 성능을 측정하였다.

People-Flow Density Estimation for Video Surveillance (영상 감시를 위한 이동하는 사람 수 추정 기법)

  • Kim, Byeoung-Su;Song, Su-Han;Lee, Gwang-Gook;Kim, Whoi-Yul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.289-292
    • /
    • 2007
  • 공공 장소에서 통로를 통해 이동하는 사람의 수를 측정하는 것은 영상 감시를 위한 필수 기술이며 이와 관련하여 다양한 연구가 진행되어 왔다. 그러나, 지금까지의 방법들은 카메라를 통로의 바로 위쪽에 수직방향으로 설치해야 하며, 넓은 범위의 영상을 처리하지 못하는 문제점이 있다. 이러한 문제를 해결하기 위하여 본 논문에서는 영상의 특징에 기반한 사상함수를 사용하여 카메라 시점에 제약을 받지 않는 사람 수 추정 방법을 제안한다. 실험 결과 카메라가 통로의 수직 방향에 위치하지 않아도 이동하는 사람 수를 추정할 수 있기 때문에 다양한 분야에 이용될 수 있다.

  • PDF

3D Fingertip Estimation based on the TOF Camera for Virtual Touch Screen System (가상 터치스크린 시스템을 위한 TOF 카메라 기반 3차원 손 끝 추정)

  • Kim, Min-Wook;Ahn, Yang-Keun;Jung, Kwang-Mo;Lee, Chil-Woo
    • The KIPS Transactions:PartB
    • /
    • v.17B no.4
    • /
    • pp.287-294
    • /
    • 2010
  • TOF technique is one of the skills that can obtain the object's 3D depth information. But depth image has low resolution and fingertip occupy very small region, so, it is difficult to find the precise fingertip's 3D information by only using depth image from TOF camera. In this paper, we estimate fingertip's 3D location using Arm Model and reliable hand's 3D location information that is modified by hexahedron as hand model. Using proposed method we can obtain more precise fingertip's 3D information than using only depth image.

Robust Estimation of Camera Motion Using A Local Phase Based Affine Model (국소적 위상기반 어파인 모델을 이용한 강인한 카메라 움직임 추정)

  • Jang, Suk-Yoon;Yoon, Chang-Yong;Park, Mig-Non
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.46 no.1
    • /
    • pp.128-135
    • /
    • 2009
  • Techniques for tracking the same region of physical space with the temporal sequences of images by matching the contours of constant phase show robust and stable performance in relative to the tracking techniques using or assuming the constant intensity. Using this property, we describe an algorithm for obtaining the robust motion parameters caused by the global camera motion. First, we obtain the optical flow based on the phase of spacially filtered sequential images on the region in a direction orthogonal to orientation of each component of gabor filter bank. And then, we apply the least squares method to the optical flow to determine the affine motion parameters. We demonstrate hat proposed method can be applied to the vision based pointing device which estimate its motion using the image including the display device which cause lighting condition varieties and noise.