• Title/Summary/Keyword: 평면 추정

Search Result 284, Processing Time 0.024 seconds

Image Segmentation Based on Fusion of Range and Intensity Images (거리영상과 밝기영상의 fusion을 이용한 영상분할)

  • Chang, In-Su;Park, Rae-Hong
    • Journal of the Korean Institute of Telematics and Electronics S
    • /
    • v.35S no.9
    • /
    • pp.95-103
    • /
    • 1998
  • This paper proposes an image segmentation algorithm based on fusion of range and intensity images. Based on Bayesian theory, a priori knowledge is encoded by the Markov random field (MRF). A maximum a posteriori (MAP) estimator is constructed using the features extracted from range and intensity images. Objects are approximated by local planar surfaces in range images, and the parametric space is constructed with the surface parameters estimated pixelwise. In intensity images the ${\alpha}$-trimmed variance constructs the intensity feature. An image is segmented by optimizing the MAP estimator that is constructed using a likelihood function based on edge information. Computer simulation results shw that the proposed fusion algorithm effectively segments the images independentl of shadow, noise, and light-blurring.

  • PDF

Covariance Matrix Estimation with Small STAP Data through Conversion into Spatial Frequency-Doppler Plane (적은 STAP 데이터의 공간주파수-도플러 평면 변환을 이용한 공분산행렬 추정)

  • Hoon-Gee Yang
    • Journal of IKEEE
    • /
    • v.27 no.1
    • /
    • pp.38-44
    • /
    • 2023
  • Performance of a STAP(space-time adaptive processing) algorithm highly depends on how closely the estimated covariance matrix(CM) resembles the actual CM by the interference in CUT(cell under test). A STAP has 2 dimensional data structure determined by the number of array elements and the number of transmitting pulses and both numbers are generally not small. Thus, to meet the degree of freedom(DOF) of the CM, a huge amount of training data is required. This paper presents an algorithm to generate virtual training data from small received data, via converting them into the data in spatial frequency-Doppler plane. We theoretically derive where the clutter exist in the plane and present the procedure to implement the proposed algorithm. Finally, with the simulated scenario of small received data, we show the proposed algorithm can improve STAP performance.

An User-Friendly Method of Image Warping for Traffic Monitoring System (실시간 교통상황 모니터링 시스템을 위한 유저 친화적인 영상 변형 방법)

  • Yi, Chuho;Cho, Jungwon
    • Journal of Digital Convergence
    • /
    • v.14 no.12
    • /
    • pp.231-236
    • /
    • 2016
  • Currently, a traffic monitoring service using a surveillance camera is provided through internet. In general, if the user points a certain location on a map, then this service shows the real-time image of the camera where it is mounted. In this paper, we proposed the intuitive surveillance monitoring system which displays a real-time camera image on the map by warping with bird's-eye view and with the top of image as the north. In order to robustly estimate the road plane using camera image, we used the motion vectors which can be detected to changes in brightness. We applied a re-adjustment process to have the same directivity with a map and presented a user-friendly interface that can be displayed on the map. In the experiment, the proposed method was presented as the result of warping image that the user can easily perceive like a map.

Reconstruction of 3D Ultrasound Image from Freehand Scanned Frames Using Lateral Correlation Functions (측면거리 상관함수를 이용한 수동주사 초음파 영상 프레임들로부터의 3차원 영상 재구성)

  • 이준호;김남철;김상현
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.26 no.8B
    • /
    • pp.1152-1160
    • /
    • 2001
  • 본 논문에서는 수동주사로 얻은 2차원 연속 프레임으로 3차원 초음파 영상 재구성을 위한 연속 프레임의 프레임간 거리 추정 방법을 제안하였다. 수동주사로 얻은 연속 프레임은 프레임간 거리가 불균일하기 때문에 이를 그대로 3차원 영상으로 재구성하면 실제 인체 장기의 형태와 다른 영상을 얻게 된다. 제안한 알고리듬에서는 연속 프레임의 프레임간 거리를 추정하기 위하여 매 프레임의 블록별 측면거리 상관함수를 얻고, 측면거리 상관함수들이 프로브의 진행축과 초음파 센서의 배열축이 이루는 평면상에서 등방성을 가진다는 가정 하에 인접 프레임 내의 각 블록간의 프레임간 거리를 추정하였다. 인접 프레임간 추정거리는 프레임 내에서 블록단위로 추정된 프레임간 거리를 평균하여 얻었다. 실험 결과, 제안한 알고리듬의 프레임간 추정거리 곡선은 기준 진행거리 상관함수를 이용한 방법의 추정거리 곡선에 비해서 실제 프레임간 거리 곡선에 가까웠고, SNR 비교에서 제안한 방법이 기존의 방법에 비해 좋은 결과를 보였다. 그리고, 기존의 알고리듬에 비해 제안한 알고리듬으로 재구성한 3차원 영상이 원영상에 더 흡사한 것을 볼 수 있었다.

  • PDF

3D Augmented pose estimation through GAN based image synthesis (GAN 기반 이미지 합성을 통한 3차원 증강 자세 추정)

  • Park, Chan;Moon, Nammee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.667-669
    • /
    • 2022
  • 2차원 이미지를 통한 자세 추정의 경우 관절이 겹치거나 가려져 있는 등의 인식 저해 요소로 인하여 자세 추정 정확도가 감소하는 한계가 있다. 본 논문에서는 GAN을 통해 2차원 이미지를 3차원으로 증강한 뒤 자세를 추정하는 기법을 제안한다. 제안하는 방법은 2차원 이미지의 평면좌표 값에서 GAN을 통해 노이즈 벡터 z축 값과 피사체에 투영되는 빛의 방향 값을 반영한 3차원 이미지를 만든다. 이러한 이미지 합성 과정을 거친 후 DeepLabCut을 사용해 관절 좌표를 추출하고 자세 추정 및 분류를 진행한다. 이를 통해 2차원에서의 자세 추정 정확도 향상을 기대할 수 있으며, 향후 이를 기반한 이상행동 탐지 분야에서 적용할 수 있다.

An approach to extract a projected line stripe for object surface sensing using 2-D grid pattern (2차원 격자평면을 이용한 투사된 Line Stripe의 추출)

  • 김신태;장동식
    • Proceedings of the Korean Operations and Management Science Society Conference
    • /
    • 1995.04a
    • /
    • pp.656-666
    • /
    • 1995
  • 본 논문에서는 물체위로 투사된 line stripe으로부터 물체의 표면 정보를 추출하기 위해 2-D Grip paper를 이용해 캘리브레이션하는 방법이 제안되었다. 카메라의 이미지평면과 카메라의 가시범위에 있는 3차원 실세계간의 Projective Tranformation과정에서는 목표물과 이미지 평면사이의 거리나 각도 등이 정보를 실제로 측정해서 알고 있어야만 카메라와 실세계간의 캘리브레이션을 수행할 수 있다. 그러나 이미 크기나 거리를 알고 있는 Grid paper를 이용하면 카메라의 파라미터들에 대한 추정이나 카메라와 실세계간의 측정을 하지 않고서도 목표물위로 투사된 line stripe에 대한 정보를 얻을 수 있고 이를 이용해 물체의 표면에 대한 정보를 얻을 수 있다. 이미 지평면에 투영된 격자패턴에서 구한 교차점들의 위치를 이용해 실제 위치를 찾아낸다. 실제로 레이져스캐너를 이용해 물체위로 line stripe을 투사한 후, 위에서 제시한 방법을 통해 3차원 정보를 구하는 실험결과는 양호하였다.

  • PDF

Error Analysis of the Passive Localization Using Near-field Effect in the Sea (해양에서 근거리효과를 이용한 수동 위치추정 오차분석)

  • 박정수;최진혁
    • The Journal of the Acoustical Society of Korea
    • /
    • v.20 no.6
    • /
    • pp.75-81
    • /
    • 2001
  • In this paper we analyzed the localization error of near-field detection algorithm in the sea. The near-field detection algorithms using triangulation and wavefront curvature basically assume a signal in two dimension of bearing and range. But the assumption causes localization error because there is three dimension of bearing, range, and depth in the sea. Even through three dimensional effect is considered, the localization error is occurred if multipath propagation in the sea is ignored. To analyze the localization error in the sea, we simulate the near-field localization using acoustic propagation model and focused beamforming considering wavefront curvature. The simulation results indicate that localization error always occurs in the sea and the error varied with sound velocity profile, water depth, bottom slope, source range, etc.

  • PDF

Position Estimation of Wheeled Mobile Robot in a Corridor Using Neural Network (신경망을 이용한 복도에서의 구륜이동로봇의 위치추정)

  • 최경진;이용현;박종국
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.04a
    • /
    • pp.129-132
    • /
    • 2004
  • 본 논문에서는 비전 기반 구륜이동로봇이 복도를 주행하기 위해 필요한 벽면으로부터의 거리와 방향각을 신경망을 이용하여 추정하는 알고리즘에 대해 기술하였다. 복도에 설치된 조명을 표식으로 사용하였고, 구륜이동로봇의 위치와 각도에 따라 조명들의 배열선과 정의된 소멸점의 위치는 다르게 된다. 따라서 조명의 배열선과 소멸점의 위치에 관한 두개의 평면을 구성하였다. 조명의 배열선과 소멸점의 위치는 간단한 영상처리 알고리즘을 통하여 획득하였다. 기지의 위치와 각도에서의 조명의 배열선과 소멸점의 위치에 대한 데이터를 획득하였다. 획득된 데이터를 이용하여 신경망을 구성하고 학습시켰다. 학습을 통해 수정된 신경망을 이용하여 실제 주행에 적용하였다.

  • PDF

Estimation of a Gaze Point in 3D Coordinates using Human Head Pose (휴먼 헤드포즈 정보를 이용한 3차원 공간 내 응시점 추정)

  • Shin, Chae-Rim;Yun, Sang-Seok
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2021.10a
    • /
    • pp.177-179
    • /
    • 2021
  • This paper proposes a method of estimating location of a target point at which an interactive robot gazes in an indoor space. RGB images are extracted from low-cost web-cams, user head pose is obtained from the face detection (Openface) module, and geometric configurations are applied to estimate the user's gaze direction in the 3D space. The coordinates of the target point at which the user stares are finally measured through the correlation between the estimated gaze direction and the plane on the table plane.

  • PDF

EKF SLAM-based Camera Tracking Method by Establishing the Reference Planes (기준 평면의 설정에 의한 확장 칼만 필터 SLAM 기반 카메라 추적 방법)

  • Nam, Bo-Dam;Hong, Hyun-Ki
    • Journal of Korea Game Society
    • /
    • v.12 no.3
    • /
    • pp.87-96
    • /
    • 2012
  • This paper presents a novel EKF(Extended Kalman Filter) based SLAM(Simultaneous Localization And Mapping) system for stable camera tracking and re-localization. The obtained 3D points by SLAM are triangulated using Delaunay triangulation to establish a reference plane, and features are described by BRISK(Binary Robust Invariant Scalable Keypoints). The proposed method estimates the camera parameters from the homography of the reference plane when the tracking errors of EKF SLAM are much accumulated. Using the robust descriptors over sequence enables us to re-localize the camera position for matching over sequence even though the camera is moved abruptly.