• Title/Summary/Keyword: 카메라 위치 추정

Search Result 290, Processing Time 0.033 seconds

Sub-pixel Object Localization for High-precision Stages (정밀 스테이지용 머신비전 위치 추정 시스템)

  • Park, Jae-Wan;Huh, Heon
    • Proceedings of the KIEE Conference
    • /
    • 2015.07a
    • /
    • pp.135-136
    • /
    • 2015
  • 일반적으로 머신비전을 이용한 위치 추정 정밀도는 카메라의 화소 수에 비례한다. 머신비전 카메라의 경우 화소가 많을수록 카메라 가격이 크게 증가하므로 화소 수만을 늘려서 정밀도를 높이는 하드웨어적 방법은 활용이 제한적이다. 이런 문제를 해결하기 위해서 적은 화소 수로 높은 위치 추정 정밀도를 얻을 수 있는 다양한 소프트웨어 알고리즘에 대한 연구가 진행되어 왔다. 본 논문에서는 위치 추정 정밀도를 높이기 위한 서브 픽셀 위치 추정 알고리즘을 구현하고 이를 반도체 칩 검사용 고정밀 스테이지에 적용하였다.

  • PDF

Study of Target Pose Estimation System: Distance Measurement Based Deep Learning Using Single Camera (딥러닝 단일카메라 거리 측정 기술 활용 구조대상자 위치추정시스템 연구)

  • Do-Yun Kim;Jong-In Choi ;Seo-Won Park ;Kwang-Young Park
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.560-561
    • /
    • 2023
  • 지진, 대형화재와 같은 많은 재해의 발생으로 인해 재난 안전 분야에 관심이 증가하고 있으며, 재난재해 시 신속하고 안전한 구조는 생존율에 영향을 준다. 기존 연구에서는 다양한 센서와 멀티카메라를 이용한 위치 추정 연구는 있으나, 가장 많이 설치된 단일카메라 기반의 위치 추정연구는 부족한 상태이다. 본 논문에서 단일카메라를 활용한 딥러닝 객체탐지와 거리측정 알고리즘을 이용하여 인명구조를 위한 구조대상자 위치추정시스템을 제안한다. 딥러닝을 활용한 객체탐지 기술을 이용하여 단일카메라 영상 내 객체와 해상도에 따른 바운딩 박스의 너비를 활용한 거리 계산식으로 거리를 추정하고, 객체의 위치좌표를 제공하여 신속한 재난 구조에 도움이 되는 시스템을 제안한다.

A Measurement Technique of Flow Velocities in Small and Medium Sized-Rivers using Drone Images (드론 영상을 이용한 중소하천의 유속 측정)

  • Liu, Binghao;Yu, Kwonkyu;Lee, Namjoo
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2020.06a
    • /
    • pp.52-52
    • /
    • 2020
  • 영상을 이용하여 하천유속과 유량을 측정하는 방법은 신속하고 간결하게 유속을 측정할 수 있는 방법으로 주목을 받고 있다. 또한 새로운 기술인 드론을 활용하여 하천의 유속과 유량을 측정하는 방법도 다양하게 시도되고 있다. 본 연구는 드론을 정지영상과 동영상을 이용하여 별도의 측량이나 복잡한 과정없이도 하천의 유속분포를 추정할 수 있는 방안을 제시하였다. 이 때, 중소하천의 유속 측정에 보다 쉽게 활용할 수 있도록 카메라 보정을 통한 카메라 내부변수 획득과 정지영상에 수록된 드론의 위치와 자세에 대한 EXIF 자료를 이용하는 방안, 약간의 흔들림이 있는 영상에서도 유속을 추정하는 방안을 제안하였다. 먼저, 드론의 카메라 보정을 위한 프로그램을 작성하고, 카메라의 내부 변수를 추정하였다. 드론의 위치와 자세에 대한 정보는 정지영상(JPG 파일)에 수록된 EXIF 정보를 이용하여 드론의 위치(GPS)와 자세(자이로스코프)를 알아내었다. 이를 이용하여 현장의 참조점에 대한 위치 정보를 확인하고, 또 수면촬영을 위한 정지비행시의 카메라의 대략의 위치와 자세 정보를 확인하였다. 이 자료들은 실제 유속측정에 이용하는 동영상에서 나타나는 참조점의 위치 정보를 결정하기 위한 것이다. 그리고 연이어 촬영된 동영상에서 시공간영상분석법으로 측정 단면의 유속분포를 분석하였다. 이 때, 동영상 내에 있는 약간의 흔들림은 FFT 분석으로 적절히 보완할 수 있다. 개발된 방법을 밀양강의 단장천 대리 수위표 지점 인근에서 시험한 결과 기존의 유속계로 측정한 방법과 상당히 근사한 결과를 얻을 수 있었다.

  • PDF

Point Light Source Estimation from indoor environment from Light Probe (Light Probe를 이용한 제한된 실내 환경에 존재하는 점 광원 추정 기법)

  • Yoo, Jae-Doug;Park, Joung-Wook;Cho, Ji-Ho;Lee, K.H.
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.494-499
    • /
    • 2007
  • 실제 영상과 가상의 오브젝트 또는 가상의 환경에 오브젝트를 합성하는 경우 등 사실적인 합성을 결과를 얻기 위해서는 실제 환경과 같은 배경 영상의 정확한 광원 정보가 필요하다. 본 논문에서는 실내 환경을 배경으로 영상을 합성 하는 과정에 필요한 광원정보를 카메라와 Light Probe를 이용하여 촬영된 단일 영상으로부터 추정하는 기법을 제안한다. 실내에 존재하는 광원들은 정확한 위치정보를 알 수 없는 실외환경에서와 달리 제한된 공간의 원점으로부터 3차원 공간에 위치한 좌표로 나타낼 수 있다. 광원을 추정하기 위해 먼저 실내 공간에 반사도가 높은 Light Probe를 위치하고 디지털 카메라의 적정 노출을 이용하여 광원 추정에 사용할 영상을 획득한다. 광원으로 존재하는 오브젝트의 경우 짧은 노출시간에도 카메라의 영상에 획득된다. 그렇기 때문에 단일 영상에서 광원의 영역을 추정하기 위해 영상처리를 통해 노출 시간을 짧게 하여 촬영한 영상과 비슷하게 밝은 영역만 표현되도록 처리를 한다. 전 처리된 영상으로부터 밝은 영역과 어두운 영역으로 구분을 하고 밝은 영역으로부터 광원의 정보를 추정한다. 추정된 광원들은 실제 렌더링에 곧바로 적용이 가능하며, 이를 통해 배경에 적합한 렌더링 결과를 얻을 수 있다.

  • PDF

Fuzzy Logic Based Sound Source Localization System Using Sound Strength in the Underground Parking Lot (지하주차장에서 음의 세기를 이용한 퍼지로직 기반 음원 위치추정 시스템)

  • Choi, Chang Yong;Lee, Dong Myung
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.38C no.5
    • /
    • pp.434-439
    • /
    • 2013
  • It is very difficult to monitor the blind spots that are not recognized by traditional surveillance camera (CCTV) systems, and the surveillance efficiencies are very low though many accidents/events can be solved by the systems. In this paper, the fuzzy logic based sound source localization system using sound strength in the underground parking lot is suggested and the performance of the system is analyzed in order to enhance the stabilization and the accuracy of the localization algorithm in the suggested system. It is confirmed that the localization stabilization of the localization algorithm (SLA_fuzzy) using the fuzzy logic in the suggested system is 4 times higher than that of the conventional localization algorithm (SLA). In addition to this, the localization accuracy of the SLA_fuzzy in the suggested system is 29% higher than that of the SLA.

A Study on Estimating Skill of Smartphone Camera Position using Essential Matrix (필수 행렬을 이용한 카메라 이동 위치 추정 기술 연구)

  • Oh, Jongtaek;Kim, Hogyeom
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.22 no.6
    • /
    • pp.143-148
    • /
    • 2022
  • It is very important for metaverse, mobile robot, and user location services to analyze the images continuously taken using a mobile smartphone or robot's monocular camera to estimate the camera's location. So far, PnP-related techniques have been applied to calculate the position. In this paper, the camera's moving direction is obtained using the essential matrix in the epipolar geometry applied to successive images, and the camera's continuous moving position is calculated through geometrical equations. A new estimation method was proposed, and its accuracy was verified through simulation. This method is completely different from the existing method and has a feature that it can be applied even if there is only one or more matching feature points in two or more images.

Reliable Camera Pose Estimation from a Single Frame with Applications for Virtual Object Insertion (가상 객체 합성을 위한 단일 프레임에서의 안정된 카메라 자세 추정)

  • Park, Jong-Seung;Lee, Bum-Jong
    • The KIPS Transactions:PartB
    • /
    • v.13B no.5 s.108
    • /
    • pp.499-506
    • /
    • 2006
  • This Paper describes a fast and stable camera pose estimation method for real-time augmented reality systems. From the feature tracking results of a marker on a single frame, we estimate the camera rotation matrix and the translation vector. For the camera pose estimation, we use the shape factorization method based on the scaled orthographic Projection model. In the scaled orthographic factorization method, all feature points of an object are assumed roughly at the same distance from the camera, which means the selected reference point and the object shape affect the accuracy of the estimation. This paper proposes a flexible and stable selection method for the reference point. Based on the proposed method, we implemented a video augmentation system that inserts virtual 3D objects into the input video frames. Experimental results showed that the proposed camera pose estimation method is fast and robust relative to the previous methods and it is applicable to various augmented reality applications.

Improved characterization method for mobile phone camera and LCD display (모바일 폰 카메라와 LCD의 향상된 특성화 방법)

  • Jang, In-Su;Son, Chang-Hwan;Lee, Cheol-Hee;Song, Kun-Woen;Ha, Yeong-Ho
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.45 no.2
    • /
    • pp.65-73
    • /
    • 2008
  • The characterization process for the accurate color reproduction in mobile phone with camera and LCD is popular. The camera and LCD characterization, gamut mapping process is necessary to map the camera's input color stimulus, CIEXYZ value, into the LCD's output color stimulus. Each characterization is the process estimating the relation between input and output signals. In case of LCD, because of output device, the output color stimulus for the arbitrary input signal can be measured by spectro-radiometer However, in the camera, as the input device, the characterization is an inaccurate and needs the manual works in the process obtaining the output signal because the input signal can not be generated. Moreover, after gamut mapping process, the noise is increased because the optimized gamma tone curve of camera for the noise is distorted by the characterization. Thus, this paper proposed the system of obtaining the output signal of camera and the method of gamma correction for the noise. The camera's output signal is obtained by RGB values of patches from captured the color chart image. However, besides the illumination, the error for the location of the chart in the viewfinder is generated when many camera modules are captured the chart. The method of correcting the position to correct the error from manual works. The position of camera is estimated by captured image. This process and moving of camera is accomplished repeatedly, and the optimized position can be obtained. Moreover, the lightness curve of camera output is corrected partly to reduce the noise from the characterization process.

A Gaze Detection Technique Using a Monocular Camera System (단안 카메라 환경에서의 시선 위치 추적)

  • 박강령;김재희
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.26 no.10B
    • /
    • pp.1390-1398
    • /
    • 2001
  • 시선 위치 추적이란 사용자가 모니터 상의 어느 지점을 쳐다보고 있는 지를 파악해 내는 기술이다. 시선 위치를 파악하기 위해 본 논문에서는 2차원 카메라 영상으로부터 얼굴 영역 및 얼굴 특징점을 추출한다. 초기에 모니터상의 3 지점을 쳐다볼 때 얼굴 특징점들은 움직임의 변화를 나타내며, 이로부터 카메라 보정 및 매개변수 추정 방법을 이용하여 얼굴특징점의 3차원 위치를 추정한다. 이후 사용자가 모니터 상의 또 다른 지점을 쳐다볼 때 얼굴 특징점의 변화된 3차원 위치는 3차원 움직임 추정방법 및 아핀변환을 이용하여 구해낸다. 이로부터 변화된 얼굴 특징점 및 이러한 얼굴 특징점으로 구성된 얼굴평면이 구해지며, 이러한 평면의 법선으로부터 모니터 상의 시선위치를 구할 수 있다. 실험 결과 19인치 모니터를 사용하여 모니터와 사용자까지의 거리를 50∼70cm정도 유지하였을 때 약 2.08인치의 시선위치에러 성능을 얻었다. 이 결과는 Rikert의 논문에서 나타낸 시선위치추적 성능(5.08cm 에러)과 비슷한 결과를 나타낸다. 그러나 Rikert의 방법은 모니터와 사용자 얼굴까지의 거리는 항상 고정시켜야 한다는 단점이 있으며, 얼굴의 자연스러운 움직임(회전 및 이동)이 발생하는 경우 시선위치추적 에러가 증가되는 문제점이 있다. 동시에 그들의 방법은 사용자 얼굴의 뒤 배경에 복잡한 물체가 없는 것으로 제한조건을 두고 있으며 처리 시간이 상당히 오래 걸리는 문제점이 있다. 그러나 본 논문에서 제안하는 시선 위치 추적 방법은 배경이 복잡한 사무실 환경에서도 사용가능하며, 약 3초 이내의 처리 시간(200MHz Pentium PC)이 소요됨을 알 수 있었다.

  • PDF

A Study on Estimating Smartphone Camera Position (스마트폰 카메라의 이동 위치 추정 기술 연구)

  • Oh, Jongtaek;Yoon, Sojung
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.21 no.6
    • /
    • pp.99-104
    • /
    • 2021
  • The technology of estimating a movement trajectory using a monocular camera such as a smartphone and composing a surrounding 3D image is key not only in indoor positioning but also in the metaverse service. The most important thing in this technique is to estimate the coordinates of the moving camera center. In this paper, a new algorithm for geometrically estimating the moving distance is proposed. The coordinates of the 3D object point are obtained from the first and second photos, and the movement distance vector is obtained using the matching feature points of the first and third photos. Then, while moving the coordinates of the origin of the third camera, a position where the 3D object point and the feature point of the third picture coincide is obtained. Its possibility and accuracy were verified by applying it to actual continuous image data.