• 제목/요약/키워드: camera distortion

검색결과 324건 처리시간 0.029초

직선의 방정식을 기반으로 한 프로젝터 영상의 기하왜곡 보정 (Geometric Distortion Compensation of Projector Image based on Equation of Straight Line)

  • 정정일;조진수
    • 인터넷정보학회논문지
    • /
    • 제11권5호
    • /
    • pp.27-35
    • /
    • 2010
  • 본 논문에서는 평면 스크린을 사용할 수 없는 휴대형 프로젝터의 사용 환경에서 평면이 아닌 임의의 영사면(혹은 벽면)의 기하학적 형태에 의해 발생되는 영상의 기하학적 왜곡을 효과적으로 보정할 수 있는 방법을 제안한다. 제안한 방법에서는 먼저 격자패턴을 임의의 영사면에 영사한 후 영사면의 형태에 따라 왜곡된 격자패턴과 원본 격자패턴 간의 기하학적 관계를 나타내는 직선의 방정식을 도출한다. 다음으로 영사면의 기하학적 형태에 따라 적절하게 적용될 수 있는 원본 격자패턴의 크기를 결정하여 도출된 직선의 방정식으로부터 왜곡된 영상을 대칭적으로 보정할 수 있는 보정패턴을 생성한다. 최종적으로 프로젝터로부터 영사될 실제 영상을 격자패턴과 동일하게 분할하여 보정패턴에 맞게 미리 워핑(warping)함으로써 영사된 영상의 기하학적 왜곡을 보정한다. 제안한 방법의 성능 평가를 위하여 평면 스크린을 사용할 수 없는 영사 환경에서 자주 접할 수 있는 영사면 형태들인 기울어진 평면, 꺾인 평면 및 곡면을 대상으로 영사 영상 보정에 대한 실험을 진행하였다. 실험결과로부터 일반적으로 발생하는 몇 가지 영사면의 형태들에 인한 기하학적 왜곡들이 적절히 보정되어 제안한 방법이 영사 영상의 기하학적 왜곡을 매우 효과적으로 보정할 수 있음을 알 수 있었다.

무인항공기 영상을 이용한 입체시기반 수치도화 정확도 평가 (Accuracy Assessment on the Stereoscope based Digital Mapping Using Unmanned Aircraft Vehicle Image)

  • 윤공현;김덕인;송영선
    • 지적과 국토정보
    • /
    • 제48권1호
    • /
    • pp.111-121
    • /
    • 2018
  • 본 연구에서는 무인항공기(UAV:Unmanned Aircraft Vehicle)의 입체영상을 이용하여 사진측량학 원리를 적용하므로서 수치표고모형, 실감정사영상 및 3차원 수치 데이터를 제작 및 평가를 수행하였다. 스테레오 입체시를 수행하기 위해서는 수치도화기(DPW:Digital Photogrammetric Workstation)를 필수적으로 이용해야 하는데 본 연구에서는 최근 산자부에서 개발된 3차원 공간정보 제작시스템인 GEOMAPPER 1.0을 사용하였다. 무인항공기의 중복된 두 영상을 이용하여 입체시 생성하기 위해서는 카메라의 내부표정요소와 외부표정요소가 계산되어야 하며, 정확한 입체시를 위해서 비항측용 일반 카메라의 렌즈왜곡에 대한 정확한 보정이 필수적이다. 렌즈의 왜곡보정 및 지상기준점을 이용한 표정요소의 결정은 상업용 소프트웨어인 PhotoScan 1.4를 사용하였다. 무인항공기는 케이로보틱스의 고정익 장비(KD-2)를 사용하였고 항공삼각측량과정을 통하여 최종적으로 실감정사영상을 생성하고 수치지형도를 일부 제작하여 수치도화의 오차분석을 수행하였다. 그 결과 입체도화 방식으로 축척 1:1/2,500~1/3,000 수치지형도의 제작 가능성을 확인 할 수 있었다.

영역기반 가중치 맵을 이용한 멀티스팩트럼 플래시 영상 획득 (Multi-spectral Flash Imaging using Region-based Weight Map)

  • 최봉석;김대철;이철희;하영호
    • 전자공학회논문지
    • /
    • 제50권9호
    • /
    • pp.127-135
    • /
    • 2013
  • 저조도 환경에서 카메라로 영상을 획득하기 위해 일반적으로 가시광 플래시를 사용하거나 장노출 기법을 사용하게 된다. 그러나 가시광 플래시를 사용할 때 플래시 광에 의한 색 왜곡이나 적목 현상, 눈부심에 의한 거부감을 발생시킨다. 또한 장노출을 사용하게 되면 물체의 움직임에 의한 흔들림 현상이 발생하게 된다. 따라서 최근에는 이러한 단점을 극복하고, 저조도 환경에서 고화질의 영상을 획득하기 위하여 멀티 스팩트럴 플래시(Multi-spectral flash image)를 이용하여 영상을 획득하는 방법이 소개되었다. 이 방법은 가시광과 UV/IR스펙트럼의 다섯 채널을 이용하여 가시광영상의 색 정보와 UV/IR 스팩트럼 영상의 세부정보를 최적화하여 영상을 획득하는 방법이다. 하지만, 픽셀 기반의 최적화 과정에 있어 색 왜곡과 다른 잡음을 발생시키게 된다. 따라서 본 논문에서는 이러한 색 왜곡과 잡음을 개선하기 위해 영역 기반의 가중치 맵을 최적화 방법에 적용하여 색 왜곡을 개선하는 알고리즘을 제안한다. 먼저, 영상에 대하여 Canny 에지 검출 방법을 사용하여 영상의 윤곽을 검출하였다. 이를 가중치 맵으로 최적화방법에 적용함으로, 세부 영역에 대하여 UV/IR 플래시 영상의 정보에 가중치를 부여하고, 평탄한 영역에 대하여 가시광 영상의 색 정보를 가중치를 부여하여 색 왜곡을 개선하였다. 제안한 방법을 평가하기 위하여 실험을 통하여 제안한 방법과 이전방법을 비교하였고, 객관적 평가와 주관적 평가 모두 제안한 방법이 우수한 성능을 나타내었다.

Use of Unmanned Aerial Vehicle for Multi-temporal Monitoring of Soybean Vegetation Fraction

  • Yun, Hee Sup;Park, Soo Hyun;Kim, Hak-Jin;Lee, Wonsuk Daniel;Lee, Kyung Do;Hong, Suk Young;Jung, Gun Ho
    • Journal of Biosystems Engineering
    • /
    • 제41권2호
    • /
    • pp.126-137
    • /
    • 2016
  • Purpose: The overall objective of this study was to evaluate the vegetation fraction of soybeans, grown under different cropping conditions using an unmanned aerial vehicle (UAV) equipped with a red, green, and blue (RGB) camera. Methods: Test plots were prepared based on different cropping treatments, i.e., soybean single-cropping, with and without herbicide application and soybean and barley-cover cropping, with and without herbicide application. The UAV flights were manually controlled using a remote flight controller on the ground, with 2.4 GHz radio frequency communication. For image pre-processing, the acquired images were pre-treated and georeferenced using a fisheye distortion removal function, and ground control points were collected using Google Maps. Tarpaulin panels of different colors were used to calibrate the multi-temporal images by converting the RGB digital number values into the RGB reflectance spectrum, utilizing a linear regression method. Excess Green (ExG) vegetation indices for each of the test plots were compared with the M-statistic method in order to quantitatively evaluate the greenness of soybean fields under different cropping systems. Results: The reflectance calibration methods used in the study showed high coefficients of determination, ranging from 0.8 to 0.9, indicating the feasibility of a linear regression fitting method for monitoring multi-temporal RGB images of soybean fields. As expected, the ExG vegetation indices changed according to different soybean growth stages, showing clear differences among the test plots with different cropping treatments in the early season of < 60 days after sowing (DAS). With the M-statistic method, the test plots under different treatments could be discriminated in the early seasons of <41 DAS, showing a value of M > 1. Conclusion: Therefore, multi-temporal images obtained with an UAV and a RGB camera could be applied for quantifying overall vegetation fractions and crop growth status, and this information could contribute to determine proper treatments for the vegetation fraction.

15×15 Kernel Block Adaptive Median Filter를 적용한 저속 카메라 통신용 LED 조명 검출 알고리즘 연구 (15×15 Kernel Block Adaptive Median Filter based on LED Illumination Detection Algorithm for Low Rate CamCom)

  • 한정도;이민우;차재상
    • 한국ITS학회 논문지
    • /
    • 제17권5호
    • /
    • pp.143-150
    • /
    • 2018
  • RF 기반 고속 무선통신 기술이 급속히 발전함에 따라 무선 주파수 대역을 기반으로한 IoT 네트워크용 디바이스가 빠르게 보급되고 있으나, 최근 IoT 네트워크 디바이스의 급속한 확산 속도에 비하여 RF 통신 기술의 발전속도가 미치지 못하고 있다. 이러한 상황에서 가시광원을 송신수단으로 사용하는 OWC 기술은 RF 기반 무선 통신의 대역 고갈 문제를 극복 할 수 있는 기술로서 주목받고 있으나, OWC용 데이터 수신 중 발생하는 LED 조명 형태의 왜곡으로 인하여 LED 조명 검출율이 저하되고 RoI의 설정이 부정확해지는 현상이 발생 할 가능성이 있다. 본 논문에서는 Adaptive Median Filter를 적용한 저속 카메라 통신용 LED 조명 검출 알고리즘을 제안하였다. 이를 통해 명확한 RoI 설정 및 LED 조명 검출이 가능할 것으로 사료되며, 본 연구결과를 통해 RF 기반 무선 통신기술의 보완재로서의 역할을 효율적으로 수행 할 수 있을 것으로 판단된다.

(2D)2 PCA알고리즘을 이용한 최적 RBFNNs 기반 나이트비전 얼굴인식 시뮬레이터 설계 (Design of Optimized RBFNNs based on Night Vision Face Recognition Simulator Using the 2D2 PCA Algorithm)

  • 장병희;김현기;오성권
    • 한국지능시스템학회논문지
    • /
    • 제24권1호
    • /
    • pp.1-6
    • /
    • 2014
  • 본 연구에서 $(2D)^2$ PCA 알고리즘을 이용한 최적 RBFNNs 기반 나이트비전 얼굴인식 시뮬레이터을 설계한다. CCD 카메라로 야간에 이미지를 취득할 경우 조도가 낮기 때문에 인식을 수행하기 어려운 수준의 이미지가 취득되는 문제점이 발생한다. 따라서 본 논문에서는 나이트 비전 카메라를 이용하여 야간 얼굴을 취득하였다. 또한 얼굴과 비얼굴 이미지 영역에서 야간 얼굴 이미지를 검출하기 위해 Ada-Boost 알고리즘을 사용한다. 그리고 히스토그램 평활화를 이용하여 이미지의 왜곡 현상을 최소화 한다. 이렇게 얻어진 고차원 이미지를 저차원으로 축소하기 위해 $(2D)^2$ PCA 알고리즘을 사용했다. 다항식 기반 RBFNNs을 이용한 지능형 패턴 분류 모델을 통하여 얼굴인식을 수행 한다. 마지막으로 차분진화 알고리즘을 사용하여 파라미터를 최적화 한다. $(2D)^2$ PCA를 최적 RBFNNs 기반 나이트비전 얼굴인식 시스템의 성능 평가를 위하여 IC&CI Lab data를 사용하고 실제 얼굴 인식 시스템을 설계한다.

신체 부분 포즈를 이용한 깊이 영상 포즈렛과 제스처 인식 (Depth Image Poselets via Body Part-based Pose and Gesture Recognition)

  • 박재완;이칠우
    • 스마트미디어저널
    • /
    • 제5권2호
    • /
    • pp.15-23
    • /
    • 2016
  • 본 논문에서는 신체 부분 포즈를 이용한 깊이 영상 포즈렛과 제스처를 인식하는 방법을 제안한다. 제스처는 순차적인 포즈로 구성되어 있기 때문에, 제스처를 인식하기 위해서는 시계열 포즈를 획득하는 것에 중점을 두고 있어야 한다. 하지만 인간의 포즈는 자유도가 높고 왜곡이 많기 때문에 포즈를 정확히 인식하는 것은 쉽지 않은 일이다. 그래서 본 논문에서는 신체의 전신 포즈를 사용하지 않고 포즈 특징을 정확히 얻기 위해 부분 포즈를 사용하였다. 본 논문에서는 16개의 제스처를 정의하였으며, 학습 영상으로 사용하는 깊이 영상 포즈렛은 정의된 제스처를 바탕으로 생성하였다. 본 논문에서 제안하는 깊이 영상 포즈렛은 신체 부분의 깊이 영상과 해당 깊이 영상의 주요 3차원 좌표로 구성하였다. 학습과정에서는 제스처를 학습하기 위하여 깊이 카메라를 이용하여 정의된 제스처를 입력받은 후, 3차원 관절 좌표를 획득하여 깊이 영상 포즈렛이 생성되었다. 그리고 깊이 영상 포즈렛을 이용하여 부분 제스처 HMM을 구성하였다. 실험과정에서는 실험을 위해 깊이 카메라를 이용하여 실험 영상을 입력받은 후, 전경을 추출하고 학습된 제스처에 해당하는 깊이 영상 포즈렛을 비교하여 입력 영상의 신체 부분을 추출한다. 그리고 HMM을 적용하여 얻은 결과를 이용하여 제스처 인식에 필요한 부분 제스처를 확인한다. 부분 제스처를 이용한 HMM을 이용하여 효과적으로 제스처를 인식할 수 있으며, 관절 벡터를 이용한 인식률은 약 89%를 확인할 수 있었다.

SIFT 알고리즘을 이용한 혼합형 모바일 교육 시스템 (Mixed Mobile Education System using SIFT Algorithm)

  • 홍광진;정기철;한은정;양종열
    • 한국산업정보학회논문지
    • /
    • 제13권2호
    • /
    • pp.69-79
    • /
    • 2008
  • 무선 인터넷과 모바일 기기의 보급으로 언제 어디서나 원하는 정보를 얻을 수 있는 유비쿼터스 환경을 위한 인프라가 구축되면서 교육을 포함한 다양한 분야에서 오프라인과 온라인 컨텐츠를 동시에 이용함으로써 정보 전달의 효율성을 높일 수 있는 방법에 대한 연구가 활발하게 이루어지고 있다. 본 논문은 사용자에게 모바일 기기를 이용하여 오프라인과 온라인 컨텐츠를 함께 제공하여 교육의 효과를 높일 수 있는 혼합형 모바일 교육 시스템(Mixed Mobile Education System: MME)을 제안한다. 제안된 시스템은 기존의 연구와 달리 사용자에게 자연스러운 환경을 제공하기 위해서 부가적인 태그를 사용하지 않는다. 태그를 사용하는 시스템의 경우 새로운 데이터의 등록이 어렵고 유사한 내용의 오프라인 컨텐츠 사용이 불가능하기 때문이다. 본 논문에서 우리는 저화질의 카메라를 통해 입력받은 영상에서 잡음 색상 왜곡, 크기 및 기울기 변화에 영향을 적게 받는 특징점을 추출하고 오프라인 컨텐츠를 인식하기 위해 Scale Invariant Feature Transform(SIFT) 알고리즘을 사용하였다. 또한 클라이언트-서버 구조를 사용함으로써 모바일 장치의 제한적인 저장 능력 문제를 해결하고 데이터의 등록 및 수정이 용이하도록 하였다. 실험을 통해 기존의 흔합형 교육 시스템과의 성능을 비교하고 제안된 시스템의 장단점을 확인하였으며, 시스템을 실생활에 적용하였을 경우 다양한 상황에서도 사용자에게 만족할만한 성능을 제공함을 확인하였다.

  • PDF

암석 절리면 거칠기 과소평가의 개선을 위한 새로운 측정방법의 적용 (Application of New Measurement Method for Improvement of Rock Joint Roughness Underestimation)

  • 홍은수;이주공;이종섭;이인모
    • 대한토목학회논문집
    • /
    • 제26권2C호
    • /
    • pp.133-142
    • /
    • 2006
  • 암석 절리면의 거칠기를 측정하는 수많은 방법이 제시되었지만 측정간격과 측정방법 때문에 항상 원래의 거칠기를 완벽하게 나타낼 수 없다는 한계가 있었다. 이와 같은 이유로, 현재 사용되고 있는 측정방법에서는 사각지대가 발생하며 거칠기를 왜곡시킨다. 이 연구에서는 현재 널리 사용되고 있는 방식의 대안으로써 카메라 방식의 3D 스캐너를 이용한 새로운 거칠기 측정법을 제시하려고 하였다. 먼저 인공 거칠기의 과소평가 문제를 레이저 프로파일러와 같은 기존의 방법에 의해 해석하였다. 또한, 8개의 시편을 2종의 암석 절리면에서 복제하고 3D 스캐너로 측정하였고, 얻어진 8개의 3D 표면 자료와 320개의 2D 프로파일 자료에 대한 거칠기 계수 값을 기존의 측정방법과 새로운 측정방법을 사용하여 분석 하였다. 해석결과 측정간격이 거칠기 왜곡현상의 원인이 될 수 있다는 것을 확인시켜 주었으며 만곡의 기울기는 기존의 방법으로는 고려할 수 없음을 알 수 있었다. 카메라 방식의 3D 스캐너를 측정방법으로 사용하면 기존의 방법에서 보다 거칠기가 10% 정도 더 크게 평가된 값을 얻을 수 있으며, 실제 프로파일의 형태를 좀 더 명확히 파악할 수 있는 것으로 나타났다. 따라서 새로운 방법이 빠르고 정밀하면서도 정확한 거칠기 측정방법이 될 수 있음을 확인할 수 있었다.

모바일폰 기반 스테레오 영상에서 산출된 3차원 정보의 정확도 분석 (3D Accuracy Analysis of Mobile Phone-based Stereo Images)

  • 안희란;김재인;김태정
    • 방송공학회논문지
    • /
    • 제19권5호
    • /
    • pp.677-686
    • /
    • 2014
  • 본 논문에서는 모바일폰 카메라를 이용하여 취득한 스테레오 영상으로부터 3차원 정보를 산출하고 이를 통해 3차원 정확도를 분석하고자 한다. 3차원 정확도 분석을 위해 스테레오 모델의 수렴각 변화에 따른 정확도 결과를 비교하였다. 본 논문에서는 내부 파라미터 산출과 영상의 왜곡보정 그리고 종속적 상대표정을 이용한 스테레오 영상의 기하구조 추정을 통해 모델 공간 상의 3차원 좌표를 계산하였으며, 이를 객체 공간 상의 좌표계로 변환함으로써 정량적인 3차원 정확도 분석을 수행하였다. 실험결과에서는 스테레오 모델의 수렴각이 약 $17^{\circ}$ 이상일 때, 상대적으로 높은 정확도를 갖는 3차원 정보가 생성됨을 확인하였다. 결과적으로 정확도 높은 3차원 정보 생성을 위해서는 촬영거리 및 기선거리를 고려하여 적절한 수렴각을 이루는 스테레오 모델 수립이 필요하다. 본 논문의 결과가 향후 모바일폰의 스테레오 영상을 이용한 입체영상 제작 및 3차원 객체 복원 등 관련 연구에 활용될 수 있을 것으로 기대된다.