• 제목/요약/키워드: 영상기반 위치 추정

검색결과 262건 처리시간 0.027초

사실적인 shadow 표현을 위한 HDR 영상 기반 광원 추정 (Lighting Source Estimation from Real World Illumination for Realistic Shadowing)

  • 유재덕;;김강연;이관행
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.1277-1282
    • /
    • 2006
  • 본 논문에서는 배경과 오브젝트 합성 시 사실적인 그림자 효과를 표현하기 위해 HDR 영상을 기반으로 한 소수의 방향성 광원을 추정하는 기법을 제안한다. 실 세계 정보를 모두 포함하는HDR 영상을 가시화 하기 위해 톤 맵핑(tone mapping)하여 그 영상으로부터 광원의 위치가 되는 밝은 영역들을 찾아내고 그 위치들로부터 방향성 광원을 추정한다. 카메라의 노출시간을 짧게 하여 촬영한 영상에서 나타나는 부분을 실제 광원이 위치하는 부분으로 볼 수 있으므로 톤 맵핑한 영상을 이미지 프로세싱을 거쳐 노출 시간을 짧게 하여 촬영한 영상과 비슷한 결과를 얻을 수 있도록 한 후 밝은 영역만 표현 되도록 한다. 전 처리를 거친 영상을 기반으로 밝은 영역을 추정하기 때문에 보다 정확한 광원의 위치 추정이 가능하며, 추정된 밝은 영역과 일치하는 HDR 영상의 데이터를 사용하기 때문에 정확한 광원의 위치와 데이터를 얻을 수 있다. 또한 추정된 광원은 실제 렌더링에 곧바로 사용이 가능하며, 이를 통해 사실적인 shadowing 효과를 얻을 수 있다.

  • PDF

신경 회로망과 칼만 필터를 결합한 새로운 방식의 로봇 위치인식 알고리즘 (A novel robot localization algorithm based on neural network and Kalman filter)

  • 이희성;김은태;박민용
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 춘계학술대회 학술발표 논문집 제14권 제1호
    • /
    • pp.519-522
    • /
    • 2004
  • 본 논문에서는 외향 기반 접근법을 기반으로 한 로봇의 위치 추정 알고리즘을 제안한다. 로봇이 작업을 수행할 공간에서 강한 상관관계를 갖는 영상들을 취득하여 eigenspace로 투영 시킴으로써 주성분의 추출을 수행한다. 이 추출된 주성분은 신경 회로망을 이용해 eigenspace에서의 연속 외향 함수(continuous appearance function)로 나타낼 수 있다. 로봇의 위치 추정을 위해 새로운 영상이 주어지면 이것을 eigenspace로 투영 시킨 후 연속 외향 함수를 통해 로봇의 현재 위치를 추정한다. 최종적으로는, 영상안의 데이터에 칼만 필터를 적용함으로써 로봇의 정확한 위치와 영상으로 획득된 정보 사이의 오차를 이용하여 보다 정확한 이동 로봇의 위치를 추정하는 알고리즘을 제안한다.

  • PDF

강인추정 기법에 기반한 정지궤도 기상위성영상의 자동 기하보정 (Automated Geometric Correction based on Robust Estimation with Geostationary Weather Satellite Image)

  • 이태윤;안명환;오현종
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2007년도 춘계학술대회 논문집
    • /
    • pp.161-166
    • /
    • 2007
  • Multi-functional Transport Satellite lR(MTSAT-lR)과 같은 정지궤도 기상위성의 지상 전처리 과정에는 영상위치보정(Image navigation and registration)이 포함된다. 영상위치보정은 위성 영상의 기하학적인 왜곡을 보정하는 과정이다. 랜드마크를 이용하는 영상위치보정 과정은 랜드마크 결정과 센서 모델 추정, 리샘플링(Resampling)의 세 가지 단계로 나눌 수 있다. MTSAT-1R의 High Resolution Image Data(HiRID)는 이미 영상위치보정이 수행되었지만, 기하학적인 오차가 남아있는 영상을 포함하기도 한다. 본 연구에서는 이런 기하학적인 오차를 제거하기 위해서 강인추정 기법에 기반한 기하보정을 수행하였다. 이태윤 등 (2005)은 강인추정 기법과 Direct Linear Transformation (DLT)에 기반한 오정합 판별 방법을 제안하였다. 이 판별 방법을 적용하여 추정된 DLT로 MTSAT-1R 영상의 기하보정을 수행한 결과에는 향상된 정확도로 기하보정 된 영상 뿐만 아니라 비교적 큰 오차를 포함하는 영상도 있었다. 이를 해결하기 위해서 본 연구에서는 강인추정 기법과 Affine 변환을 이용한 방법을 적용하였다. 본 연구에서는 기준 해안선에서 추출한 1,407개의 랜드마크와 8개의 MTSAT-1R 영상을 이용하였으며,강인추정 기법에 DLT를 적용한 방법과 Affine 변환을 적용한 방법으로 자동 기하보정을 수행하여 그 결과를 비교하였다. 또한 강인추정 기볍 중 RANSAC과 MSAC의 적용 결과를 비교하여 보았다. 그 결과,DLT로 기하보정 시,본 논문에서 제안된 방법이 강인추정 기법에 DLT를 적용한 방법 보다 더 좋은 성능을 보여주었다.

  • PDF

UV-map 기반의 신경망 학습을 이용한 조립 설명서에서의 부품의 자세 추정 (UV Mapping Based Pose Estimation of Furniture Parts in Assembly Manuals)

  • 강이삭;조남익
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.667-670
    • /
    • 2020
  • 최근에는 증강현실, 로봇공학 등의 분야에서 객체의 위치 검출 이외에도, 객체의 자세에 대한 추정이 요구되고 있다. 객체의 자세 정보가 포함된 데이터셋은 위치 정보만 포함된 데이터셋에 비하여 상대적으로 매우 적기 때문에 인공 신경망 구조를 활용하기 어려운 측면이 있으나, 최근에 들어서는 기계학습 기반의 자세 추정 알고리즘들이 여럿 등장하고 있다. 본 논문에서는 이 가운데 Dense 6d Pose Object detector (DPOD) [11]의 구조를 기반으로 하여 가구의 조립 설명서에 그려진 가구 부품들의 자세를 추정하고자 한다. DPOD [11]는 입력으로 RGB 영상을 받으며, 해당 영상에서 자세를 추정하고자 하는 객체의 영역에 해당하는 픽셀들을 추정하고, 객체의 영역에 해당되는 각 픽셀에서 해당 객체의 3D 모델의 UV map 값을 추정한다. 이렇게 픽셀 개수만큼의 2D - 3D 대응이 생성된 이후에는, RANSAC과 PnP 알고리즘을 통해 RGB 영상에서의 객체와 객체의 3D 모델 간의 변환 관계 행렬이 구해지게 된다. 본 논문에서는 사전에 정해진 24개의 자세 후보들을 기반으로 가구 부품의 3D 모델을 2D에 투영한 RGB 영상들로 인공 신경망을 학습하였으며, 평가 시에는 실제 조립 설명서에서의 가구 부품의 자세를 추정하였다. 실험 결과 IKEA의 Stefan 의자 조립 설명서에 대하여 100%의 ADD score를 얻었으며, 추정 자세가 자세 후보군 중 정답 자세에 가장 근접한 경우를 정답으로 평가했을 때 100%의 정답률을 얻었다. 제안하는 신경망을 사용하였을 때, 가구 조립 설명서에서 가구 부품의 위치를 찾는 객체 검출기(object detection network)와, 각 개체의 종류를 구분하는 객체 리트리벌 네트워크(retrieval network)를 함께 사용하여 최종적으로 가구 부품의 자세를 추정할 수 있다.

  • PDF

외향 기반 환경 인식을 사용한 이동 로봇의 위치인식 알고리즘 (Localization of a mobile robot using the appearance-based approach)

  • 이희성;김은태
    • 전자공학회논문지CI
    • /
    • 제41권6호
    • /
    • pp.47-53
    • /
    • 2004
  • 본 논문에서는 외향 기반 접근법을 기반으로 한 로봇의 위치 추정 알고리즘을 제안한다. 우선, 제안한 알고리즘은 주성분 분석(PCA: Principal Component Analysis)을 이용하여 취득한 영상들을 eigenspace로 투영시킴으로써 영상을 압축한다. 추출된 주성분은 eigenspace에서의 연속 외향 함수(continuous appearance function)로 나타낼 수 있다. 신경 회로망은 로봇의 위치추정을 위해 새로운 영상이 주어지면 이것을 eigenspace로 투영 시킨 후 연속 외향 함수를 통해 로봇의 현재 위치를 추정한다. 최종적으로는, 영상안의 데이터에 칼만 필터를 적용함으로써 로봇의 정확한 위치를 추정할 수 있다. 제안한 알고리즘을 실제 이동 로봇에 탑재하여 적용시킨 결과 로봇의 위치를 정확히 추정할 수 있음을 확인 할 수 있었다.

초고속 카메라 기반 투구 유무 판단 방법 (High-Speed Camera-based Pitching Existence Decision Method)

  • 조은지;김중식;김민수;김회율
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.244-248
    • /
    • 2020
  • 본 논문에서는 초고속 카메라 기반 투구 궤적 분석 시스템 자동화를 위한 투구 유무 판단 방법을 제안한다. 기존의 카메라 기반 투구 궤적 분석 시스템에서는 궤적 분석을 위한 투구 영상을 수동으로 확보해야 하는 한계가 있다. 이를 해결하기 위해 투수가 던진 공이 포수를 향해 등가속도 운동을 한다는 특성을 이용하여 자동으로 영상 시퀀스 내 투구 유무를 판단한다. 먼저 프레임 별로 야구공 위치를 추정하고, 추정된 공 위치들을 사용해 공 궤적을 모델링한다. 이후 모델링 된 각 궤적 별로 투구 시작 위치와 종료 위치를 획득하고, 시작 위치와 종료 위치에 대한 편차 값을 기준으로 투구 유무를 결정한다. 제안하는 방법의 정확도를 측정하기 위해 실제 야구 경기를 촬영한 영상을 이용하여 실험하였고, 영상 내 모든 투구를 정확하게 판단했음을 확인하였다.

  • PDF

피부색 정보 및 역운동학을 이용한 인체 움직임 추정 (Human Body Postures Estimation Using skin color information and Inverse Kinematics)

  • 박정주;김주혜;김명희
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (B)
    • /
    • pp.820-822
    • /
    • 2005
  • 본 논문에서는 $CAVE^{TM}-like$ 시스템에서 역운동학을 이용하여 사용자의 인체 움직임을 실시간으로 추정하기 위한 기법을 제안한다. 사용자를 둘러싼 스크린으로 투사되는 빛에 인하여 매순간 변화하는 배경을 포함하는 영상으로부터 사용자 영역을 추출하기 위하여 적외선 반사 영상을 이용하였다. 이를 이용하여 추출된 사용자 컬러 영상에 프로젝션 기반 가상환경의 특성을 고려한 컬러 모델을 적용하여 사용자의 얼굴과 손 영역을 추출하였다. 위치 추정 단계를 통하여 다음 프레임에서의 관심영역 위치를 미리 예측하고 추출된 사용자의 손과 얼굴 위치 정보를 말단장치로 이용하고, 관절모델과 운동학적 제약조건을 기반으로 역운동학적인 방법을 통해 사용자의 동작을 추정하였다. 제안 기법에서는 별도의 마커나 도구를 사용하지 않기 때문에 비침입적이며 사용자 움직임의 제약을 최소화할 수 있기 때문에 보다 인간 중심적인 인터랙션을 위한 기반 기술로 이용될 수 있다.

  • PDF

무인항공기의 자동 착륙을 위한 LSM 및 CPA를 활용한 영상 기반 장애물 상태 추정 및 충돌 예측 (Vision-based Obstacle State Estimation and Collision Prediction using LSM and CPA for UAV Autonomous Landing)

  • 이성봉;박천만;김혜지;이동진
    • 한국항행학회논문지
    • /
    • 제25권6호
    • /
    • pp.485-492
    • /
    • 2021
  • 무인항공기의 영상 기반 자동 정밀 착륙 기술은 착륙 지점에 대한 정밀한 위치 추정 기술과 착륙 유도 기술이 요구된다. 또한, 안전한 착륙을 위하여 지상 장애물에 대한 착륙 지점의 안전성을 판단하고, 안전성이 확보된 경우에만 착륙을 유도하도록 설계되어야 한다. 본 논문은 자동 정밀 착륙을 수행하기 위하여 영상 기반의 항법과 착륙 지점의 안전성을 판단하기 위한 알고리즘을 제안한다. 영상 기반 항법을 수행하기 위해 CNN 기법을 활용하여 착륙 패드를 탐지하고, 탐지 정보를 활용하여 통합 항법 해를 도출한다. 또한, 위치 추정 성능을 향상시키기 위한 칼만필터를 설계 및 적용한다. 착륙 지점의 안전성을 판단하기 위하여 동일한 방식으로 장애물 탐지 및 위치 추정을 수행하고, LSM을 활용하여 장애물의 속도를 추정한다. 추정한 장애물의 상태를 활용하여 계산한 CPA를 기반으로 장애물과의 충돌 여부를 판단한다. 최종적으로 본 논문에서 제안된 알고리즘을 비행 실험을 통해 검증한다.

관성센서를 이용한 SLAM 기반의 위치 추정 보정 기법에 관한 연구 (A Study on the Compensating of the Dead-reckoning Based on SLAM Using the Inertial Sensor)

  • 강신혁;염문진;권오상;이응혁
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2008년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.85-86
    • /
    • 2008
  • 로봇은 오도메터리 정보를 이용해 위치추정을 할 수 있다. 그러나 주행하는 동안 발생되는 슬립현상에 의해 오도메터러 정보만으로는 로봇의 정확한 위치추정을 할 수 없다. 정확한 위치추정을 위해서 관성센서를 이용하여 오도메터리 정보를 보정한 위치추정 방법이 있다. 실내 이동로봇에 적용하려면 관성센서는 소형이어야 하는데, 그에 따라 노이즈는 심해지고, 정확성도 낮아지는 문제가 있나. 그래서 현재까지는 이런 문제를 갖고 있는 관성센서를 실내 이동로봇의 위치추정의 정확성을 높이기 위해 비관성센서 또는 카메라 영상을 조합하는 연구들을 하고 있다. 그러나 이러한 연구들은 대부분 관성센서 성능 실험과 시뮬레이션에 결론을 내리고 있어 실제 실험에 따른 정확성을 확인할 수 없다. 또한 최근 영상 SIFT 알고리즘을 적용한 SLAM 연구에서도 나타나는 문제는 이동로봇의 위치추정의 부정확성이다. 따라서 본 논문은 SLAM에서 문제가 되는 위치추정의 부정확성을 최소화하기 위해 자이로와 가속도계를 이용하여 정학한 위치추정을 하고자 한다.

  • PDF

영상 기반 항법을 위한 가우시안 혼합 모델 기반 파티클 필터 (Particle Filters using Gaussian Mixture Models for Vision-Based Navigation)

  • 홍경우;김성중;방효충;김진원;서일원;박장호
    • 한국항공우주학회지
    • /
    • 제47권4호
    • /
    • pp.274-282
    • /
    • 2019
  • 무인항공기의 영상 기반 항법은 널리 사용되는 GPS/INS 통합 항법 시스템의 취약점을 보강할 수 있는 중요한 기술로 이에 대한 연구가 활발히 이루어지고 있다. 하지만 일반적인 영상 대조 기법은 실제 항공기 비행 상황들을 적절하게 고려하기 힘들다는 단점이 있다. 따라서 본 논문에서는 영상기반 항법을 위한 가우시안 혼합 모델 기반의 파티클 필터를 제안한다. 제안한 파티클 필터는 영상과 데이터베이스를 가우시안 혼합 모델로 가정하여 둘 간의 유사도를 이용하여 항체의 위치를 추정한다. 또한 몬테카를로 시뮬레이션을 통해 위치 추정 성능을 확인한다.