• Title/Summary/Keyword: 영상기반 위치 추정

Search Result 262, Processing Time 0.027 seconds

3D Facial Model Expression Creation with Head Motion (얼굴 움직임이 결합된 3차원 얼굴 모델의 표정 생성)

  • Kwon, Oh-Ryun;Chun, Jun-Chul;Min, Kyong-Pil
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.1012-1018
    • /
    • 2007
  • 본 논문에서는 비전 기반 3차원 얼굴 모델의 자동 표정 생성 시스템을 제안한다. 기존의 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 배제한 얼굴 표정 생성에 초점을 맞추고 있으며 얼굴 모션 추정과 표정 제어에 관한 연구는 독립적으로 이루어지고 있다. 제안하는 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출 방법으로는 얼굴 후보 영역 검출과 얼굴 영역 검출 과정으로 구성된다. HT 컬러 모델을 이용하며 얼굴의 후보 영역을 검출하며 얼굴 후보 영역으로부터 PCA 변환과 템플릿 매칭을 통해 얼굴 영역을 검출하게 된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 3차원 실린더 모델의 투영과 LK 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 또한 영상 보정을 통해 강인한 모션 추정을 할 수 있다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용하며 12개의 얼굴 특징점으로부터 얼굴 모델의 표정을 생성한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 눈썹, 눈, 입 주위의 얼굴 특징점을 검출하며 LK 알고리즘을 이용하여 특징점을 추적(Tracking)한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수를 획득한다. 애니메이션 매개변수로부터 얼굴 모델의 제어점을 이동시키며 주위의 정점들은 RBF 보간법을 통해 변형한다. 변형된 얼굴 모델로부터 얼굴 표정을 생성하며 모션 추정 결과를 모델에 적용함으로써 얼굴 모션 정보가 결합된 3차원 얼굴 모델의 표정을 생성한다.

  • PDF

Localization of a Tracked Robot Based on Fuzzy Fusion of Wheel Odometry and Visual Odometry in Indoor and Outdoor Environments (실내외 환경에서 휠 오도메트리와 비주얼 오도메트리 정보의 퍼지 융합에 기반한 궤도로봇의 위치추정)

  • Ham, Hyeong-Ha;Hong, Sung-Ho;Song, Jae-Bok;Baek, Joo-Hyun;Ryu, Jae-Kwan
    • Transactions of the Korean Society of Mechanical Engineers A
    • /
    • v.36 no.6
    • /
    • pp.629-635
    • /
    • 2012
  • Tracked robots usually have poor localization performance because of slippage of their tracks. This study proposes a new localization method for tracked robots that uses fuzzy fusion of stereo-camera-based visual odometry and encoder-based wheel odometry. Visual odometry can be inaccurate when an insufficient number of visual features are available, while the encoder is prone to accumulating errors when large slips occur. To combine these two methods, the weight of each method was controlled by a fuzzy decision depending on the surrounding environment. The experimental results show that the proposed scheme improved the localization performance of a tracked robot.

Intelligent Video Surveillance System for Video Analysis, Recognition and Tracking (비디오 영상분석, 인식 및 추적을 위한 지능형 비디오 감시시스템)

  • Kim, Tae-Kyung;Paik, Joon-Ki
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.498-500
    • /
    • 2012
  • 비디오 해석 및 추적기술은 특정한 시스템에서만 적용되는 것이 아니다. 이것은 비디오 내에서 의미 있는 정보를 능동적으로 감시 대상을 정의, 해석, 모델화, 추정 및 추적 할 수 있는 기반 기술을 의미하다. 일반적으로 감시시스템에서 감시 대상은 사람이나 차량이며, 상황에 따라 출입통제 구역으로 설정하기도 한다. 이는 연속된 영상에서 객체의 형태, 모양, 행동 분석, 움직임, 색상정보를 가지고 데이터 정의, 검출, 모델화를 통하여 인식, 식별 그리고 추적한다. 본 논문에서는 비디오 영상분석을 통해 단일카메라기반의 감시시스템과 PTZ 카메라기반 감시시스템 제안한다. 이때 단일 카메라기반의 감시는 배경생성방법을 이용하여 연속된 영상내의 객체를 지속적으로 관리가 가능하도록 설계하였고, PTZ 카메라기반의 감시는 카메라의 이동에 따른 배경안정화 방법과 카메라의 절대좌표를 활용하여 카메라 이동을 제어함과 동시에 오검출 문제를 해결하였다. 실험 및 결과분석으로는 시나리오 환경에서 배경생성방법을 이용한 검출의 정확성과 PTZ카메라 위치 변화에도 강인한 검출 결과를 비교 분석하였다.

Survey on Visual Navigation Technology for Unmanned Systems (무인 시스템의 자율 주행을 위한 영상기반 항법기술 동향)

  • Kim, Hyoun-Jin;Seo, Hoseong;Kim, Pyojin;Lee, Chung-Keun
    • Journal of Advanced Navigation Technology
    • /
    • v.19 no.2
    • /
    • pp.133-139
    • /
    • 2015
  • This paper surveys vision based autonomous navigation technologies for unmanned systems. Main branches of visual navigation technologies are visual servoing, visual odometry, and visual simultaneous localization and mapping (SLAM). Visual servoing provides velocity input which guides mobile system to desired pose. This input velocity is calculated from feature difference between desired image and acquired image. Visual odometry is the technology that estimates the relative pose between frames of consecutive image. This can improve the accuracy when compared with the exisiting dead-reckoning methods. Visual SLAM aims for constructing map of unknown environment and determining mobile system's location simultaneously, which is essential for operation of unmanned systems in unknown environments. The trend of visual navigation is grasped by examining foreign research cases related to visual navigation technology.

Smartphone Based FND Recognition Method using sequential difference images and ART-II Clustering (차영상과 ART2 클러스터링을 이용한 스마트폰 기반의 FND 인식 기법)

  • Koo, Kyung-Mo;Cha, Eui-Young
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.16 no.7
    • /
    • pp.1377-1382
    • /
    • 2012
  • In this paper, we propose a novel recognition method that extract source data from encoded signal that are displayed on FND mounted on home appliances. First of all, it find a candidate FND region from sequential difference images taken by smartphone and extract segment image using clustering RGB value. After that, it normalize segment images to correct a slant error and recognize each segments using a relative distance. Experiments show the robustness of the recognition algorithm on smartphone.

Panorama Field Rendering based on Depth Estimation (깊이 추정에 기반한 파노라마 필드 렌더링)

  • Jung, Myoungsook;Han, JungHyun
    • Journal of the Korea Computer Graphics Society
    • /
    • v.6 no.4
    • /
    • pp.15-22
    • /
    • 2000
  • One of the main research trends in image based modeling and rendering is how to implement plenoptic function. For this purpose, this paper proposes a novel approach based on a set of randomly placed panoramas. The proposed approach, first of all, adopts a simple computer vision technique to approximate omni-directional depth information of the surrounding scene, and then corrects/interpolates panorama images to generate an output image at a vantage viewpoint. Implementation results show that the proposed approach achieves smooth navigation at an interactive rate.

  • PDF

CG Tool for Validating Acquisition and Generation Technology of VR Video (실사 VR영상 획득 및 생성 기술 검증용 CG툴)

  • Jeong, Jun Young;Yun, Kugjin;Cheong, Won-sik;Seo, Jeongil
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.06a
    • /
    • pp.229-230
    • /
    • 2019
  • 실사 기반의 VR (Virtual Reality) 영상을 생성하기 위해서는 카메라 리그 (rig) 설계 기술, 스티칭(stitching) 기술, 3 차원 공간 정보 추정 기술 등 여러 기술이 필요하다. 이러한 기술에 대한 연구를 진행하려면 카메라 위치, 피사체 거리, 조명 정도 등 다양한 요소를 고려한 수 많은 실험을 수행해야 하는데, 실사 조건에서 이를 직접 수행하려면 상당한 시간과 노력이 소요된다. 따라서 원하는 실험 조건을 쉽게 구성할 수 있는 컴퓨터 그래픽스 (CG: Computer Graphics) 환경 상에서 먼저 실험을 진행한 이후 실사로 확장하는 것이 더욱 효율적인 접근법이 될 것이다. 본 논문에서는 VR 영상의 생성에 요구되는 다양한 기술을 연구할 때 활용할 수 있는 CG 기반의 툴을 소개하고자 한다.

  • PDF

Update Policy and Estimation of Uncertain Position Using Trajectory Information (위상 정보를 이용한 갱신 정책과 불확실한 위치 정보에 대한 추정 기법)

  • Sim, Tai-Jung;Kim, Jae-Hong;Jung, Won-Il;Jang, Yong-Il;Bae, Hae-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2003.05c
    • /
    • pp.1651-1654
    • /
    • 2003
  • 이동 단말의 보급이 보편화됨에 따라 이동 객체의 위치 정보를 기반으로 사용자에게 사람이나 사물, 차량 등과 같은 이동 객체의 위치를 파악하여 그에 대한 정보를 제공해 주는 시스템이 필요로 하게 되었나 이러만 이동 객체관리 시스템에서는 계속적으로 위치 정보가 변화하는 이동 객체의 특성상 데이터의 빈번한 갱신이 일어나게 되고 DBMS에 명시적으로 저장되지 않은 위치 정보에 대해서도 보다 정확한 위치를 사용자에게 제공해 주어야 한다. 그러나 차량의 위치 추적과 같이 적용 개체가 차량에 한정된 경우 이동 경로가 도로상으로 제한되어 있으므로 이동 경로를 예측하기 힘든 사람과 같은 객체와는 특성이 나르나 따라서 차량 객체에 대해 보다 효과적인 서비스를 제공해 주기 위해서는 사람에 대한 위치 추적과는 다른 갱신 정책과 불확실한 위치의 추정 기법이 필요하다. 본 논문에서는 공간 데이터에 저장된 도로의 위상 정보와 차량의 속도 속성을 이용한 갱신 정책을 정하여 갱신 빈도수로 줄이고 도로 레이어의 위상 정보를 통해 불확실한 과거 및 미래의 위치로 추정하는 기법을 제안한다. 제안한 갱신 정책은 차량의 속도를 고려하여 현재의 위치에서 도로상의 교차점에 도착하는 시점의 위치를 예측하여 데이터의 갱신 시점으로 결정한다. 또한 불확실한 위치에 대한 추정은 이동하는 도회와 대응되는 위상 정보를 기반으로 차량의 이동 방향을 예측하 여 불확실한 미래의 위치를 결정할 수 있으며 명시적으로 저장되지 않은 과거 위치 정보의 검색에 대한 요청이 발생했을 경우 위상 정보를 이용하여 위치를 보정하고 사용자에게 보나 높은 정확성을 지닌 정보를 제공해 줄 수 있다.다. SQL Server 2000 그리고 LSF를 이용하였다. 그리고 구현 환경과 구성요소에 대한 수행 화면을 보였다.ool)을 사용하더라도 단순 다중 쓰레드 모델보다 더 많은 수의 클라이언트를 수용할 수 있는 장점이 있다. 이러한 결과를 바탕으로 본 연구팀에서 수행중인 MoIM-Messge서버의 네트워크 모듈로 다중 쓰레드 소켓폴링 모델을 적용하였다.n rate compared with conventional face recognition algorithms. 아니라 실내에서도 발생하고 있었다. 정량한 8개 화합물 각각과 총 휘발성 유기화합물의 스피어만 상관계수는 벤젠을 제외하고는 모두 유의하였다. 이중 톨루엔과 크실렌은 총 휘발성 유기화합물과 좋은 상관성 (톨루엔 0.76, 크실렌, 0.87)을 나타내었다. 이 연구는 톨루엔과 크실렌이 총 휘발성 유기화합물의 좋은 지표를 사용될 있고, 톨루엔, 에틸벤젠, 크실렌 등 많은 휘발성 유기화합물의 발생원은 실외뿐 아니라 실내에도 있음을 나타내고 있다.>10)의 $[^{18}F]F_2$를 얻었다. 결론: $^{18}O(p,n)^{18}F$ 핵반응을 이용하여 친전자성 방사성동위원소 $[^{18}F]F_2$를 생산하였다. 표적 챔버는 알루미늄으로 제작하였으며 본 연구에서 연구된 $[^{18}F]F_2$가스는 친핵성 치환반응으로 방사성동위원소를 도입하기 어려운 다양한 방사성의 약품개발에 유용하게 이용될 수 있을 것이다.었으나 움직임 보정 후 영상을 이용하여 비교한 경우, 결합능 변화가 선조체 영역에서 국한되어 나타나며

  • PDF

Estimating Human Size in 2D Image for Improvement of Detection Speed in Indoor Environments (실내 환경에서 검출 속도 개선을 위한 2D 영상에서의 사람 크기 예측)

  • Gil, Jong In;Kim, Manbae
    • Journal of Broadcast Engineering
    • /
    • v.21 no.2
    • /
    • pp.252-260
    • /
    • 2016
  • The performance of human detection system is affected by camera location and view angle. In 2D image acquired from such camera settings, humans are displayed in different sizes. Detecting all the humans with diverse sizes poses a difficulty in realizing a real-time system. However, if the size of a human in an image can be predicted, the processing time of human detection would be greatly reduced. In this paper, we propose a method that estimates human size by constructing an indoor scene in 3D space. Since the human has constant size everywhere in 3D space, it is possible to estimate accurate human size in 2D image by projecting 3D human into the image space. Experimental results validate that a human size can be predicted from the proposed method and that machine-learning based detection methods can yield the reduction of the processing time.

Panoramic 3D Reconstruction of an Indoor Scene Using Depth and Color Images Acquired from A Multi-view Camera (다시점 카메라로부터 획득된 깊이 및 컬러 영상을 이용한 실내환경의 파노라믹 3D 복원)

  • Kim, Se-Hwan;Woo, Woon-Tack
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.24-32
    • /
    • 2006
  • 본 논문에서는 다시점 카메라부터 획득된 부분적인 3D 점군을 사용하여 실내환경의 3D 복원을 위한 새로운 방법을 제안한다. 지금까지 다양한 양안차 추정 알고리즘이 제안되었으며, 이는 활용 가능한 깊이 영상이 다양함을 의미한다. 따라서, 본 논문에서는 일반화된 다시점 카메라를 이용하여 실내환경을 복원하는 방법을 다룬다. 첫 번째, 3D 점군들의 시간적 특성을 기반으로 변화량이 큰 3D 점들을 제거하고, 공간적 특성을 기반으로 주변의 3D 점을 참조하여 빈 영역을 채움으로써 깊이 영상 정제 과정을 수행한다. 두 번째, 연속된 두 시점에서의 3D 점군을 동일한 영상 평면으로 투영하고, 수정된 KLT (Kanade-Lucas-Tomasi) 특징 추적기를 사용하여 대응점을 찾는다. 그리고 대응점 간의 거리 오차를 최소화함으로써 정밀한 정합을 수행한다. 마지막으로, 여러 시점에서 획득된 3D 점군과 한 쌍의 2D 영상을 동시에 이용하여 3D 점들의 위치를 세밀하게 조절함으로써 최종적인 3D 모델을 생성한다. 제안된 방법은 대응점을 2D 영상 평면에서 찾음으로써 계산의 복잡도를 줄였으며, 3D 데이터의 정밀도가 낮은 경우에도 효과적으로 동작한다. 또한, 다시점 카메라를 이용함으로써 수 시점에서의 깊이 영상과 컬러 영상만으로도 실내환경 3D 복원이 가능하다. 제안된 방법은 네비게이션 뿐만 아니라 상호작용을 위한 3D 모델 생성에 활용될 수 있다.

  • PDF