• Title/Summary/Keyword: 3 차원 위치 인식

Search Result 213, Processing Time 0.03 seconds

A Study on Gesture Recognition Interface System using Stereo Camera (스테레오 카메라를 이용한 동작 인식 인터페이스에 관한 연구)

  • Jang, Young-Dae;Park, Ji-Hun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.11a
    • /
    • pp.97-100
    • /
    • 2007
  • 이 논문에서는 비전 시스템 기반 동작 인식 인터페이스 시스템으로 스테레오 카메라와 동적 제스처를 이용한 방식을 제안한다. 스테레오 카메라로부터 얻은 영상으로 손의 3차원 위치를 검출하고 이를 바탕으로 손의 동작을 추적하고 이를 인식함으로써 동적 제스처에 기반 한 동작 인식 방법을 제시한다. 이러한 깊이에 따른 제스처 동작을 인식하는 방법으로 단순한 컨트롤러부터 IPTV 제어나 가상의 마우스 제작이 가능한 본질적으로 편하고 자연스러운 인터페이스 구현 방향을 제시한다.

Planar-Object Position Estimation by using Scale & Affine Invariant Features (불변하는 스케일-아핀 특징 점을 이용한 평면객체의 위치 추정)

  • Lee, Seok-Jun;Jung, Soon-Ki
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.795-800
    • /
    • 2008
  • 카메라로 입력되는 영상에서 객체를 인식하기 위한 노력은, 기존의 컴퓨터 비전분야에서 좋은 이슈로 연구되고 있다. 영상 내부에 등장하는 객체를 인식하고 해당 객체를 포함하고 있는 전체 이미지에서 현재 영상의 위치를 인식하기 위해서는, 영상 내에 등장할 객체에 대한 트레이닝이 필요하다. 본 논문에서는 영상에 등장할 객체에 대해서, 특징 점을 검출(feature detection)하고 각 점들이 가지는 픽셀 그라디언트 방향의 벡터 값들을 그 이웃하는 벡터 값들과 함께 DoG(difference-of-Gaussian)함수를 이용하여 정형화 한다. 이는 추후에 입력되는 영상에서 검출되는 특징 점들과 그 이웃들 간의 거리나 스케일의 비율 등의 파리미터를 이용하여 비교함으로써, 현재 특징 점들의 위치를 추정하는 정보로 사용된다. 본 논문에서는 광역의 시설 단지를 촬영한 인공위성 영상을 활용하여 시설물 내부에 존재는 건물들에 대한 초기 특징 점들을 검출하고 데이터베이스로 저장한다. 트레이닝이 마친 후에는, 프린트된 인공위성 영상내부의 특정 건물을 카메라를 이용하여 촬영하고, 이 때 입력된 영상의 특징 점을 해석하여 기존에 구축된 데이터베이스 내의 특징 점과 비교하는 과정을 거친다. 매칭되는 특징 점들은 DoG로 정형화된 벡터 값들을 이용하여 해당 건물에 대한 위치를 추정하고, 3차원으로 기 모델링 된 건물을 증강현실 기법을 이용하여 영상에 정합한 후 가시화 한다.

  • PDF

Augmented Reality Applications with Locate Adjustment (위치 조정을 통한 증강현실 앱)

  • Phyu, Phyu Han;Kim, Deok-Hwan;Kim, Young-bong
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2011.05a
    • /
    • pp.575-576
    • /
    • 2011
  • 휴대형 단말기인 스마트폰이 급속도로 확산되면서 스마트폰을 이용한 위치 관련 앱들이 최근에 각광을 받고 있다. 특히 증강현실 시스템과 관련된 앱들은 영상에 대한 인식보다는 단말기의 위치를 파악하여 2차원 혹은 3차원 지도 데이터와 결합하는 방법을 많이 활용하고 있다. 그러나 스마트폰 단말기의 위치에 대한 정확성은 매우 높은 편이지만 기본적으로 제공되는 GSP의 오차범위와 주변 환경에 따라 발생하는 오차로 인해 부정확한 결과를 초래하기도 한다. 이 문제 해결을 위해 스마트폰의 증강현실 앱에 위치를 보정해 주는 기능을 첨가하여 GPS가 올바로 작동하지 않는 지역에서도 증강현실 장면을 보여줄 수 있게 되었다.

  • PDF

Real-time Simultaneous Localization and Mapping (SLAM) for Vision-based Autonomous Navigation (영상기반 자동항법을 위한 실시간 위치인식 및 지도작성)

  • Lim, Hyon;Lim, Jongwoo;Kim, H. Jin
    • Transactions of the Korean Society of Mechanical Engineers A
    • /
    • v.39 no.5
    • /
    • pp.483-489
    • /
    • 2015
  • In this paper, we propose monocular visual simultaneous localization and mapping (SLAM) in the large-scale environment. The proposed method continuously computes the current 6-DoF camera pose and 3D landmarks position from video input. The proposed method successfully builds consistent maps from challenging outdoor sequences using a monocular camera as the only sensor. By using a binary descriptor and metric-topological mapping, the system demonstrates real-time performance on a large-scale outdoor dataset without utilizing GPUs or reducing input image size. The effectiveness of the proposed method is demonstrated on various challenging video sequences.

An efficient 3D location tracking system by wireless sensor network (무선 센서네트워크를 이용한 효율적인 3차원 위치 추적 시스템)

  • 김영만;신동수;조재형
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10c
    • /
    • pp.235-237
    • /
    • 2004
  • 최근 급속히 발전하고 있는 유비쿼터스 컴퓨팅의 대두는 센서네트워크 산업 발전에 않은 영향을 끼치고 있다. 센서네트워크는 군사, 과학, smart home, 환경, 농업등 많은 분야에 응용할 수 있으며, 기존의 유무선 네트워크와 항께 미래를 같이할 차세대 네트워크로 평가 받고 있다. 본 논문에서는 저전력 무선 센서네트워크인 MICA2[1]를 이용하여, room size의 건물내의 공간에서 3자원위치를 인식 및 추적 할 수 있는 저가형 시스템에 대하여 설계 및 구현한다.

  • PDF

View Variations and Recognition of 2-D Objects (화상에서의 각도 변화를 이용한 3차원 물체 인식)

  • Whangbo, Taeg-Keun
    • The Transactions of the Korea Information Processing Society
    • /
    • v.4 no.11
    • /
    • pp.2840-2848
    • /
    • 1997
  • Recognition of 3D objects using computer vision is complicated by the fact that geometric features vary with view orientation. An important factor in designing recognition algorithms in such situations is understanding the variation of certain critical features. The features selected in this paper are the angles between landmarks in a scene. In a class of polyhedral objects the angles at certain vertices may form a distinct and characteristic alignment of faces. For many other classes of objects it may be possible to identify distinctive spacial arrangements of some readily identifiable landmarks. In this paper given an isotropic view orientation and an orthographic projection the two dimensional joint density function of two angles in a scene is derived. Also the joint density of all defining angles of a polygon in an image is derived. The analytic expressions for the densities are useful in determining statistical decision rules to recognize surfaces and objects. Experiments to evaluate the usefulness of the proposed methods are reported. Results indicate that the method is useful and powerful.

  • PDF

Real Time Maker Detection Algorithm for Motion Analysis (운동분석 및 측정을 위한 실시간 마커 인식 알고리즘)

  • Lee, Seung-Min;Lee, Ju-Yeon;Hwang, Jun;Kim, Mun-Hwa
    • The Transactions of the Korea Information Processing Society
    • /
    • v.5 no.5
    • /
    • pp.1367-1376
    • /
    • 1998
  • In this paper we propose an real time marker detection algorithm for motion analysis both in 2 dimensions and 3 dimensions with CCD camera and rfame grabber only which has no image processor. The main algorithm consists of the following 3 algorithms; 1) the tracing algorithm that makes it possible to predict the expected marker location by narrowing the searching boundary, 2) the searching algorithm that detects the marker in the expected boundary using Ad-hoc previous screen search technique, tornado search method rotate diagonal search method search technique, 3) the algorithm that finds the central point of the detected marker. We try to narrow the searching boundary for real time processing. Also, it is able to find the central point of the detected marker much faster than typical contour tracing algorithm.

  • PDF

3D Visualization for Flight Situational Awareness using Google Earth (구글 어스를 이용한 비행 상황인식을 위한 3차원 시각화)

  • Park, Seok-Gyu;Park, Myeong-Chul
    • Journal of the Korea Society of Computer and Information
    • /
    • v.15 no.12
    • /
    • pp.181-188
    • /
    • 2010
  • This paper proposes 3D visualization systems for the real-time situation awareness and a state information of the aircraft. This system was embodied with OpenGL and the Google Earth of web base using situation data of the aircraft. The existing system has problem which speed decrease and visible restricted map because massive data of terrain and satellite photo. This system is supports the visualization tool which is economic and entire area for a real-time situation awareness with minimum flight information using Open-API of the Google Earth. Also provides a visible convenience to expansion-view using multiple location information. This research result could be used to system for the situation awareness of the aircraft from web environment.

A Portable 3D Scanner using Single Point Laser (포인터 레이저를 이용한 휴대용 3D 스캐너)

  • Lee, Kyungme;Jang, Hyunsoo;Yoo, Hoon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2013.11a
    • /
    • pp.135-137
    • /
    • 2013
  • 본 논문은 포인터 레이저를 이용한 3D 스캔방식을 제안한다. 3D 스캔이란 물체의 3차원 정보(x, y, z)를 추정하는 기술이다. 3D 스캔 기술은 과거에서부터 많은 연구가 진행 되었으며 스테레오 카메라, 패턴 인식 등 다양한 방식으로 3파원 정보를 추정 한다. 기존의 방식들은 물체의 표면 정보를 정확하게 스캔하는 장점을 가졌지만, 스캐너의 비용이 비싸고, 그 부피가 크다는 단점 때문에 상용화에 어려움이 많다. 본 논문은 기존 방법보다 부피가 작고 가벼우며 시스템 비용이 적은 포인터 레이저를 이용하여 3차원 정보를 추정하는 방법에 대하여 설명한다. 물체의 깊이 정보(z)에 따른 포인터 레이저의 영상에서의 위치 변화를 통하는 방식으로 3차원 정보 추정을 구현 하였다. 실험을 통하여 포인터 레이저만으로 3차원 정보가 추정 되는 것을 확인한다. 위 방법은 3D 스캐너의 부피가 최소화 되므로 다양한 제품에 부착되어 3D 스캐너의 상용화를 기대한다.

  • PDF

Gaze Detection by Computing Facial and Eye Movement (얼굴 및 눈동자 움직임에 의한 시선 위치 추적)

  • 박강령
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.41 no.2
    • /
    • pp.79-88
    • /
    • 2004
  • Gaze detection is to locate the position on a monitor screen where a user is looking by computer vision. Gaze detection systems have numerous fields of application. They are applicable to the man-machine interface for helping the handicapped to use computers and the view control in three dimensional simulation programs. In our work, we implement it with a computer vision system setting a IR-LED based single camera. To detect the gaze position, we locate facial features, which is effectively performed with IR-LED based camera and SVM(Support Vector Machine). When a user gazes at a position of monitor, we can compute the 3D positions of those features based on 3D rotation and translation estimation and affine transform. Finally, the gaze position by the facial movements is computed from the normal vector of the plane determined by those computed 3D positions of features. In addition, we use a trained neural network to detect the gaze position by eye's movement. As experimental results, we can obtain the facial and eye gaze position on a monitor and the gaze position accuracy between the computed positions and the real ones is about 4.8 cm of RMS error.