• Title/Summary/Keyword: 카메라 동작

Search Result 530, Processing Time 0.023 seconds

Home Appliance Position Recognition through Hand Pointing Command for Arbitrary Camera Location (손 지시 명령을 통한 임의의 카메라 배치에서의 가전기기 위치 인식)

  • Yang, Seung-Eun;Do, Jun-Hyeong;Jang, Hyo-Young;Jung, Jin-Woo;Park, Kwang-Hyun;Bien, Zeung-Nam
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.362-367
    • /
    • 2006
  • 지능형 주거공간에서 손 지시 명령을 통하여 가전기기를 선택하거나 로봇에게 이동하여야 하는 장소를 알려 주기 위해, 기존의 시스템은 선택되는 대상 기기의 3 차원 절대 위치를 미리 알고 있어야 한다. 또한 카메라 위치가 변동되었을 경우, 카메라의 위치를 절대좌표계 기준으로 새롭게 측정해야 하는 불편함이 있다. 이를 해결하기 위해 본 논문에서는 팬/틸트 모듈을 가진 두 대의 USB 카메라를 임의의 위치에 배치하더라도, 두 번의 손 지시만으로 선택 대상이 되는 기기의 3 차원 위치를 파악하고 이를 동작시키는 방법을 다룬다. 제안하는 방법에서는 두 대의 카메라 간의 상대 좌표계를 형성하기 위해 각 카메라에 표식을 부착한다. 각 카메라에서 다른 카메라의 표식을 관찰하면 카메라 간의 거리 및 각도를 구할 수 있기 때문에, 하나의 카메라를 기준으로 3 차원 절대 좌표계를 자동으로 설정할 수 있다. 또한, 두 대의 카메라로 사용자의 얼굴과 손을 검출하면 얻어진 기준 좌표계에 대해 얼굴과 손의 3 차원 위치를 계산하고, 두 지점을 연결하는 방향 벡터를 구함으로써 사용자가 손으로 지시하는 방향을 찾는다. 따라서, 카메라를 임의의 위치에 두더라도 사용자의 손 지시 동작만으로 대상체의 차원 위치를 파악할 수 있게 된다. 개발된 시스템의 유용성을 검증하기 위해 각 가전기기의 위치를 제안한 방법으로 구하고 실제 위치와의 오차를 분석하였다. 제안한 방법은 두 대의 USB 카메라와 일반 PC 또는 마이크로 프로세서만으로 구현할 수 있기 때문에 비용이 적게 들고 실시간 처리가 가능하며 사용자의 환경에서 편리성을 높이는 등 많은 장점을 가진다.

  • PDF

A Study on the Gesture Matching Method for the Development of Gesture Contents (체감형 콘텐츠 개발을 위한 연속동작 매칭 방법에 관한 연구)

  • Lee, HyoungGu
    • Journal of Korea Game Society
    • /
    • v.13 no.6
    • /
    • pp.75-84
    • /
    • 2013
  • The recording and matching method of pose and gesture based on PC-window platform is introduced in this paper. The method uses the gesture detection camera, Xtion which is for the Windows PC. To develop the method, the API is first developed which processes and compares the depth data, RGB image data, and skeleton data obtained using the camera. The pose matching method which selectively compares only valid joints is developed. For the gesture matching, the recognition method which can differentiate the wrong pose between poses is developed. The tool which records and tests the sample data to extract the specified pose and gesture is developed. 6 different pose and gesture were captured and tested. Pose was recognized 100% and gesture was recognized 99%, so the proposed method was validated.

Motion Plane Estimation for Real-Time Hand Motion Recognition (실시간 손동작 인식을 위한 동작 평면 추정)

  • Jeong, Seung-Dae;Jang, Kyung-Ho;Jung, Soon-Ki
    • The KIPS Transactions:PartB
    • /
    • v.16B no.5
    • /
    • pp.347-358
    • /
    • 2009
  • In this thesis, we develop a vision based hand motion recognition system using a camera with two rotational motors. Existing systems were implemented using a range camera or multiple cameras and have a limited working area. In contrast, we use an uncalibrated camera and get more wide working area by pan-tilt motion. Given an image sequence provided by the pan-tilt camera, color and pattern information are integrated into a tracking system in order to find the 2D position and direction of the hand. With these pose information, we estimate 3D motion plane on which the gesture motion trajectory from approximately forms. The 3D trajectory of the moving finger tip is projected into the motion plane, so that the resolving power of the linear gesture patterns is enhanced. We have tested the proposed approach in terms of the accuracy of trace angle and the dimension of the working volume.

Development of a real time surface and under water image integrating system for Korea artistic swimming team (국가대표 아티스틱 스위밍팀 지원을 위한 실시간 수상 수중 영상 통합 시스템 개발)

  • Min, Seokki;Lee, Sangcheol;Kim, Taewhan;Kil, Sekee;Kim, Ji-eun
    • Journal of the Korea Convergence Society
    • /
    • v.11 no.1
    • /
    • pp.25-31
    • /
    • 2020
  • In this study, a real time image integrating system which can reconstruct two images from a surface camera and an under water camera into one new image was developed to support Korea artistic swimming team. The developed system consists of four USB cameras (two USB 2.0 and two USB 3.0) sealed in water proof case and one note book computer, and a LabVIEW based real time image merging program was developed. During field test, problem in cooperative motion of acrobatic formation was found, and it was proved that correction of motion to improve skill of the player could be possible in real time with aid of the developed system. After the filed test, the developed system has been being used to support Korea artistic swimming team.

Contactless Chroma Key System Using Gesture Recognition (제스처 인식을 이용한 비 접촉식 크로마키 시스템)

  • Jeong, Jongmyeon;Jo, HongLae;Kim, Hoyoung;Song, Sion;Lee, Junseo
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2015.07a
    • /
    • pp.159-160
    • /
    • 2015
  • 본 논문에서는 사용자의 제스처를 인식하여 동작하는 비 접촉식 크로마키 시스템을 제안한다. 이를 위해서 키넥트 카메라로부터 깊이(depth) 이미지와 RGB 이미지를 입력받는다. 먼저 깊이 카메라와 RGB 카메라의 위치 차이로 인한 불일치(disparity)를 보정하고, 깊이 이미지에 대해 모폴로지 연산을 수행하여 잡음을 제거한 후 RGB 이미지와 결합하여 객체 영역을 추출한다. 추출된 객체영역을 분석하여 사용자 손의 위치와 모양을 인식하고 손의 위치와 모양을 포인팅 장비로 간주하여 크로마키 시스템을 제어한다. 실험을 통해 비접촉식 크로마키 시스템이 실시간으로 동작함을 확인하였다.

  • PDF

Fall Detection based on Fish-eye Lens Camera Image and Perspective Image (어안렌즈 카메라 영상과 투시영상을 이용한 기절동작 인식)

  • So, In-Mi;Kim, Young-Un;Kang, Sun-Kyung;Han, Dae-Gyeong;Jung, Sung-Tae
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06c
    • /
    • pp.468-471
    • /
    • 2008
  • 이 논문은 응급상황을 인식하기 위하여 어안렌즈를 통해 획득된 영상을 이용하여 기절 동작을 인식하는 방법을 제안한다. 거실의 천장 중앙에 위치한 어안렌즈(fish-eye lens)를 장착한 카메라로부터 화각이 170인 RGB 컬러 모델의 어안 영상을 입력 받은 뒤, 가우시안 혼합 모델 기반의 적응적 배경 모델링 방법을 이용하여 동적으로 배경 영상을 갱신한다. 입력 영상의 평균 밝기를 구하고 평균 밝기가 급격하게 변화하지 않도록 영상 픽셀을 보정한 뒤, 입력 영상과 배경 영상과 차이가 큰 픽셀을 찾음으로써 움직이는 객체를 추출하였다. 그리고 연결되어 있는 전경 픽셀 영역들의 외곽점들을 추적하여 타원으로 매핑하고 움직이는 객체 영역의 형태를 단순화하였다. 이 타원을 추적하면서 어안 렌즈 영상을 투시 영상으로 변환한 다음 타원의 크기 변화, 위치 변화, 이동 속도 정보를 추출하여 이동과 정지 및 움직임이 기절동작과 유사한지를 판단하도록 하였다. 본 논문에서는 실험자로 하여금 기절동작, 걷기 동작, 앉기 동작 등 여러 동작을 취하게 하고 기절 동작 인식을 실험하였다. 실험 결과 어안 렌즈 영상을 그대로 사용하는 것보다 투시 영상으로 변환하여 타원의 크기변화, 위치변화, 이동속도 정보를 이용하는 것이 높은 인식률을 보였다.

  • PDF

Implementation of camera synchronization for multi-view capturing system (다시점 촬영 시스템을 위한 카메라 동기화 구현)

  • Park, Jung Tak;Park, Byung Seo;Seo, Young-Ho
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • fall
    • /
    • pp.268-269
    • /
    • 2021
  • 본 논문에서는 RGB이미지와 Depth 이미지를 촬영할 수 있는 촬영 장비인 Azure Kinect를 사용해 다시점 촬영 시스템 구성을 위한 카메라 동기화 시스템을 제안한다. 제안한 시스템에는 8대의 Azure Kinect 카메라를 사용하고 있으며 각 카메라는 3.5-mm 오디오 케이블로 연결되어 외부동기화 신호를 전달한다. 그리고 이미지를 저장할 때 발생하는 메모리에서의 병목현상을 최소화하기 위해 촬영 시스템의 동작을 16개의 버퍼로 나누어 병렬 컴퓨팅으로 진행한다. 이후 동기화 여부에 따른 차리를 디바이스 타임스탬프를 기준으로 하여 비교한다.

  • PDF

Auto Exposure Algorithm And Hardware Implementation for application of Mobile Phone Camera (모바일 폰 카메라에 적용하기 위한 자동노출 알고리즘 개발 및 하드웨어 설계)

  • Kim, Kyung-Rin;Ha, Joo-Young;Kang, Bong-Soon
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.13 no.1
    • /
    • pp.29-36
    • /
    • 2009
  • In this paper, we proposed auto exposure(AE) algorithm and hardware implementation for apply to mobile phone camera. AE is a function that control camera exposure automatically for appropriate to object. Existing AE is using micro controller unit and there are some problems about high expense and slow processing speed. For improve these problems, we proposed AE algorithm for hardware implementation without micro controller unit therefor we can expect improvement about the content of a production and operation speed. We proposed the algorithm that is considered efficiency of hardware resource and the results of hardware implementation of proposed AE algorithm apply to mobile phone camera sensor, we verified proposed AE function.

Tracking a Walking Motion Based on Dynamics Using a Monocular Camera (단일 카메라를 이용한 동역학 기반의 보행 동작 추적)

  • Yoo, Tae-Keun;Choi, Jae-Lim;Kim, Deok-Won
    • Journal of the Institute of Electronics Engineers of Korea SC
    • /
    • v.49 no.1
    • /
    • pp.20-28
    • /
    • 2012
  • Gait analysis is an examination which extracts objective information from observing human gait and assesses the function. The equipments used recently for gait analysis are expensive due to multiple cameras and force plates, and require the large space to set up the system. In this paper, we proposed a method to measure human gait motions in 3D from a monocular video. Our approach was based on particle filtering to track human motion without training data and previous information about a gait. We used dynamics to make physics-based motions with the consideration of contacts between feet and base. In a walking sequence, our approach showed the mean angular error of $12.4^{\circ}$ over all joints, which was much smaller than the error of $34.6^{\circ}$ with the conventional particle filter. These results showed that a monocular camera is able to replace the existing complicated system for measuring human gait quantitatively.