• 제목/요약/키워드: 키넥트센서

검색결과 126건 처리시간 0.033초

AR 전신 상호작용을 위한 이종 센서 간 좌표계 보정 기법 (Heterogeneous Sensor Coordinate System Calibration Technique for AR Whole Body Interaction)

  • 김항기;김대환;이동춘;이기석;백낙훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권7호
    • /
    • pp.315-324
    • /
    • 2023
  • 꾸준히 증가하는 노인성 질환 환자 대상으로 몰입형 디지털 콘텐츠를 이용한 쉽고 정확한 전신 재활 상호작용 기술이 필요하며, 본 연구에서는 이를 위해 홀로렌즈와 키넥트를 사용한 전신 상호작용 기술을 소개한다. 이를 위해 메쉬 특징점 기반 변환, AR 마커 기반 변환, 신체 인식 기반 변환 방법의 3가지 좌표 변환 방식을 제안한다. 메쉬 특징점 기반 변환은 공간 메쉬에 3개의 특징점을 지정하고 변환 행렬을 이용하여 좌표계를 일치시킨다. 이 방법은 수작업이 필요하여 사용성이 떨어지지만 정확도가 8.5mm로 상대적으로 높다. AR 마커 기반 방식은 홀로렌즈s와 키넥트가 동시에 인식하는 AR, QR마커를 사용하여 평균오차 11.2mm로 준수한 정확도를 달성했다. 신체 인식 기반 변환 방법은 두 기기가 동시에 인식하는 머리 혹은 HMD위치와 양 손 혹은 컨트롤러 위치를 이용하여 좌표계를 일치시킨다. 이 방법은 정확도가 떨어지지만 부가적인 도구나 수작업이 필요 없으므로 사용성이 좋다. 또한 후처리 기술로 RANSAC을 적용함으로써 오차를 10% 이상 줄였다. 이러한 3가지 방식은 콘텐츠가 필요한 사용 편의성과 정확도에 따라서 선택적으로 적용할 수 있다. 본 연구에서는 이 기술을 이용해서 '썬더펀치'와 재활 치료 콘텐츠에 적용하여 검증하였다.

키넥트 센서를 활용한 투명 디스플레이에서의 사용자 위치에 대한 시계 정합 연구 (A Study on Parallax Registration for User Location on the Transparent Display using the Kinect Sensor)

  • 남병욱;이경호;이정민
    • 한국전산구조공학회논문집
    • /
    • 제28권6호
    • /
    • pp.599-606
    • /
    • 2015
  • 국제 수로기구(IHO)에서는 해양분야에 범용으로 사용 가능한 국제 GIS 표준으로 S-100 표준규격을 채택하였다. 이에 따라 GIS 표준기술 기반의 차세대 항행정보 지원시스템에 대한 기술이 개발되고 있으며, 현재 CCTV 영상에 항행정보를 덧입혀 항행에 지원할 수 있는 증강현실 기반의 항행정보시스템이 개발되고 있다. 이에 본 연구에서는 이 시스템을 효과적으로 지원할 수 있는 방안으로 투명 디스플레이에서의 적용을 고려하였다. 투명 디스플레이 적용 시 시계확보를 위한 광각 렌즈사용으로 인한 영상왜곡, 사용자 위치에서의 CCTV 영상과 투명 디스플레이 투영 이미지의 불일치로 인하여 사용자가 실제 바라보는데 이질감이 발생하므로, 이를 해결하기 위한 시계정합 및 영상보정 방법에 대한 연구를 진행하였으며, 이를 프로토타입으로 개발하여 기술적용의 가능성을 입증하였다.

RGB-D 이미지 인텐시티를 이용한 실내 모바일 로봇 장애물 회피 (Obstacle Avoidance of Indoor Mobile Robot using RGB-D Image Intensity)

  • 권기현;이형봉
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권10호
    • /
    • pp.35-42
    • /
    • 2014
  • 주어진 실내 환경에 위치한 여러 장애물에 대한 정보를 사전에 훈련하고 인식하여 로봇의 인지 능력을 향상시키기 위해 스테레오비전 센서의 RGB-D 이미지에서 인텐시티를 기반으로 일정 거리 안에 있는 장애물을 검출하는 기법을 제시한다. RGB-D 인텐시티 정보에 대해 PCA, ICA, LDA, SVM의 주요 패턴인식 알고리즘을 적용하여 인식률 및 실행시간을 구하고, 여러 패턴인식 알고리즘 중에서 어떤 알고리즘이 인식률 및 실행시간 측면에서 적용이 가능한지를 제시한다. 실험결과, RGB-D 데이터와 인텐시티 데이터를 비교한 결과 정확도면에서는 RGB-D 데이터가 4.2% 높은 인식률을 보였으나 훈련시간은 인텐시티 데이터가 RGB-D 이미지에 비해 LDA의 경우 29%, SVM의 경우 31% 빠르게 처리되었으며 테스트시간은 LDA의 경우 70%, SVM의 경우 33% 빠르게 처리되어 모바일 로봇 장애물 인식에 인텐시티 데이터를 사용하는 것이 정확도면에서도 우수하고 처리 속도 면에서 높은 개선효과가 있다.

균형 재활 훈련을 위한 특정 회전 움직임에서 피검자 동작 분석을 위한 깊이 센서 기반 키넥트 시스템의 정확성 및 부정확성 평가 (Evaluation of Accuracy and Inaccuracy of Depth Sensor based Kinect System for Motion Analysis in Specific Rotational Movement for Balance Rehabilitation Training)

  • 김충연;정호현;전성철;장경배;전경진
    • 대한의용생체공학회:의공학회지
    • /
    • 제36권5호
    • /
    • pp.228-234
    • /
    • 2015
  • The balance ability significantly decreased in the elderly because of deterioration of the neural musculature regulatory mechanisms. Several studies have investigated methods of improving balance ability using real-time systems, but it is limited by the expensive test equipment and specialized resources. Recently, Kinect system based on depth data has been applied to address these limitations. Little information about accuracy/inaccuracy of Kinect system is, however, available, particular in motion analysis for evaluation of effectiveness in rehabilitation training. Therefore, the aim of the current study was to evaluate accuracy/inaccuracy of Kinect system in specific rotational movement for balance rehabilitation training. Six healthy male adults with no musculoskeletal disorder were selected to participate in the experiment. Movements of the participants were induced by controlling the base plane of the balance training equipment in directions of AP (anterior-posterior), ML (medial-lateral), right and left diagonal direction. The dynamic motions of the subjects were measured using two Kinect depth sensor systems and a three-dimensional motion capture system with eight infrared cameras for comparative evaluation. The results of the error rate for hip and knee joint alteration of Kinect system comparison with infrared camera based motion capture system occurred smaller values in the ML direction (Hip joint: 10.9~57.3%, Knee joint: 26.0~74.8%). Therefore, the accuracy of Kinect system for measuring balance rehabilitation traning could improve by using adapted algorithm which is based on hip joint movement in medial-lateral direction.

Airtouch 기술을 활용한 스마트융합 DID 시스템 설계 (Airtouch technology smart fusion DID system design)

  • 이광용;황부현
    • 한국항행학회논문지
    • /
    • 제17권2호
    • /
    • pp.240-246
    • /
    • 2013
  • 본 연구는 터치스크린 방식의 정보전달 기기인 DID 시스템에 Airtouch 기술을 융합하여 새로운 방식의 정보전달 시스템을 개발하는 것이다. 대학의 학내 공지사항, 교육정보 및 취업정보 등을 열람하고 활용 할 수 있는 시스템을 설계하고 Airtouch 기술을 구현하여 원격조작 및 공유 콘텐츠 스토어, 클라우드 서비스 개발을 통한 콘텐츠 동기화 기술 구현으로 스마트융합 DID 시스템을 개발하고자 한다. 키넥트는 USB 인터페이스를 가지고 있기 때문에 정보기기와 연결하여 사용 할 수 있으며, 저렴한 가격의 제품으로 키넥트 센서를 활용하여 Airtouch 기술을 구현한다. 논문에서는 유형의 입력장치 없이 사용자의 손동작만으로 정보기기와 상호작용이 가능한 시스템인 Airtouch 기술을 활용한 스마트융합 DID 시스템을 개발하여 사용자의 손 움직임을 추적하여 이를 바탕으로 마우스 포인터를 조작할 수 있고, 사용자의 손동작을 통해 정보기기에 명령을 내릴 수 있도록 하였다. Airtouch 기술을 활용한 스마트융합 DID 시스템 기술 활용으로 온라인 교육산업, 광고홍보, 정보화 산업 등 여타 산업에 파급효과를 증대시킨다. 또한, 폭넓은 범용성을 가지고 기존의 인터페이스 장치들을 대체기술 활용성이 무한 확장이 가능하다.

Mirror Neuron System 계산 모델을 이용한 모방학습 기반 인간-로봇 인터페이스에 관한 연구 (A Study on Human-Robot Interface based on Imitative Learning using Computational Model of Mirror Neuron System)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제23권6호
    • /
    • pp.565-570
    • /
    • 2013
  • 영장류 대뇌 피질 영역 중 거울 뉴런들이 분포한 것으로 추정되는 몇몇 영역은 목적성 행위에 대한 시각 정보를 기반으로 모방학습을 수행함으로써 관측 행동의 의도 인식 기능을 담당한다고 알려졌다. 본 논문은 이러한 거울 뉴런 영역을 모델링 하여 인간-로봇 상호작용 시스템에 적용함으로써, 자동화 된 의도인식 시스템을 개발하고자 한다. 거울 뉴런 시스템 계산 모델은 동적 신경망을 기반으로 구축하였으며, 모델의 입력은 객체와 행위자 동작에 대한 연속된 특징 벡터 집합이고 모델의 모방학습 및 추론과정을 통해 관측자가 수행할 수 있는 움직임 정보를 출력한다. 이를 위해 제한된 실험 공간 내에서 특정 객체와 그에 대한 행위자의 목적성 행동, 즉 의도에 대한 시나리오를 전제로 키넥트 센서를 통해 모델 입력 데이터를 수집하고 가상 로봇 시뮬레이션 환경에서 대응하는 움직임 정보를 계산하여 동작을 수행하는 프레임워크를 개발하였다.

HMM을 이용한 자연스러운 손동작 인식 (Recognition of Natural Hand Gesture by Using HMM)

  • 김아람;이상용
    • 한국지능시스템학회논문지
    • /
    • 제22권5호
    • /
    • pp.639-645
    • /
    • 2012
  • 본 논문에서는 모바일 로봇이 자연스러운 손동작을 은닉 마르코프 모델(HMM: hidden markov model)을 이용하여 인식해 원하는 명령을 수행하는 방법을 제안한다. 기존의 손동작 기반 로봇 제어 방식은 정해진 몇 종류의 제스처를 사용했었고, 따라서 지시동작이 자연스럽지 않았다. 또한 정해진 제스처를 미리 공부해야하여 불편했었다. 이러한 문제를 해결하기 위해 손동작을 인식하는 방법에 대한 많은 연구가 활발히 진행되고 있다. 본 논문에서는 3차원 카메라를 사용해 색상 데이터와 깊이 데이터를 얻어서, 사람의 손을 검색하고 그 동작을 인식한다. 여기서 동작을 인식하는 방법으로 HMM을 사용하였으며, 인식된 결과를 로봇에게 전달하여 원하는 방향으로 이동시킨다.

로봇 제어를 위한 의미 있는 손동작 추출 방법 (An Extraction Method of Meaningful Hand Gesture for a Robot Control)

  • 김아람;이상용
    • 한국지능시스템학회논문지
    • /
    • 제27권2호
    • /
    • pp.126-131
    • /
    • 2017
  • 본 논문에서는 손짓을 이용하여 로봇에게 명령을 내릴 때, 사용자의 여러 가지 손짓 중 의미 있는 동작을 추출하기 위한 방법을 제시한다. 로봇에게 명령을 내릴 때, 사람들의 손짓은 준비동작, 본 동작, 마무리 동작으로 구분할 수 있다. 여기에서 본 동작이 로봇에게 명령을 전달하는 의미 있는 동작이고 다른 동작은 그 동작을 위한 의미 없는 보조 동작이다. 따라서 연속적인 손짓에서 본 동작만을 추출해야 한다. 또한 사람들은 무위식적으로 손을 움직일 수 있는데 이러한 동작들 역시 의미가 없는 동작으로 로봇이 판단하여야 한다. 본 연구에서는 키넥트 센서를 이용하여 획득한 거리영상에서 사람의 골격자료를 획득하여 손을 추출하고, 칼만필터를 이용하여 손의 위치를 추적하면서 의미 있는 손동작과 의미 없는 손동작을 구분하고 은닉 마코프 모델을 이용하여 손짓을 인식한다.

손가락 마디 추정을 이용한 비전 및 깊이 정보 기반 손 인터페이스 방법 (Vision and Depth Information based Real-time Hand Interface Method Using Finger Joint Estimation)

  • 박기서;이대호;박영태
    • 디지털융복합연구
    • /
    • 제11권7호
    • /
    • pp.157-163
    • /
    • 2013
  • 본 논문에서는 손가락 마디 추정을 이용한 비전 및 깊이 정보 기반 손 인터페이스 방법을 제안한다. 먼저 비주얼 영상 및 깊이 정보 영상을 매핑한 후 왼손과 오른손의 영역의 레이블링 및 윤곽선 잡음 보정 후 각 손 영역에 대하여 손 중심점 및 회전각을 구현한다. 그리고 손 중심점에서 일정간격의 원을 확장하여 손 경계 교차점의 중간 지점을 계산하여 손가락 끝점과 마디를 추정하여 사용자의 손가락 동작을 인식한다. 본 방법을 실험한 결과 손의 회전 및 손가락 시작점 및 끝점을 정확하게 추정하여 다양한 손동작 인식 및 제어가 가능함을 보였다. 왼손과 오른손을 사용하여 다양한 손 포즈에 대해 실험한 결과, 본 논문의 제안 방법은 평균 90% 이상의 정확도로 초당 25프레임 이상의 처리 성능을 보였다. 제안 방법은 컴퓨터간의 HCI 제어, 게임, 교육 등의 비접촉식 인터페이스 응용분야에 적용될 수 있다.

Kinect(RGB-Depth Camera)를 활용한 실내 공간 정보 모델(BIM) 획득 (Microsoft Kinect-based Indoor Building Information Model Acquisition)

  • 김준희;유세웅;민경원
    • 한국전산구조공학회논문집
    • /
    • 제31권4호
    • /
    • pp.207-213
    • /
    • 2018
  • 본 연구에서는 건물 실내 공간 정보 획득을 위해 Microsoft사의 $Kinect^{(R)}$ v2를 활용한 point cloud 기법을 도입하였다. 카메라로 취득한 2차원의 투영 공간 이미지 픽셀 좌표를 각 카메라의 보정을 거쳐 3차원 이미지 변환하며 이를 토대로 공간 정보를 구현하였다. 기준점을 중심으로 $360^{\circ}$ 회전하여 취득한 3차원 이미지를 통해 거리 측정이 불가한 기존의 2차원 이미지의 한계를 개선하였으며, 이 과정을 통해 얻은 point cloud를 통해 3차원 map을 형성하였다. 형성된 3차원 map은 기존의 공간정보 융 복합을 위한 센서와 비슷한 수준의 측정 효율을 가지면서 동시에 렌즈 왜곡 현상에 대한 후처리 과정을 통해 공간 정보를 정확하게 측정할 수 있도록 하였다. 측정한 결과를 2D 도면과 실제 공간 및 구조부재의 길이 및 위치 등과 비교하여 검증하였다.