• 제목/요약/키워드: microsoft kinect

검색결과 69건 처리시간 0.029초

수색 구조 로봇을 위한 적외선 영상 기반 인명 인식 (Infrared Image Based Human Victim Recognition for a Search and Rescue Robot)

  • 박정길;이근재;박재병
    • 제어로봇시스템학회논문지
    • /
    • 제22권4호
    • /
    • pp.288-292
    • /
    • 2016
  • In this paper, we propose an infrared image based human victim recognition method for a search and rescue robot in dark environments, like general disaster situations. For recognizing a human victim, an infrared camera on a RGB-D camera, Microsoft Kinect, is used. The contrast and brightness of the infrared image are first improved by histogram equalization, and the noise on the image is removed by morphological operation and Gaussian filtering. For recognizing a human victim, the binarization and blob labeling methods are applied to the improved image. Finally, for verifying the effectiveness and feasibility of the proposed method, an experiment for human victim recognition is carried out in a dark environment.

제스처 인식을 통한 프리젠테이션 인터페이스 (Presentation Interface based on Gesture Recognition)

  • 김진욱;김세훈;홍광진;정기철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.1653-1656
    • /
    • 2013
  • 본 논문에서는 키넥트를 사용하여 제스처를 인식해 프리젠테이션이 가능한 인터페이스를 제작하였다. 키넥트 카메라는 Microsoft Kinect SDK1.7 라이브러리를 사용해서 신체의 좌표값을 받아 손의 위치와 손의 제스처를 인식하는데 사용했으며, 파워포인트를 제어하기 위해 후킹 기능을 사용한다. 기존 키넥트에서 사용하던 제스처인 sweep을 기본으로, grip과 push 제스처로 프리젠테이션에 필요한 기능을 추가했다. 제스처 인식의 결과를 후킹을 통해 파워포인트로 전달해서, 슬라이드의 이동 뿐 아니라 메모 기능과 지우기 기능이 추가된 인터페이스를 제공한다. 인터페이스는 발표자의 발표능력 향상과 더불어, 제스처 인식 인터페이스를 타 콘텐츠에 적용이 가능하므로 추후 콘텐츠의 제작 및 상용화가 가능하다.

장애 아동 및 청소년에게 가상현실(VR) 기반 작업치료 중재가 미치는 영향: 체계적 고찰 (Effect of Virtual Reality-based Occupational Therapy Interventions for Disabled Children and Adolescents: A Systematic Review)

  • 김만제;길영숙;강셋별;이재신
    • 대한감각통합치료학회지
    • /
    • 제21권1호
    • /
    • pp.34-46
    • /
    • 2023
  • 목적 : 본 연구의 목적은 장애 아동 및 청소년에게 적용한 가상현실(Virtual Reality; VR) 기반 작업치료 중재의 효과와 적용 방법에 대해서 체계적으로 분석하고자 한다. 연구방법 : 2012년 1월부터 2022년 8월까지 RISS, DBpia, KCI, Science direct, CINAHL MEDLINE에서 문헌을 검색하였다. 주요 검색용어로 '가상현실', '작업치료', '아동', '청소년', 'Virtual Reality', 'Occupational Therapy', 'Child', 'Adolescent'을 사용하였다. PRISMA의 Flowchart 4단계를 거쳐 총 16편의 문헌을 분석 대상으로 선정하였다. 결과 : 선정된 16편의 연구에서 장애 아동 및 청소년에게 사용된 VR 기반 작업치료 중재가 유의미한 효과를 보였다. 중재 대상자는 뇌성마비 유형 중 편마비 아동을 대상으로 한 연구가 가장 많았으며, 효과 측정에 사용된 평가도구는 일상생활활동, 인지, 운동기술, 사회적-상호작용기술, 시-지각 평가이었다. 중재 도구로는 Nintendo Wii와 Microsoft Kinect가 운동기술 및 일상생활 향상을 위하여 가장 많이 사용되었다. 결론 : 본 연구를 바탕으로 향후에는 장애 아동 및 청소년의 진단과 중재목적에 맞는 VR 도구 선택과 구체적인 방법의 제시를 통하여 VR중재가 임상에서 더욱 효과적으로 사용될 수 있을 것이라 기대한다.

사용자 감정 예측을 통한 상황인지 추천시스템의 개선 (Improvement of a Context-aware Recommender System through User's Emotional State Prediction)

  • 안현철
    • Journal of Information Technology Applications and Management
    • /
    • 제21권4호
    • /
    • pp.203-223
    • /
    • 2014
  • This study proposes a novel context-aware recommender system, which is designed to recommend the items according to the customer's responses to the previously recommended item. In specific, our proposed system predicts the user's emotional state from his or her responses (such as facial expressions and movements) to the previous recommended item, and then it recommends the items that are similar to the previous one when his or her emotional state is estimated as positive. If the customer's emotional state on the previously recommended item is regarded as negative, the system recommends the items that have characteristics opposite to the previous item. Our proposed system consists of two sub modules-(1) emotion prediction module, and (2) responsive recommendation module. Emotion prediction module contains the emotion prediction model that predicts a customer's arousal level-a physiological and psychological state of being awake or reactive to stimuli-using the customer's reaction data including facial expressions and body movements, which can be measured using Microsoft's Kinect Sensor. Responsive recommendation module generates a recommendation list by using the results from the first module-emotion prediction module. If a customer shows a high level of arousal on the previously recommended item, the module recommends the items that are most similar to the previous item. Otherwise, it recommends the items that are most dissimilar to the previous one. In order to validate the performance and usefulness of the proposed recommender system, we conducted empirical validation. In total, 30 undergraduate students participated in the experiment. We used 100 trailers of Korean movies that had been released from 2009 to 2012 as the items for recommendation. For the experiment, we manually constructed Korean movie trailer DB which contains the fields such as release date, genre, director, writer, and actors. In order to check if the recommendation using customers' responses outperforms the recommendation using their demographic information, we compared them. The performance of the recommendation was measured using two metrics-satisfaction and arousal levels. Experimental results showed that the recommendation using customers' responses (i.e. our proposed system) outperformed the recommendation using their demographic information with statistical significance.

3D센서의 Depth frame 데이터를 이용한 이동물체 감지 (Detection of Moving Objects using Depth Frame Data of 3D Sensor)

  • 이성호;한경호
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권5호
    • /
    • pp.243-248
    • /
    • 2014
  • 외부 광원여부에 상관없이 3D정보를 수신할 수 있는 Microsoft의 3D 모션 센서인 키넥트의 Depth frame을 사용하여 물체의 움직임 영역을 감지할 수 있는 방법을 연구하였다. 센서로부터 수신되는 Depth 정보 중 주로 물체의 경계면에 존재하는 노이즈를 제거하기 위해 픽셀의 x, y좌표에 대한 블러링 기법과 z좌표에 대한 주파수 필터를 적용하였다. 또한 인접 픽셀들의 변화량에 따른 군집화 필터를 적용함으로서 움직이는 물체 영역을 추출할 수 있었고 필터 설정에 따라 기준이상의 빠른 움직임을 감지할 수 있도록 하여 이동형 로봇에 응용할 수 있도록 하였다. 특히 IR 카메라에 의하여 만들어지는 Depth frame을 이용함으로써 주야간 모두 제약 없이 사용할 수 있다. 또한 직진 방향으로 움직이는 물체에 대해서도 입체적으로 감지할 수 있어 무인 로봇영역에 응용할 수 있다.

HRI 엔터테인먼트 애완 로봇 (A Human-Robot Interaction Entertainment Pet Robot)

  • 이희진
    • 한국지능시스템학회논문지
    • /
    • 제24권2호
    • /
    • pp.179-185
    • /
    • 2014
  • 본 논문은 인간과 상호작용하는 엔터테인먼트 4족 애완 로봇과 스마트폰에서 로봇 조종이 가능한 로봇제어기 및 로봇에서 제공하는 센서 정보들을 이용하여 컴퓨터에서 가정용 기기들을 제어하는 홈스마트제어시스템을 구현하기 위한 것으로 로봇은 20 자유도를 가지면서 Microsoft사의 키넥트 센서, 적외선거리 센서, 3축 모션 센서, 그래픽 LCD, 온습도 및 가스 센서로 구성되어 있다. 로봇의 엔터테인먼트 기능을 구현하기 위하여 보행 알고리즘, 키넥트 센서를 이용한 모션 및 음성인식 알고리즘, 감정표현을 위한 알고리즘을 제시하였으며 로봇을 조종할 수 있는 스마트폰 로봇제어 알고리즘 및 가정용 기기를 제어하는 홈스마트제어 알고리즘을 제안하였다. 본 논문에서 제안한 알고리즘들은 구현한 로봇과 컴퓨터 및 스마트폰에 적용하여 실험으로 검증하였다.

다양한 상호작용 어플리케이션을 위한 이종 센서 NUI/NUX 프레임워크 (Multi-sensor based NUI/NUX framework for various interactive applications)

  • 장위강;치옥용;문명운;조성재;채정숙;김준오;엄기현;조경은
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 춘계학술발표대회
    • /
    • pp.1077-1078
    • /
    • 2017
  • In this study, we implement a natural user interface/experience framework using multi-sensors: Microsoft Kinect, Leap Motion, and Myo Armband. The framework is designed for customers to use in various types of interactive applications. We integrate the functions of three sensors into an application and provide an interface for customers, who can use it to interact with a computer easily. The framework can track body information in real-time, and accurately recognize the motion of different body parts.

Intraoral Scanner로 촬영된 치아 이미지의 정렬 (Registration of Dental Range Images from a Intraoral Scanner)

  • 고민수;박상철
    • 한국CDE학회논문집
    • /
    • 제21권3호
    • /
    • pp.296-305
    • /
    • 2016
  • This paper proposes a framework to automatically align Dental range image captured by depth sensors like the Microsoft Kinect. Aligning dental images by intraoral scanning technology is a difficult problem for applications requiring accurate model of dental-scan datasets with efficiency in computation time. The most important thing in dental scanning system is accuracy of the dental prosthesis. Previous approaches in intraoral scanning uses a Z-buffer ICP algorithm for fast registration, but it is relatively not accurate and it may cause cumulative errors. This paper proposes additional Alignment using the rough result comes after intraoral scanning alignment. It requires that Each Depth Image of the total set shares some overlap with at least one other Depth image. This research implements the automatically additional alignment system that aligns all depth images into Completed model by computing a network of pairwise registrations. The order of the each individual transformation is derived from a global network and AABB box overlap detection methods.

X3DOM 을 이용한 라이브 행동자와 실체를 통합하기 위한 웹 기반 시스템 (A Web-based System for Embedding a Live Actor and Entity using X3DOM)

  • 부띠에;류가애;정상권;이국환;류관희
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 추계학술대회
    • /
    • pp.1-3
    • /
    • 2016
  • Mixed and augmented reality (MAR) refers to a spatially coordinated combination of media/information components that represent on the real world and its objects, and on the other those that are virtual, synthetic and computer generated including any combination of aural, visual and touch. The extensible 3D (X3D) is the ISO standard for defining 3D interactive web-based 3D content integrated with multimedia. In this paper, we propose a model to integrate live actor and entity that captured from Microsoft Kinect to be represented in Web-based mixed augmented reality world by using X3DOM by which X3D nodes can be integrated seamlessly into HTML5 DOM content.

  • PDF

범용 깊이 카메라를 이용한 인체 외형 비대칭 측정의 반복성 평가 (Repeatability Test for the Asymmetry Measurement of Human Appearance using General-purpose Depth Cameras)

  • 장준수
    • 동의생리병리학회지
    • /
    • 제30권3호
    • /
    • pp.184-189
    • /
    • 2016
  • Human appearance analysis is an important part of both eastern and western medicine fields, such as Sasang constitutional medicine, rehabilitation medicine, dental medicine, and etc. By the rapid growing of depth camera technology, 3D measuring becomes popular in many applications including medical area. In this study, the possibility of using depth cameras in asymmetry analysis of human appearance is examined. We introduce the development of 3D measurement system using 2 Microsoft Kinect depth cameras and fully automated asymmetry analysis algorithms based on computer vision technology. We compare the proposed automated method to the manual method, which is usually used in asymmetry analysis. As a measure of repeatability, standard deviations of asymmetry indices are examined by 10 times repeated experiments. Experimental results show that the standard deviation of the automated method (1.00mm for face, 1.22mm for body) is better than that of the manual method (2.06mm for face, 3.44mm for body) for the same 3D measurement. We conclude that the automated method using depth cameras can be successfully applicable to practical asymmetry analysis and contribute to reliable human appearance analysis.