• 제목/요약/키워드: Gesture Computing

검색결과 50건 처리시간 0.03초

설계 초기 단계에서 BIM 모델과 물리적 모델의 상호작용 방안 (Interaction between BIM Model and Physical Model During Conceptual Design Stage)

  • 이인근;김성아
    • 한국통신학회논문지
    • /
    • 제38C권4호
    • /
    • pp.344-350
    • /
    • 2013
  • 초기 디자인 단계에서 효율적인 디자인 의사결정을 위해서는 지오메트리에 대한 고려가 필수적이다. 하지만 중요한 의사결정은 지오메트리에 대한 효율적 분석이 가능한 BIM모델 보다는 여전히 대화나 물리적 모델, 제스처를 통해 이루어진다. 본 논문은 실시간 BIM분석을 위한 BIM 모델과 물리적 모델의 연동을 제안한다. 두 모델이 실시간으로 연결되는 시스템 프레임워크를 통해 건축가는 디자인 초기 단계에서 부터 BIM 모델을 효율적으로 활용할 수 있다. 이 프레임워크는 건축가들이 설계 초기 단계에서부터 마지막 단계까지 컴퓨터의 기술을 활용한 동적인 의사결정을 가능하게 한다.

Combining Dynamic Time Warping and Single Hidden Layer Feedforward Neural Networks for Temporal Sign Language Recognition

  • Thi, Ngoc Anh Nguyen;Yang, Hyung-Jeong;Kim, Sun-Hee;Kim, Soo-Hyung
    • International Journal of Contents
    • /
    • 제7권1호
    • /
    • pp.14-22
    • /
    • 2011
  • Temporal Sign Language Recognition (TSLR) from hand motion is an active area of gesture recognition research in facilitating efficient communication with deaf people. TSLR systems consist of two stages: a motion sensing step which extracts useful features from signers' motion and a classification process which classifies these features as a performed sign. This work focuses on two of the research problems, namely unknown time varying signal of sign languages in feature extraction stage and computing complexity and time consumption in classification stage due to a very large sign sequences database. In this paper, we propose a combination of Dynamic Time Warping (DTW) and application of the Single hidden Layer Feedforward Neural networks (SLFNs) trained by Extreme Learning Machine (ELM) to cope the limitations. DTW has several advantages over other approaches in that it can align the length of the time series data to a same prior size, while ELM is a useful technique for classifying these warped features. Our experiment demonstrates the efficiency of the proposed method with the recognition accuracy up to 98.67%. The proposed approach can be generalized to more detailed measurements so as to recognize hand gestures, body motion and facial expression.

딥러닝기반 입체 영상의 획득 및 처리 기술 동향 (Recent Technologies for the Acquisition and Processing of 3D Images Based on Deep Learning)

  • 윤민성
    • 전자통신동향분석
    • /
    • 제35권5호
    • /
    • pp.112-122
    • /
    • 2020
  • In 3D computer graphics, a depth map is an image that provides information related to the distance from the viewpoint to the subject's surface. Stereo sensors, depth cameras, and imaging systems using an active illumination system and a time-resolved detector can perform accurate depth measurements with their own light sources. The 3D image information obtained through the depth map is useful in 3D modeling, autonomous vehicle navigation, object recognition and remote gesture detection, resolution-enhanced medical images, aviation and defense technology, and robotics. In addition, the depth map information is important data used for extracting and restoring multi-view images, and extracting phase information required for digital hologram synthesis. This study is oriented toward a recent research trend in deep learning-based 3D data analysis methods and depth map information extraction technology using a convolutional neural network. Further, the study focuses on 3D image processing technology related to digital hologram and multi-view image extraction/reconstruction, which are becoming more popular as the computing power of hardware rapidly increases.

스마트 디바이스를 위한 3D 파라메트릭 CAD 시스템 (A 3D Parametric CAD System for Smart Devices)

  • 강윤아;한순흥
    • 한국CDE학회논문집
    • /
    • 제19권2호
    • /
    • pp.191-201
    • /
    • 2014
  • A 3D CAD system that can be used on a smart device is proposed. Smart devices are now a part of everyday life and also are widely being used in various industry domains. The proposed 3D CAD system would allow modeling in a rapid and intuitive manner on a smart device when an engineer makes a 3D model of a product while moving in an engineering site. There are several obstacles to develop a 3D CAD system on a smart device such as low computing power and the small screen of smart devices, imprecise touch inputs, and transfer problems of created 3D models between PCs and smart devices. The author discusses the system design of a 3D CAD system on a smart device. The selection of the modeling operations, the assignment of touch gestures to these operations, and the construction of a geometric kernel for creating both meshes and a procedural CAD model are introduced. The proposed CAD system has been implemented for validation by user tests and to demonstrate case studies using test examples. Using the proposed system, it is possible to produce a 3D editable model swiftly and simply in a smart device environment to reduce design time of engineers.

Use of a gesture user interface as a touchless image navigation system in dental surgery: Case series report

  • Rosa, Guillermo M.;Elizondo, Maria L.
    • Imaging Science in Dentistry
    • /
    • 제44권2호
    • /
    • pp.155-160
    • /
    • 2014
  • Purpose: The purposes of this study were to develop a workstation computer that allowed intraoperative touchless control of diagnostic and surgical images by a surgeon, and to report the preliminary experience with the use of the system in a series of cases in which dental surgery was performed. Materials and Methods: A custom workstation with a new motion sensing input device (Leap Motion) was set up in order to use a natural user interface (NUI) to manipulate the imaging software by hand gestures. The system allowed intraoperative touchless control of the surgical images. Results: For the first time in the literature, an NUI system was used for a pilot study during 11 dental surgery procedures including tooth extractions, dental implant placements, and guided bone regeneration. No complications were reported. The system performed very well and was very useful. Conclusion: The proposed system fulfilled the objective of providing touchless access and control of the system of images and a three-dimensional surgical plan, thus allowing the maintenance of sterile conditions. The interaction between surgical staff, under sterile conditions, and computer equipment has been a key issue. The solution with an NUI with touchless control of the images seems to be closer to an ideal. The cost of the sensor system is quite low; this could facilitate its incorporation into the practice of routine dental surgery. This technology has enormous potential in dental surgery and other healthcare specialties.

3차원 손 모델을 이용한 비전 기반 손 모양 인식기의 개발 (Development of a Hand~posture Recognition System Using 3D Hand Model)

  • 장효영;변증남
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.219-221
    • /
    • 2007
  • Recent changes to ubiquitous computing requires more natural human-computer(HCI) interfaces that provide high information accessibility. Hand-gesture, i.e., gestures performed by one 'or two hands, is emerging as a viable technology to complement or replace conventional HCI technology. This paper deals with hand-posture recognition. Hand-posture database construction is important in hand-posture recognition. Human hand is composed of 27 bones and the movement of each joint is modeled by 23 degrees of freedom. Even for the same hand-posture,. grabbed images may differ depending on user's characteristic and relative position between the hand and cameras. To solve the difficulty in defining hand-postures and construct database effective in size, we present a method using a 3D hand model. Hand joint angles for each hand-posture and corresponding silhouette images from many viewpoints by projecting the model into image planes are used to construct the ?database. The proposed method does not require additional equations to define movement constraints of each joint. Also using the method, it is easy to get images of one hand-posture from many vi.ewpoints and distances. Hence it is possible to construct database more precisely and concretely. The validity of the method is evaluated by applying it to the hand-posture recognition system.

  • PDF

시각 스크립트 기반 3차원 인체 동작 제어 시스템 (3D Human Motion Control System using Visual Script)

  • 차경애;김상욱
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제6권5호
    • /
    • pp.536-542
    • /
    • 2000
  • 본 논문은 제스춰를 이용하여 3차원 인체 모델의 동작을 지시하고 생성하는 시각 스크립트 언어를 제안한다. 인체와 같은 다관절체의 동작 생성을 위해서는 일반적으로 많은 세부적 작업과 전문성을 요구한다. 그러나 동작의 추상적 의미 전달을 통한 동작 생성이 가능하다면 동작 생성을 위한 작업량의 감소와 더불어 동작 시나리오 작성이 보다 용이할 것이다. 본 논문에서 제시하는 시각 스크립트는 실생활에서 손짓을 이용한 제스춰로 의미를 전달하는 것처럼 동작의 종류와 방향, 경로 등을 지시학 위해서 마우스 드래깅으로 입력되는 궤적이다. 따라서 시각 스크립트를 이용하면 동작의 의미적 기술이 가능하며 동작 경로 등의 공간적 속성을 시각적으로 부여할 수 있다. 그리고 동작 대상이 되는 신체 부위나 드래킹 속도 등의 제약 조건을 이용하여 동일한 형태의 시각 스크립트로도 다양한 인체 동작을 지시할 수 있도록 하였다. 이러한 시각 스크립트를 이용한 인체 동작 제어 시스템의 구현을 통해서 보다 직관적인 시각 제스춰를 통한 동작 제어가 가능함을 보인다.

  • PDF

직관적인 핸드 모션에 기반한 NUI/NUX 프레임워크 (NUI/NUX framework based on intuitive hand motion)

  • 이광형;신동규;신동일
    • 인터넷정보학회논문지
    • /
    • 제15권3호
    • /
    • pp.11-19
    • /
    • 2014
  • 내츄럴 유저 인터페이스는 마우스, 키보드, 펜과 마커를 이용하지 않는 신체를 이용한 자연스런 모션 인터페이스이다. 지금까지 대표적인 동작 인식 방법은 마커를 이용하는 방식이었고 그 인식 방법은 각 마커의 좌표를 상대적인 데이터로 입력 받아 데이터베이스에 각 좌표 값을 저장하는 것이었다. 그러나 정확한 동작을 인식하기 위해서는 더 많은 마커들이 필요하고 그 마커들을 붙이는 것과 데이터들을 처리하는 데에 상당한 시간이 걸린다. 또, NUI/NUX 프레임워크를 개발하면서, 가장 중요한 직관성을 배제한 개발로 사용상에 문제가 생겼고 계속해서 사용자에게 암기만을 강요하고 있다. 이 문제를 보완하기 위해, 본 논문에서는 마커를 이용하지 않았고 남녀노소 누구나 다룰 수 있도록 구현했다. 또, 목소리, 신체 동작, 얼굴 표정 등을 동시에 인식하는 멀티모달 NUI/NUX 프레임 워크를 설계했고, 직관적인 손동작을 인식하는 것과 모니터에 그것을 매핑하기 위해 새로운 마우스 이벤트 알고리즘을 제안했다. 우리는 사용자들이 쉽고 직관적으로 핸드마우스 이벤트를 다루도록 구현했다.

영상처리 기반의 제스처를 이용한 가상현실 입력기 (Image Processing Based Virtual Reality Input Method using Gesture)

  • 홍동균;천미현;이동화
    • 한국산업정보학회논문지
    • /
    • 제24권5호
    • /
    • pp.129-137
    • /
    • 2019
  • 정보 기술의 발전에 따라 유비쿼터스 컴퓨팅 기술이 대두되고 있다. 이에 맞춰 디바이스의 소형화와 사용자의 편리성을 증대시키기 위한 여러 연구가 진행되고 있다. 그중 몇몇의 제안된 디바이스들은 사용자가 착용해야 한다는 점과 손에 들고 동작시켜야 한다는 불편함이 있다. 본 논문에서는 이러한 불편함을 해결하기 위해 텔레비전 시청 시 사용할 수 있는 가상 버튼을 제안하였다. 텔레비전을 통해 영상 시청 시 전방에서 사용자가 영상을 시청한다는 점을 이용해 카메라를 TV 상단에 설치하여 카메라가 머리 위쪽을 촬영하게 한다. 촬영된 영상에서 배경과 손 영역을 분리하여 검출하고, 검출된 손 영역에 외곽선을 검출한 후 손가락의 끝점을 검출한다. 손가락의 끝점을 검출하면 전방을 촬영하고 있는 영상 상단에 가상 버튼 인터페이스가 출력되며 검출된 손가락의 끝점이 포인터가 되어 위치정보를 갖고 버튼 안쪽에 위치할 경우 버튼이 동작한다.

사용자의 신체적 특징과 뇌파 집중 지수를 이용한 가상 모니터 개념의 NUI/NUX (NUI/NUX of the Virtual Monitor Concept using the Concentration Indicator and the User's Physical Features)

  • 전창현;안소영;신동일;신동규
    • 인터넷정보학회논문지
    • /
    • 제16권6호
    • /
    • pp.11-21
    • /
    • 2015
  • Human-Computer Interaction(HCI)에 대한 관심도가 높이지면서, HCI에 대한 연구도 활발히 진행되고 있다. 이와 더불어 사용자의 몸짓이나 음성을 이용하는 Natural User Interface/Natural User eXperience(NUI/NUX)에 대한 연구도 활발히 진행되고 있다. NUI/NUX의 경우, 제스처 인식이나 음성 인식 등의 인식 알고리즘이 필요하다. 하지만 이러한 인식 알고리즘은 전처리, 정규화, 특징 추출과 같은 단계를 거쳐야하기 때문에 구현이 복잡하고, 트레이닝에 많은 시간을 투자해야 한다는 단점이 있다. 최근에는 NUI/NUX 개발 도구로 Microsoft 사의 Kinect가 개발되어 개발자와 일반인들에게 많은 관심을 받고 있고, 이를 이용한 다양한 연구가 진행 중에 있다. 본 저자들의 이전 연구에서도 사용자의 신체적 특징을 이용하여 뛰어난 직관성을 가진 핸드 마우스를 구현하였다. 하지만 마우스의 움직임이 부자연스럽고 정확도가 낮아 사용자가 사용하기 다소 어려웠다는 단점이 있다. 본 연구에서는 Kinect를 통해 사용자의 신체적 특징을 실시간으로 추출하고, 이를 이용해 가상 모니터라는 새로운 개념을 추가한 핸드 마우스 인터페이스를 설계하고 구현하였다. 가상 모니터는 사용자의 손으로 마우스를 제어할 수 있는 가상의 공간을 의미한다. 이를 통해 가상 모니터 상의 손의 좌표를 실제 모니터 상의 좌표로 정확하게 매핑(mapping)이 가능하다. 가상 모니터를 사용함으로써 이전 연구의 장점인 직관성을 유지하고, 단점인 정확도를 높일 수 있다. 추가적으로 뇌파 집중 지표를 이용해 사용자의 불필요한 행동을 인식하여 핸드 마우스 인터페이스의 정확도를 높였다. 제안하는 핸드 마우스의 직관성과 정확성을 평가하기 위하여 10대부터 50대까지 50명에게 실험을 하였다. 직관성 실험 결과로 84%가 1분 이내에 사용방법을 터득하였다. 또한 동일한 피실험자에게 일반적인 마우스 기능(드래그, 클릭, 더블클릭)에 대해 정확성 실험을 한 결과로 드래그 80.9%, 클릭 80%, 더블 클릭 76.7%의 정확성을 보였다. 실험 결과를 통해 제안하는 핸드 마우스 인터페이스의 직관성과 정확성을 확인하였으며, 미래에 손으로 시스템이나 소프트웨어를 제어하는 인터페이스의 좋은 예시가 될 것으로 기대된다.