• 제목/요약/키워드: 손 동작

검색결과 413건 처리시간 0.042초

재사용성 및 용이성을 위한 계층적 아바타 행위 스크립트 언어의 정의 (Definition and Application of a Layered Avatar Behavior Script Language for Reusability and Simplicity)

  • 김재경;최승혁;손원성;임순범;최윤철
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권8호
    • /
    • pp.455-476
    • /
    • 2006
  • 아바타 스크립트 언어는 사이버 공간에서 아바타의 동작을 제어하기 위해서 사용되는 명령어들로 이루어져있다. 사용자가 아바타 동작 스크립트 언어를 쉽게 작성하기 위해서는 스크립트 언어의 행위표현이 복잡한 하위수준 동작 표현 요소로부터 최대한 추상화되어야 한다. 또한 작성된 시나리오 스크립트 가 다양한 구현환경에 적용 될 수 있는 표준적인 구조를 가지고 있어야 한다. 이를 위해 본 논문에서는 작업수준 행위, 상위수준 동작 및 기본 동작 스크립트 언어로 구성된 계층적 아바타 행위 표현 언어를 정의하였다. 각 계층의 언어는 사용자의 스크립트 작성을 위한 행위 요소와 아바타 동작 시퀀스 및 구현 환경의 기하 정보를 분리하여 표현한다. 제안 언어를 통하여 사용자는 추상화된 스크립트 작성이 가능하며 작성된 스크립트는 번역 과정을 거쳐 다양한 구현 환경에 적용이 가능하다 구현 결과에서는 제안 기법을 적용한 시스템을 구축하여 사이버 교육 도메인 환경에서 아바타 스크립트 시나리오의 작성 과정 및 스크립트가 다양한 응용 프로그램에 유연하게 적용되는 것을 보여준다.

컬러와 적외선 영상을 이용한 손 제스쳐 기반 TV 제어 어플리케이션 (TV Control Application based on Hand Gesture using Color-IR images)

  • 엄태영;김성우;박종일
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2013년도 하계학술대회
    • /
    • pp.313-314
    • /
    • 2013
  • 최근 TV 와 같은 디스플레이들은 비접촉식 인터랙션에 의해 제어되는 방법을 많이 사용하고 있다. 이를 위한 다양한 방법들 중에서 풀 비전 기반 인터랙션 방법이 사용자에게 가장 자연스러운 접근을 유도한다. 본 논문에서는 이러한 풀 비전 기반 방법으로 같은 시점의 컬러 영상과 적외선 영상을 이용하여 사용자를 인식하고 손 동작을 이용하여 TV 를 제어하는 어플리케이션을 보인다. 이를 위해 적외선 영상과 거리의 관계를 도출하여 어플리케이션에 적용하고 제스쳐 기반으로 TV 를 제어하였다.

  • PDF

적외선 카메라를 이용한 실시간 손동작 인식 인터페이스 (Real-Time Hand Gesture Recognition Interface Based on IR Camera)

  • 홍석민;;이병국
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2012년도 춘계학술발표대회논문집
    • /
    • pp.22-25
    • /
    • 2012
  • 본 논문에서는 키보드나 마우스와 같은 인풋 디바이스 없이 손동작만으로 컴퓨터를 조작할 수 있는 차세대 인터페이스인 에어 인터페이스를 구현하였다. 이 시스템 구현을 위해 먼저 적외선 카메라와 적외선 LED를 사용하였고, 또한 적외선의 전반사의 원리를 이용하였다. 이를 통해 획득된 적외선 영상은 다양한 영상처리 기술을 통해 손 영역을 분할, 검출하게 되고, 검출된 정보를 이용하여 다양한 메타포를 구현 하였으며, 최종적으로 개별적인 제어 이벤트에 각각 맵핑되어 컴퓨터를 제어 및 동작하는 과정을 수행하게 된다. 본 연구에서는 손 영역의 검출과 추적, 인식과정 등을 자세히 서술하였으며, 다양한 메타포도 함께 소개가 된다. 그리고 본 연구에서 사용된 기술을 더욱 발전시키면 사회 전반적으로 다양한 부분에서 적극 활용될 것으로 기대된다.

  • PDF

인간손의 동작과 모양을 모방한 휴머노이드 로봇손 설계 (Design of a Humanoid Robot Hand by Mimicking Human Hand's Motion and Appearance)

  • 안상익;오용환;권상주
    • 제어로봇시스템학회논문지
    • /
    • 제14권1호
    • /
    • pp.62-69
    • /
    • 2008
  • A specialized anthropomorphic robot hand which can be attached to the biped humanoid robot MAHRU-R in KIST, has been developed. This built-in type hand consists of three fingers and a thumb with total four DOF(Degrees of Freedom) where the finger mechanism is well designed for grasping typical objects stably in human's daily activities such as sphere and cylinder shaped objects. The restriction of possible motions and the limitation of grasping objects arising from the reduction of DOF can be overcome by reflecting a typical human finger's motion profile to the design procedure. As a result, the developed hand can imitate not only human hand's shape but also its motion in a compact and efficient manner. Also this novel robot hand can perform various human hand gestures naturally and grasp normal objects with both power and precision grasping capability.

딥러닝 기반의 웨어러블 디바이스에서의 제스처 인식 (Gesture recognition with wearable device based on deep learning)

  • 변성우;이석필;김건년;한상현
    • 방송과미디어
    • /
    • 제22권1호
    • /
    • pp.10-18
    • /
    • 2017
  • 본 연구는 비접촉식 센서 기반의 웨어러블 디바이스를 이용한 딥러닝 기반의 제스처 인식에 대한 연구이다. 이를 위하여 Flexible MSG 센서를 기반으로 한 Flexible Epidermal Tactile Sensor를 사용하였으며, Flexible Epidermal Tactile Sensor는 손, 손가락 제스처를 취했을 때 손목, 손가락과 연결되어 있는 근육들의 움직임에 따라 발생하는 피부 표면의 전극을 취득하는 센서이다. 실험을 위하여 7가지 손, 손가락 제스처를 정의하였으며, 손목의 꺾임, 손목의 뒤틀림, 손가락의 오므림과 펴짐, 아무 동작도 취하지 않은 기본 상태에 대한 제스처로 정의하였다. 실험 데이터 수집에는 손목이나 손가락에 부상, 장애등이 없는 일반적인 8명의 참가자가 참가하였으며 각각 한 제스처에 대하여 20번씩 반복하여 1120개의 샘플을 수집하였다. 입력신호에 대한 제스처를 학습하기 위해 본 논문에서는 1차원 Convolutional Neural Network를 제안하였으며, 성능 비교를 위해 신호의 크기를 반영하는 특징벡터인 Integral Absolute Value와 Difference Absolute Mean Value를 입력신호에서 추출하고 Support Vector Machine을 사용하여 본 논문에서 제안한 1차원 CNN과 성능비교를 하였다. 그 결과 본 논문에서 제안한 1차원 CNN의 분류 정확도가 우수한 성능을 나타냈다.

비전 기반 제스처 인식을 이용한 사용자 인터페이스 구현 (An Implementation of User Interface Using Vision-based Gesture Recognition)

  • 고민삼;이광희;김창우;안준호;김인중
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2008년도 한국컴퓨터종합학술대회논문집 Vol.35 No.1 (C)
    • /
    • pp.507-511
    • /
    • 2008
  • 컴퓨터 비전을 기반으로 한 영상처리 및 제스처인식 기술을 이용하여 편리하게 응용프로그램을 제어 할 수 있는 인터페이스를 구성하였다. 카메라로 얻어진 영상을 HSV 색상계로 변환 후 색상 정보를 이용하여 손 영역을 추출한다. 추출된 손 영역의 무게중심과 크기 변화를 추적하여 제스처를 인식한다. 인식한 제스처는 응용프로그램의 동작을 제어하거나 마우스의 입력을 대체하는데 사용된다. 이는 별도의 입력장치 없이 컴퓨터 비전 기술만으로 제스처를 인식하여 응용프로그램을 실행할 수 있어 자연스러우며 사용자 친화적인 인터페이스 환경을 제공한다.

  • PDF

감성평가를 위한 한국인 인체모텔의 동적 해석 (Dynamic Analysis of Korean Dummy Models for Sensibility Ergonomic Evaluation)

  • 김성진;손권;최경현
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2002년도 춘계학술대회 논문집
    • /
    • pp.234-239
    • /
    • 2002
  • 한국인 인체모델은 동적 환경에서 정면 및 측면 충돌에 대한 지체의 가속도를 얻을 수 있도록 개발되었다. 우선 GEBOD에 입력하기 위한 32개의 한국인 인체치수를 선별하고, 15개의 지체를 가진 한국인 인체모델을 구성한다. 손 동작의 감성평가에 이용하기 위해 손을 독립된 지체로 분리한 17개 지체의 인체모델을 완성한다. MADYMO를 통한 정면충돌 테스트에서는 Hybrid III에 비해 한국인의 머리와 흉부 가속도가 비교적 높게 나왔고, 측면충돌 테스트에서 흉추 1번의 가속도는 ISO에서 요구하는 범위의 상한값을 조금 벗어나는 결과를 얻었다.

  • PDF

자동차의 수동 조작기에 대한 운전자 행동 모델에 관한 연구 (The Study of Model for Driver Performance with Hand Control in Vehicle)

  • 유승동;백승렬;박범
    • 대한인간공학회:학술대회논문집
    • /
    • 대한인간공학회 1997년도 추계학술대회논문집
    • /
    • pp.267-276
    • /
    • 1997
  • 현대는 자동차 제조업체나 차종이 매우 다양하다. 따라서 이들은 보다 고객들이 좋아하고 만족할 만한 자동차를 제조하려고 노력하는 실정이다. 하지만 현재 우리 나라에서는 자동차와 같은 인간-기계 시스템의 설계 요소들의 인터페이스 구축이 디자이너의 이상적 설계(good design)와 제품 개발자의 공학적 기능 기술에만 상당 부분 의존하고 있다. 따라서 이러한 자동차 내부 인터페이스의 설계에 있어서 인간 의 정신적, 육체적 능력을 고려한 HMI설계에 대해서는 상대적으로 등한시하고 있는 실정이다. 이에 기계의 사용성이나 인간의 인지 능력, 그리고 시스템의 성능을 고려한 인간-기계-시스템 인지 모형 개발 및 사용자 중심의 인터페이스 구축이 시급하다고 여겨진다. 본 연구에서는 동작 분석을 통한 운전 Performance를 설명하고 이에 걸리는 시간을 예측할 수 있는 모델에 대하여 연구하였다. 본 연구결과, 운전자의 Object조작에 대한 손의 움직임은 크게 세가지로 나눌 수 있었으며, 이를 바탕으로 하여, 시각과 손의 조합에 의한 모델을 제시하였다.

  • PDF

피부색 정보 및 역운동학을 이용한 인체 움직임 추정 (Human Body Postures Estimation Using skin color information and Inverse Kinematics)

  • 박정주;김주혜;김명희
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (B)
    • /
    • pp.820-822
    • /
    • 2005
  • 본 논문에서는 $CAVE^{TM}-like$ 시스템에서 역운동학을 이용하여 사용자의 인체 움직임을 실시간으로 추정하기 위한 기법을 제안한다. 사용자를 둘러싼 스크린으로 투사되는 빛에 인하여 매순간 변화하는 배경을 포함하는 영상으로부터 사용자 영역을 추출하기 위하여 적외선 반사 영상을 이용하였다. 이를 이용하여 추출된 사용자 컬러 영상에 프로젝션 기반 가상환경의 특성을 고려한 컬러 모델을 적용하여 사용자의 얼굴과 손 영역을 추출하였다. 위치 추정 단계를 통하여 다음 프레임에서의 관심영역 위치를 미리 예측하고 추출된 사용자의 손과 얼굴 위치 정보를 말단장치로 이용하고, 관절모델과 운동학적 제약조건을 기반으로 역운동학적인 방법을 통해 사용자의 동작을 추정하였다. 제안 기법에서는 별도의 마커나 도구를 사용하지 않기 때문에 비침입적이며 사용자 움직임의 제약을 최소화할 수 있기 때문에 보다 인간 중심적인 인터랙션을 위한 기반 기술로 이용될 수 있다.

  • PDF

MediaPipe를 활용한 수어 번역 시스템 개발 (Sign Language Translation System Development Using MediaPipe)

  • 김경민;송미화
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.684-686
    • /
    • 2022
  • 다양한 언어로 소통하고 있는 우리는 다른 언어와 교류하기 위해 번역, 통역의 존재가 필수가 되기도 한다. 하지만 음성언어를 사용하지 않는 즉, 손으로 언어를 표현하는 수어를 번역하는 통역의 존재는 아직 실현되지 않았다. 이에 본 논문에서는 MediaPipe와 OpenCV 라이브러리를 이용하여 손의 형태를 인식하고 CNN 알고리즘을 통한 텍스트 데이터화 하여 수어 동작을 학습시켜 이를 번역시켜주는 시스템을 연구한다. 이를 통해 공공기관을 이용함에 불편함을 줄이고, 농인의 의사를 보다 빠르게 파악할 수 있도록 도와주는 번역 시스템 제작하는 것에 목적이 있다.