• 제목/요약/키워드: Sign language recognition

검색결과 84건 처리시간 0.033초

Sign Language Image Recognition System Using Artificial Neural Network

  • Kim, Hyung-Hoon;Cho, Jeong-Ran
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권2호
    • /
    • pp.193-200
    • /
    • 2019
  • Hearing impaired people are living in a voice culture area, but due to the difficulty of communicating with normal people using sign language, many people experience discomfort in daily life and social life and various disadvantages unlike their desires. Therefore, in this paper, we study a sign language translation system for communication between a normal person and a hearing impaired person using sign language and implement a prototype system for this. Previous studies on sign language translation systems for communication between normal people and hearing impaired people using sign language are classified into two types using video image system and shape input device. However, existing sign language translation systems have some problems that they do not recognize various sign language expressions of sign language users and require special devices. In this paper, we use machine learning method of artificial neural network to recognize various sign language expressions of sign language users. By using generalized smart phone and various video equipment for sign language image recognition, we intend to improve the usability of sign language translation system.

Vision- Based Finger Spelling Recognition for Korean Sign Language

  • Park Jun;Lee Dae-hyun
    • 한국멀티미디어학회논문지
    • /
    • 제8권6호
    • /
    • pp.768-775
    • /
    • 2005
  • For sign languages are main communication means among hearing-impaired people, there are communication difficulties between speaking-oriented people and sign-language-oriented people. Automated sign-language recognition may resolve these communication problems. In sign languages, finger spelling is used to spell names and words that are not listed in the dictionary. There have been research activities for gesture and posture recognition using glove-based devices. However, these devices are often expensive, cumbersome, and inadequate for recognizing elaborate finger spelling. Use of colored patches or gloves also cause uneasiness. In this paper, a vision-based finger spelling recognition system is introduced. In our method, captured hand region images were separated from the background using a skin detection algorithm assuming that there are no skin-colored objects in the background. Then, hand postures were recognized using a two-dimensional grid analysis method. Our recognition system is not sensitive to the size or the rotation of the input posture images. By optimizing the weights of the posture features using a genetic algorithm, our system achieved high accuracy that matches other systems using devices or colored gloves. We applied our posture recognition system for detecting Korean Sign Language, achieving better than $93\%$ accuracy.

  • PDF

A Low-Cost Speech to Sign Language Converter

  • Le, Minh;Le, Thanh Minh;Bui, Vu Duc;Truong, Son Ngoc
    • International Journal of Computer Science & Network Security
    • /
    • 제21권3호
    • /
    • pp.37-40
    • /
    • 2021
  • This paper presents a design of a speech to sign language converter for deaf and hard of hearing people. The device is low-cost, low-power consumption, and it can be able to work entirely offline. The speech recognition is implemented using an open-source API, Pocketsphinx library. In this work, we proposed a context-oriented language model, which measures the similarity between the recognized speech and the predefined speech to decide the output. The output speech is selected from the recommended speech stored in the database, which is the best match to the recognized speech. The proposed context-oriented language model can improve the speech recognition rate by 21% for working entirely offline. A decision module based on determining the similarity between the two texts using Levenshtein distance decides the output sign language. The output sign language corresponding to the recognized speech is generated as a set of sequential images. The speech to sign language converter is deployed on a Raspberry Pi Zero board for low-cost deaf assistive devices.

근전도와 관성센서가 내장된 암밴드를 이용한 실시간 수화 인식 (Real-time Sign Language Recognition Using an Armband with EMG and IMU Sensors)

  • 김성중;이한수;김종만;안순재;김영호
    • 재활복지공학회논문지
    • /
    • 제10권4호
    • /
    • pp.329-336
    • /
    • 2016
  • 수화를 사용하는 농아인은 의사소통의 제약에 의해 사회적인 불평등과 금전적 손실을 겪고 있다. 이러한 이유로 본 연구에서는 농아인의 원활한 의사소통을 위해 8개의 근전도와 1개의 관성센서로 구성된 암밴드 센서를 이용하여 실시간으로 미국 수화를 인식하는 알고리즘을 개발하였다. 개발된 알고리즘의 성능 검증은 11명의 피험자를 통해 진행하였으며, 패턴 분류기 학습은 훈련 데이터베이스 크기를 증가시키면서 진행하였다. 실험 결과, 개발된 패턴 인식 알고리즘은 동작 별 20개의 훈련 데이터베이스에서 97%이상의 정확도를 가졌으며, 30개의 훈련 데이터베이스에서 99%이상의 정확도를 보였다. 이를 통해 본 연구에서 제안하는 암밴드 센서를 이용한 수화 인식 알고리즘의 실용성과 우수성을 확인하였다.

한글 수화의 실시간 인식 시스템의 구현 (Implementation of Real-time Recognition System for Korean Sign Language)

  • 한영환
    • 한국콘텐츠학회논문지
    • /
    • 제5권4호
    • /
    • pp.85-93
    • /
    • 2005
  • 본 논문은 복잡한 배경에서 표식없는 손을 추적하여 한글 수화를 인식하는 시스템에 관한 것이다. 제안한 방법은 먼저 인접한 프레임간의 차 영상에 대하여 엔트로피를 측정한다. 큰 값을 갖는 영역에 대해 피부색에 가까운 분포를 갖는 색상 정보를 추출하여 배경 영상으로부터 손 영역만을 추출한다. 추출된 손 영역에 대해 윤곽선을 검출하고 개선된 무게중심 프로필(centroidal profile) 방법을 적용하여 수화를 인식한다. 6가지 모양의 수화를 사용한 실험결과 기존의 방법들과 달리 표식을 사용하지 않고도 복잡한 배경과 조명의 변화에서 안정적으로 수화를 인식할 수 있다. 또한 초당 15프레임 정도의 처리속도로 각 사람별로 95%이상, 각 수화별로 $90\sim100%$의 인식률을 얻을 수 있다.

  • PDF

Continuous Korean Sign Language Recognition using Automata-based Gesture Segmentation and Hidden Markov Model

  • Kim, Jung-Bae;Park, Kwang-Hyun;Bang, Won-Chul;Z.Zenn Bien;Kim, Jong-Sung
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.105.2-105
    • /
    • 2001
  • This paper studies continuous Korean Sign Language (KSL) recognition using color vision. In recognizing gesture words such as sign language, it is a very difficult to segment a continuous sign into individual sign words since the patterns are very complicated and diverse. To solve this problem, we disassemble the KSL into 18 hand motion classes according to their patterns and represent the sign words as some combination of hand motions. Observing the speed and the change of speed of hand motion and using state automata, we reject unintentional gesture motions such as preparatory motion and meaningless movement between sign words. To recognize 18 hand motion classes we adopt Hidden Markov Model (HMM). Using these methods, we recognize 5 KSL sentences and obtain 94% recognition ratio.

  • PDF

비디오 캡셔닝을 적용한 수어 번역 및 행동 인식을 적용한 수어 인식 (Sign language translation using video captioning and sign language recognition using action recognition)

  • 김기덕;이근후
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.317-319
    • /
    • 2024
  • 본 논문에서는 비디오 캡셔닝 알고리즘을 적용한 수어 번역 및 행동 인식 알고리즘을 적용한 수어 인식 알고리즘을 제안한다. 본 논문에 사용된 비디오 캡셔닝 알고리즘으로 40개의 연속된 입력 데이터 프레임을 CNN 네트워크를 통해 임베딩 하고 트랜스포머의 입력으로 하여 문장을 출력하였다. 행동 인식 알고리즘은 랜덤 샘플링을 하여 한 영상에 40개의 인덱스에서 40개의 연속된 데이터에 CNN 네트워크를 통해 임베딩하고 GRU, 트랜스포머를 결합한 RNN 모델을 통해 인식 결과를 출력하였다. 수어 번역에서 BLEU-4의 경우 7.85, CIDEr는 53.12를 얻었고 수어 인식으로 96.26%의 인식 정확도를 얻었다.

  • PDF

A Structure and Framework for Sign Language Interaction

  • Kim, Soyoung;Pan, Younghwan
    • 대한인간공학회지
    • /
    • 제34권5호
    • /
    • pp.411-426
    • /
    • 2015
  • Objective: The goal of this thesis is to design the interaction structure and framework of system to recognize sign language. Background: The sign language of meaningful individual gestures is combined to construct a sentence, so it is difficult to interpret and recognize the meaning of hand gesture for system, because of the sequence of continuous gestures. This being so, in order to interpret the meaning of individual gesture correctly, the interaction structure and framework are needed so that they can segment the indication of individual gesture. Method: We analyze 700 sign language words to structuralize the sign language gesture interaction. First of all, we analyze the transformational patterns of the hand gesture. Second, we analyze the movement of the transformational patterns of the hand gesture. Third, we analyze the type of other gestures except hands. Based on this, we design a framework for sign language interaction. Results: We elicited 8 patterns of hand gesture on the basis of the fact on whether the gesture has a change from starting point to ending point. And then, we analyzed the hand movement based on 3 elements: patterns of movement, direction, and whether hand movement is repeating or not. Moreover, we defined 11 movements of other gestures except hands and classified 8 types of interaction. The framework for sign language interaction, which was designed based on this mentioned above, applies to more than 700 individual gestures of the sign language, and can be classified as an individual gesture in spite of situation which has continuous gestures. Conclusion: This study has structuralized in 3 aspects defined to analyze the transformational patterns of the starting point and the ending point of hand shape, hand movement, and other gestures except hands for sign language interaction. Based on this, we designed the framework that can recognize the individual gestures and interpret the meaning more accurately, when meaningful individual gesture is input sequence of continuous gestures. Application: When we develop the system of sign language recognition, we can apply interaction framework to it. Structuralized gesture can be used for using database of sign language, inventing an automatic recognition system, and studying on the action gestures in other areas.

키넥트의 모션 인식 기능을 이용한 수화번역 시스템 개발 (Development of Sign Language Translation System using Motion Recognition of Kinect)

  • 이현석;김승필;정완영
    • 융합신호처리학회논문지
    • /
    • 제14권4호
    • /
    • pp.235-242
    • /
    • 2013
  • 청각, 언어장애인과 수화를 모르는 일반인과의 대화를 위해, 키넥트를 이용한 모션 인식을 통해 수화를 번역하여 주는 시스템을 개발하였다. 키넥트의 주요기능을 이용하여 수화를 번역하는 알고리즘들을 설계하고, 다양한 수화자에 대한 수화번역의 정확도를 높이기 위한 방법으로서 길이정규화와 팔꿈치정규화의 두 가지 정규화 방법을 사용하였다. 그리고 이러한 정규화 방법이 효과적인지 알아보기 위해서 실제 수화데이터를 차트로 비교하였다. 또한 10개의 데이터베이스를 입력하여 간단한 수화부터 복잡한 수화까지 직접 실시하고, 이를 키넥트로 인식하여 번역을 해봄으로서 프로그램의 정확도를 검증하였다. 추가적으로 다양한 체형의 수화자를 인식시켜 프로그램을 실행 시켜봄으로서 체형에 따른 오차 값의 보완을 완료하여 수화번역에 대한 신뢰도를 높였다.

대한민국 정부의 코로나 19 브리핑을 기반으로 구축된 수어 데이터셋 연구 (Sign Language Dataset Built from S. Korean Government Briefing on COVID-19)

  • 심호현;성호렬;이승재;조현중
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권8호
    • /
    • pp.325-330
    • /
    • 2022
  • 본 논문은 한국 수어에 대하여 수어 인식, 수어 번역, 수어 영상 시분할과 같은 수어에 관한 딥러닝 연구를 위한 데이터셋의 수집 및 실험을 진행하였다. 수어 연구를 위한 어려움은 2가지로 볼 수 있다. 첫째, 손의 움직임과 손의 방향, 표정 등의 종합적인 정보를 가지는 수어의 특성에 따른 인식의 어려움이 있다. 둘째, 딥러닝 연구를 진행하기 위한 학습데이터의 절대적 부재이다. 현재 알려진 문장 단위의 한국 수어 데이터셋은 KETI 데이터셋이 유일하다. 해외의 수어 딥러닝 연구를 위한 데이터셋은 Isolated 수어와 Continuous 수어 두 가지로 분류되어 수집되며 시간이 지날수록 더 많은 양의 수어 데이터가 수집되고 있다. 하지만 이러한 해외의 수어 데이터셋도 방대한 데이터셋을 필요로 하는 딥러닝 연구를 위해서는 부족한 상황이다. 본 연구에서는 한국 수어 딥러닝 연구를 진행하기 위한 대규모의 한국어-수어 데이터셋을 수집을 시도하였으며 베이스라인 모델을 이용하여 수어 번역 모델의 성능 평가 실험을 진행하였다. 본 논문을 위해 수집된 데이터셋은 총 11,402개의 영상과 텍스트로 구성되었다. 이를 이용하여 학습을 진행할 베이스라인 모델로는 수어 번역 분야에서 SOTA의 성능을 가지고 있는 TSPNet 모델을 이용하였다. 본 논문의 실험에서 수집된 데이터셋에 대한 특성을 정량적으로 보이고, 베이스라인 모델의 실험 결과로는 BLEU-4 score 3.63을 보였다. 또한, 향후 연구에서 보다 정확하게 데이터셋을 수집할 수 있도록, 한국어-수어 데이터셋 수집에 있어서 고려할 점을 평가 결과에 대한 고찰로 제시한다.