• 제목/요약/키워드: Sign language education

검색결과 31건 처리시간 0.024초

Hand Tracking과 대화형 AI를 활용한 VR 실감형 수어 교육 콘텐츠 개발 연구 (Research on Development of VR Realistic Sign Language Education Content Using Hand Tracking and Conversational AI)

  • 천재성;문일영
    • 한국항행학회논문지
    • /
    • 제28권3호
    • /
    • pp.369-374
    • /
    • 2024
  • 본 연구는 청각장애인과 비장애인 모두를 위한 수어 교육의 접근성과 효율성을 개선하는 것을 목적으로 한다. 이를 위해 Hand Tracking 기술과 대화형 AI를 통합한 VR 실감형 수어 교육 콘텐츠를 개발하였다. 사용자는 이 콘텐츠를 통해 실시간으로 수어를 학습하며, 가상 환경에서의 직접적인 의사소통을 경험할 수 있다. 연구 결과, 이러한 통합 접근 방식이 수어 학습에 있어 몰입감을 크게 향상시키며, 학습자에게 더 깊은 이해를 제공함으로써 수어 학습의 장벽을 낮추는 데 기여한다는 것을 확인하였다. 이는 수어 교육의 새로운 패러다임을 제시하며, 기술이 교육의 접근성과 효과를 어떻게 변화시킬 수 있는지를 보여준다.

3D 수화교육 스마트폰 앱콘텐츠 개발 (Development of Smart Phone App. Contents for 3D Sign Language Education)

  • 정영기
    • 스마트미디어저널
    • /
    • 제1권3호
    • /
    • pp.8-14
    • /
    • 2012
  • 본 논문에서는 청각장애인(농아인)과 비장애인의 수화 학습의 기회를 넓히고자 스마트폰용 3D 수화교육 앱을 개발하였다. 특히 한국어 문장을 자동으로 수화구조로 변환하는 수화단어 변환 알고리즘을 제안하였다. 또한, 자연스러운 수화 동작을 얻기위해 모션 캡처 시스템과 정확한 손동작 표현을 위해 데이터 글러브를 이용하여 실제 사람과 같은 3D 수화 애니메이션 DB를 구축하였다. 마지막으로 수화 애니메이션의 움직임을 실시간 3D 렌더링하여 화면에 보여주기 위해 UNITY 3D 엔진 프로그래밍이 이용되었다. 제안한 수화교육 앱 콘텐츠는 아이폰 앱스토어와 안드로이드 앱스토어에 약 1,300단어의 3D 수화 DB를 가지는 앱으로 배포 중이다.

  • PDF

A Low-Cost Speech to Sign Language Converter

  • Le, Minh;Le, Thanh Minh;Bui, Vu Duc;Truong, Son Ngoc
    • International Journal of Computer Science & Network Security
    • /
    • 제21권3호
    • /
    • pp.37-40
    • /
    • 2021
  • This paper presents a design of a speech to sign language converter for deaf and hard of hearing people. The device is low-cost, low-power consumption, and it can be able to work entirely offline. The speech recognition is implemented using an open-source API, Pocketsphinx library. In this work, we proposed a context-oriented language model, which measures the similarity between the recognized speech and the predefined speech to decide the output. The output speech is selected from the recommended speech stored in the database, which is the best match to the recognized speech. The proposed context-oriented language model can improve the speech recognition rate by 21% for working entirely offline. A decision module based on determining the similarity between the two texts using Levenshtein distance decides the output sign language. The output sign language corresponding to the recognized speech is generated as a set of sequential images. The speech to sign language converter is deployed on a Raspberry Pi Zero board for low-cost deaf assistive devices.

The Effects of Sign Language Video Location in e-Learning System for the Hearing-impaired

  • Muhn, Seung Ho;Jung, Kwang Tae
    • 대한인간공학회지
    • /
    • 제34권6호
    • /
    • pp.597-607
    • /
    • 2015
  • Objective: The purpose of this study is to identify the effects of sign language video location in e-learning system for the hearing-impaired. Background: E-learning education is a good way to resolve the inequality of education for the disabled. Providing a sign language video in e-learning education for the hearing-impaired is very important for their learning. Although the location of sign language video is an important factor in the design of the video, the effect of its location in learning using the e-learning system was not studied. Method: In order to identify the effect of sign language video location on the learning of the hearing-impaired using the e-learning system, the prototypes of the system with different locations were developed. Eighteen people with hearing impairment participated in this experiment. Learning presence, learning immersion, and learning satisfaction were used to measure learning effects with sign language video location. Results: Bottom right position was more preferred through preference evaluation for sign language video location. The learning effect with sign language video location (bottom-left and bottom-right) was not significant. That is, the effects of learning presence, immersion, and satisfaction were not statistically significant with video location. Conclusion: From this study, the following have to be considered in e-learning system design for the hearing-impaired. Although the location of a sign language video is not a significant factor from the experiment, the bottom right position in the design is proposed because learning presence and satisfaction is slightly higher at the bottom right position, and the position is preferred from subjective evaluation. From the analysis of interview data, it was also proposed that the design of a sign language video should be improved for the hearing-impaired. Application: The result of this study can be applied to the e-learning system design for the hearing-impaired.

멀티미디어 수화 콘텐츠의 Semantic Logic 플랫폼 연구 (A Study on Semantic Logic Platform of multimedia Sign Language Content)

  • 정회준;박대우;한경돈
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권10호
    • /
    • pp.199-206
    • /
    • 2009
  • 초고속 인터넷의 발달로 멀티미디어 수화 콘텐츠가 청각장애인의 수화교육에 활용되고 있다. 수화교육에서 사용되는 대부분 콘텐츠는 한글단어에 대한 수화표현을 수화동영상으로 보여주는 내용이다. 수화를 처음 배우거나, 수화에 익숙하지 않은 사용자들은 수화특성을 이해하기 어렵고, 수화표현에 어려움을 나타내고 있다. 본 논문에서는 온라인에서 수화표현을 학습하기 위해서 수화가 가지고 있는 특성을 참고하고, Semantic Logic을 적용한 멀티미디어 동영상기반의 수화 콘텐츠 모형에 대한 플랫폼 설계를 연구하고자 한다.

청각장애인의 수어 교육을 위한 MediaPipe 활용 수어 학습 보조 시스템 개발 (Development of a Sign Language Learning Assistance System using Mediapipe for Sign Language Education of Deaf-Mutility)

  • 김진영;심현
    • 한국전자통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.1355-1362
    • /
    • 2021
  • 최근 선천적 청각장애 뿐만 아니라 후천적 요인으로 인해 청각장애를 가지게 되는 사람들도 증가하고 있지만, 수어를 익힐 수 있는 환경은 열악한 상황이다. 이에 본 연구에서는 수어를 배우는 수어 학습자를 위한 수어학습 보조도구로써 수어(지숫자/지문자) 평가 시스템을 제시하고자 한다. 이에 본 논문에서는 OpenCV 라이브러와 MediaPipe를 이용하여 손과 손가락을 추적하여 수어 동작을 인식하고 CNN기법을 이용하여 수어의 의미를 텍스트 형태의 데이터로 변환하여 학습자에게 제공하는 시스템을 연구한다. 이를 통해 수어를 배우는 학습자가 스스로 올바른 수형인지를 판단할 수 있도록 자기주도학습을 가능하게 하여 수어를 익히는데 도움이 되는 수어학습보조 시스템을 개발하고, 청각장애인들의 의사소통의 주언어인 수어학습을 지원하기 위한 방안으로 수어학습보조 시스템을 제안하는 데 목적이 있다.

수화언어통역서비스에 대한 청각장애인의 주관적 인식 유형 (Types of Subjective Perception of Hearing-Impaired Persons on Sign Language Interpretation)

  • 오수경;송미연
    • 재활복지
    • /
    • 제21권4호
    • /
    • pp.1-31
    • /
    • 2017
  • 본 연구는 청각장애인에게 보다 유용한 수화언어통역서비스를 발전시키기 위한 방안을 모색하는데 목적을 두고, Q방법을 활용하여 청각장애인의 수화언어통역에 대한 다양한 주관적 인식 유형을 파악하고자 하였다. 이를 위해 선행 연구들과 심층 인터뷰를 바탕으로 39개의 진술문을 추출하고, 청각장애인 20명에 대한 Q분류를 시행하였다. 연구결과, 청각장애인이 많이 이용하는 기관에 수화통역사를 배치하는데 대한 공통 인식 분석과 함께, '수화언어통역의 전문화 추구형', '전통적인 수화언어통역서비스 추구형', '수화언어통역서비스 확대 및 개선 추구형' 등 차별화된 3가지 인식 유형을 도출하였다. 이에 근거하여 주요 공공시설에 수화통역사 상주화 방안, 수화통역사 자격제도 및 교육훈련과정의 개선 방안, 영역별 전문화와 수화언어통역서비스 형태의 개선 방안, 고령층에 차별화된 서비스 제공, 수화언어통역 이용자의 욕구를 반영한 수화통역사 배치 등의 개선 방향을 제안하였다.

수화 애니메이션을 위한 중간 프레임 생성 방법 (A Method for Generating Inbetween Frames in Sign Language Animation)

  • 오정근;김상철
    • 한국정보처리학회논문지
    • /
    • 제7권5호
    • /
    • pp.1317-1329
    • /
    • 2000
  • The advanced techniques for video processing and computer graphics enables a sign language education system to appear. the system is capable of showing a sign language motion for an arbitrary sentence using the captured video clips of sign language words. In this paper, a method is suggested which generates the frames between the last frame of a word and the first frame of its following word in order to animate hand motion. In our method, we find hand locations and angles which are required for in between frame generation, capture and store the hand images at those locations and angles. The inbetween frames generation is simply a task of finding a sequence of hand angles and locations. Our method is computationally simple and requires a relatively small amount of disk space. However, our experiments show that inbetween frames for the presentation at about 15fps (frame per second) are achieved so tat the smooth animation of hand motion is possible. Our method improves on previous works in which computation cost is relativey high or unnecessary images are generated.

  • PDF

Efficient Sign Language Recognition and Classification Using African Buffalo Optimization Using Support Vector Machine System

  • Karthikeyan M. P.;Vu Cao Lam;Dac-Nhuong Le
    • International Journal of Computer Science & Network Security
    • /
    • 제24권6호
    • /
    • pp.8-16
    • /
    • 2024
  • Communication with the deaf has always been crucial. Deaf and hard-of-hearing persons can now express their thoughts and opinions to teachers through sign language, which has become a universal language and a very effective tool. This helps to improve their education. This facilitates and simplifies the referral procedure between them and the teachers. There are various bodily movements used in sign language, including those of arms, legs, and face. Pure expressiveness, proximity, and shared interests are examples of nonverbal physical communication that is distinct from gestures that convey a particular message. The meanings of gestures vary depending on your social or cultural background and are quite unique. Sign language prediction recognition is a highly popular and Research is ongoing in this area, and the SVM has shown value. Research in a number of fields where SVMs struggle has encouraged the development of numerous applications, such as SVM for enormous data sets, SVM for multi-classification, and SVM for unbalanced data sets.Without a precise diagnosis of the signs, right control measures cannot be applied when they are needed. One of the methods that is frequently utilized for the identification and categorization of sign languages is image processing. African Buffalo Optimization using Support Vector Machine (ABO+SVM) classification technology is used in this work to help identify and categorize peoples' sign languages. Segmentation by K-means clustering is used to first identify the sign region, after which color and texture features are extracted. The accuracy, sensitivity, Precision, specificity, and F1-score of the proposed system African Buffalo Optimization using Support Vector Machine (ABOSVM) are validated against the existing classifiers SVM, CNN, and PSO+ANN.

청각장애인을 위한 정보통신용어 수화해설 사전 (The Expository Dictionary using the Sign Language about Information Communication for Deaf)

  • 김호용;서영건
    • 디지털콘텐츠학회 논문지
    • /
    • 제6권4호
    • /
    • pp.217-222
    • /
    • 2005
  • 본 연구는 청각장애자에게 정보통신용어를 이해시키기 위한 수화해설 사전을 만드는 것이다. 청각장애인이 인터넷을 사용할 때, 자신의 의지를 표현하고 다양한 정보에 접근하는데 이 사전을 통하여 도움을 얻는 것이다. 일반인과 같이 효율적으로 인터넷을 이용하기 위해서, 청각장애인들은 정보통신용어를 먼저 이해해야만 한다. 이 사전을 만들기 위하여, 먼저 청각장애인을 정의하고 특성을 정의하고 이 사전을 설계하는 원칙을 설정하고 어떤 용어를 사전에 넣을지 선정한다. 용어를 설명할 때, 청각장애자에게 일반적인 표현을 사용하도록 하지만 때때로 수화비디오를 만들 때 용어의 본래 의미를 유지하면서 약간 수정했다. 본 연구를 정보 교육 학습 목적으로 적용해서 ICT의 이해에 대해 두 번의 실험을 했다.

  • PDF