• Title/Summary/Keyword: 수어 인식

Search Result 17, Processing Time 0.025 seconds

Sign language translation using video captioning and sign language recognition using action recognition (비디오 캡셔닝을 적용한 수어 번역 및 행동 인식을 적용한 수어 인식)

  • Gi-Duk Kim;Geun-Hoo Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2024.01a
    • /
    • pp.317-319
    • /
    • 2024
  • 본 논문에서는 비디오 캡셔닝 알고리즘을 적용한 수어 번역 및 행동 인식 알고리즘을 적용한 수어 인식 알고리즘을 제안한다. 본 논문에 사용된 비디오 캡셔닝 알고리즘으로 40개의 연속된 입력 데이터 프레임을 CNN 네트워크를 통해 임베딩 하고 트랜스포머의 입력으로 하여 문장을 출력하였다. 행동 인식 알고리즘은 랜덤 샘플링을 하여 한 영상에 40개의 인덱스에서 40개의 연속된 데이터에 CNN 네트워크를 통해 임베딩하고 GRU, 트랜스포머를 결합한 RNN 모델을 통해 인식 결과를 출력하였다. 수어 번역에서 BLEU-4의 경우 7.85, CIDEr는 53.12를 얻었고 수어 인식으로 96.26%의 인식 정확도를 얻었다.

  • PDF

Sign Language Dataset Built from S. Korean Government Briefing on COVID-19 (대한민국 정부의 코로나 19 브리핑을 기반으로 구축된 수어 데이터셋 연구)

  • Sim, Hohyun;Sung, Horyeol;Lee, Seungjae;Cho, Hyeonjoong
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.8
    • /
    • pp.325-330
    • /
    • 2022
  • This paper conducts the collection and experiment of datasets for deep learning research on sign language such as sign language recognition, sign language translation, and sign language segmentation for Korean sign language. There exist difficulties for deep learning research of sign language. First, it is difficult to recognize sign languages since they contain multiple modalities including hand movements, hand directions, and facial expressions. Second, it is the absence of training data to conduct deep learning research. Currently, KETI dataset is the only known dataset for Korean sign language for deep learning. Sign language datasets for deep learning research are classified into two categories: Isolated sign language and Continuous sign language. Although several foreign sign language datasets have been collected over time. they are also insufficient for deep learning research of sign language. Therefore, we attempted to collect a large-scale Korean sign language dataset and evaluate it using a baseline model named TSPNet which has the performance of SOTA in the field of sign language translation. The collected dataset consists of a total of 11,402 image and text. Our experimental result with the baseline model using the dataset shows BLEU-4 score 3.63, which would be used as a basic performance of a baseline model for Korean sign language dataset. We hope that our experience of collecting Korean sign language dataset helps facilitate further research directions on Korean sign language.

Keypoint-based Korean sign language recognition for guiding airport facilities (공항 내 시설 안내 서비스를 위한 마커리스 한국 수어 인식 기술)

  • Park, Han-Mu;Jeong, Yoon Young
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.476-478
    • /
    • 2020
  • 공항은 다양한 시설들이 혼재되어 있는 복합 공간으로 원하는 장소로 이동하기 위해서는 지도나 표지판뿐만 아니라 유·무인 안내 서비스를 이용하는 것이 필수적이다. 그러나 이러한 시설 안내 서비스는 이용객의 대다수를 차지하는 비장애인을 기준으로 설계되어 있는 것이 대부분이며, 특히 청각장애인은 음성 언어인 한국어를 통한 의사소통이 어려워 이러한 안내 서비스의 사각 지대에 놓여있다고 볼 수 있다. 본 논문에서는 청각장애인을 대상으로 공항 내 시설 위치 안내 서비스를 제공하는 키오스크를 구현하기 위해 마커리스(makerless) 한국 수어 인식 기술을 적용하는 방법을 제안한다. 기존의 알고리즘들이 수어를 인식하기 위해 사용자의 신체에 마커(marker)를 부착하거나 사용에 제약이 있는 깊이, 자기장 센서 등을 활용한 데 반해, 특징점 기반의 인식 기술은 별도의 마커 없이 RGB 영상만을 활용하여 수어를 인식하기 때문에 사용자의 편의성을 극대화할 수 있는 방법이다. 영상 기반의 마커리스 수어 인식 기술을 위치 안내 키오스크에 적용함으로써 청각장애인이 다른 사람의 도움 없이 공항 시설을 쉽고 안전하게 이용할 수 있도록 지원할 수 있으며, 나아가 배리어프리 (barrier-free) 공항을 구현하는 데에 큰 도움이 될 수 있을 것으로 기대된다.

  • PDF

Design and Implementation of Data Acquisition and Storage Systems for Multi-view Points Sign Language (다시점 수어 데이터 획득 및 저장 시스템 설계 및 구현)

  • Kim, Geunmo;Kim, Bongjae
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.22 no.3
    • /
    • pp.63-68
    • /
    • 2022
  • There are 395,789 people with hearing impairment in Korea, according to the 2021 Disability Statistics Annual Report by the Korea Institute for the Development of Disabled Persons. These people are experiencing a lot of inconvenience through hearing impairment, and many studies related to recognition and translation of Korean sign language are being conducted to solve this problem. In sign language recognition and translation research, collecting sign language data has many difficulties because few people use sign language professionally. In addition, most of the existed data is sign language data taken from the front of the speaker. To solve this problem, in this paper, we designed and developed a storage system that can collect sign language data based on multi-view points in real-time, rather than a single point, and store and manage it with high usability.

Study on Korean-Korean Sign language Translation Technology for Avatar Sign language Service (아바타 수어 서비스를 위한 한국어-한국수어 변환 기술 연구)

  • Choi, Ji Hoon;Lee, Han-kyu;AHN, ChungHyun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.459-460
    • /
    • 2020
  • 한국수화언어가 2016년 2월 제정된 한국수화언어법(약칭, 한국수어법)을 통해 한국어와 동일한 대한민국 공식 언어로 인정받았지만, 사회적 인식 부족과 서비스 비용 문제로 널리 사용되지 못하고 있다. 그리고 일상생활에서 접하는 많은 한국어 정보들 조차도 농인들은 쉽게 이해하기 어렵기 때문에 정보 접근에 대한 차별성 문제가 지속적으로 언급되고 있다. 이를 해결하기 위한 대안으로 아바타를 이용한 수어 서비스가 대두되고 있지만, 한국어-한국수어 번역을 위한 자연어처리 기술의 한계로 인해 일기예보와 같이 탬플릿 기반의 서비스에 국한되거나 비수지신호 표현에 대한 기술 부족으로 인해서 서비스 상용화까지 도달하지 못하고 있는 상황이다. 본 논문에서는 딥러닝 기반으로 한국어에서 한국수어로 변환하기 위한 병렬 말뭉치 데이터 전사 및 변환 시스템 설계 방법을 제안하고자 한다.

  • PDF

Development of Korean Sign Language Translator for Speech and Hearing Impaired (언어·청각장애인을 위한 한국 수어 번역기 개발)

  • Su-Beom Jo;Dong-Kyu Lee;Young-Chan Jo;Dongmahn Seo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.575-576
    • /
    • 2023
  • 한국 수어는 소리로 말을 배울 수 없어서 사용하는 '보이는 언어'이고 한국수화언어를 줄인 말이다. 한국어나 영어와 같이 독립된 언어로 한국어와는 문법 체계가 다른 대한민국 농인의 고유한 언어이다. 하지만, 한국 사회에서는 수어를 일상어로 사용하는 농인이 수어만으로 다른 사람과 대화하거나 서비스 등을 이용하기에는 쉽지 않은 구조이다. 이에 본 논문에서는 택시라는 상황을 가정해 택시 안에서 학습된 모델이 농인의 수어를 인식하고 택시 기사에게 해당 의미를 전달하는 시스템을 제안한다. 제안 시스템을 통해 택시 기사는 농인(수어사용자)에게 응답할 수 있다. 본 논문에서는 한국수어 번역기 웹서비스를 설계 및 구현하여 실제 환경에서의 활용 가능성을 검증한다.

Development of a Sign Language Learning Assistance System using Mediapipe for Sign Language Education of Deaf-Mutility (청각장애인의 수어 교육을 위한 MediaPipe 활용 수어 학습 보조 시스템 개발)

  • Kim, Jin-Young;Sim, Hyun
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.16 no.6
    • /
    • pp.1355-1362
    • /
    • 2021
  • Recently, not only congenital hearing impairment, but also the number of people with hearing impairment due to acquired factors is increasing. The environment in which sign language can be learned is poor. Therefore, this study intends to present a sign language (sign language number/sign language text) evaluation system as a sign language learning assistance tool for sign language learners. Therefore, in this paper, sign language is captured as an image using OpenCV and Convolutional Neural Network (CNN). In addition, we study a system that recognizes sign language behavior using MediaPipe, converts the meaning of sign language into text-type data, and provides it to users. Through this, self-directed learning is possible so that learners who learn sign language can judge whether they are correct dez. Therefore, we develop a sign language learning assistance system that helps us learn sign language. The purpose is to propose a sign language learning assistance system as a way to support sign language learning, the main language of communication for the hearing impaired.

CNN-based Online Sign Language Translation Counseling System (CNN기반의 온라인 수어통역 상담 시스템에 관한 연구)

  • Park, Won-Cheol;Park, Koo-Rack
    • Journal of Convergence for Information Technology
    • /
    • v.11 no.5
    • /
    • pp.17-22
    • /
    • 2021
  • It is difficult for the hearing impaired to use the counseling service without sign language interpretation. Due to the shortage of sign language interpreters, it takes a lot of time to connect to sign language interpreters, or there are many cases where the connection is not available. Therefore, in this paper, we propose a system that captures sign language as an image using OpenCV and CNN (Convolutional Neural Network), recognizes sign language motion, and converts the meaning of sign language into textual data and provides it to users. The counselor can conduct counseling by reading the stored sign language translation counseling contents. Consultation is possible without a professional sign language interpreter, reducing the burden of waiting for a sign language interpreter. If the proposed system is applied to counseling services for the hearing impaired, it is expected to improve the effectiveness of counseling and promote academic research on counseling for the hearing impaired in the future.

Three-Dimensional Convolutional Vision Transformer for Sign Language Translation (수어 번역을 위한 3차원 컨볼루션 비전 트랜스포머)

  • Horyeor Seong;Hyeonjoong Cho
    • The Transactions of the Korea Information Processing Society
    • /
    • v.13 no.3
    • /
    • pp.140-147
    • /
    • 2024
  • In the Republic of Korea, people with hearing impairments are the second-largest demographic within the registered disability community, following those with physical disabilities. Despite this demographic significance, research on sign language translation technology is limited due to several reasons including the limited market size and the lack of adequately annotated datasets. Despite the difficulties, a few researchers continue to improve the performacne of sign language translation technologies by employing the recent advance of deep learning, for example, the transformer architecture, as the transformer-based models have demonstrated noteworthy performance in tasks such as action recognition and video classification. This study focuses on enhancing the recognition performance of sign language translation by combining transformers with 3D-CNN. Through experimental evaluations using the PHOENIX-Wether-2014T dataset [1], we show that the proposed model exhibits comparable performance to existing models in terms of Floating Point Operations Per Second (FLOPs).

Perceptions of Sign Language Interpreters, Deaf Interpreters and Deaf on Operation of Sign Language Interpreter Qualification System (수어통역사 자격제도 운영에 대한 수어통역사, 청각장애인통역사, 농인의 인식)

  • Lee, Jun-Woo;Hwang, Joon-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.21 no.9
    • /
    • pp.543-556
    • /
    • 2021
  • The purpose of this study is to examine possible improvements of operation of sign language interpreter qualification system through looking into specific perceptions of sign language interpreters and Deaf sign language interpreters in the field and Deaf people who use interpretation service on current sign language interpreter qualification system through focus group interview. As a result of the thematic analysis, three high-level categories were derived for each group, and as a result of recombining them, 'change to a qualification system in which sign language interpreting competency and expertise can be recognized' and 'improvement to a qualification system based on Korean Sign Language and Deaf culture' been sorted out. Based on the above research results, 'establishment of a permanent institution in charge of management and operation of sign language interpreter qualification tests', 'reorganization into a qualification system that reflects the professionalism, level and experience of sign language interpreters', 'all test questions and exam procedures are conducted mainly in sign language', 'a system in which the Deaf take the lead', and 'enactment of a code of ethics for sign language interpreters and Deaf interpreters' were suggested.