• 제목/요약/키워드: Deaf

검색결과 150건 처리시간 0.026초

시각 및 청각장애 대학생의 오픈코스웨어(OCW) 사용성 평가 - KOCW의 접근성을 중심으로 - (Usability Testing of OpenCourseWare(OCW) by College Students with Visual and Hearing Impairments - Focused on the Accessibility of KOCW -)

  • 손지영;염명숙
    • 재활복지공학회논문지
    • /
    • 제10권2호
    • /
    • pp.127-132
    • /
    • 2016
  • 본 연구에서는 국내 OCW 강좌가 시각 및 청각장애 대학생들이 인식하기에 접근성 측면에서 어떠한 문제점을 가지고 있는지를 파악하기 위해 사용성 평가를 실시하였다. 이에 시각장애 6명(전맹 3, 저시력 3), 청각장애 4명(농 2명, 난청 2명) 총 10명의 시각, 청각장애를 가진 대학생들이 국내 KOCW 사이트에서 제공하고 있는 두 가지 유형의 강좌를 대상으로 사용성 평가를 실시하였다. 평가 결과, 시각, 청각장애 학생들이 인식하게 두 유형의 강좌 모두 보통 이하의 낮은 수준의 사용성과 접근성 수준을 보이는 것으로 평가되었다. 이러한 연구결과를 통해서 시각, 청각장애인을 위해 OCW 설계 시 고려해야 할 점을 제안하였다.

청각장애인을 위한 청능훈련 서비스모델 및 기능성 게임콘텐츠 설계 (Auditory and Language Training Service Model and Serious Game Contents Design for the hearing-impaired)

  • 박화진
    • 디지털콘텐츠학회 논문지
    • /
    • 제12권4호
    • /
    • pp.467-474
    • /
    • 2011
  • 청각장애인을 위한 청능 및 언어 훈련은 비장애인과 소통능력을 배양하는 기본적인 훈련이지만 동시에 부모나 지도교사의 경제적부담, 육체적 피로를 수반한다. 이를 해결하기 위해 웹기반의 청능 및 언어 훈련 콘텐츠가 계속해서 개발되어 왔다. 그러나 장애인의 청각상태 및 학습능력의 차이가 존재함에도 불구하고 이런 개인 차이를 고려하지 않은 채 개발되고 있다. 따라서 장애자의 상태와 잔존청력, 학습능력 및 훈련성취도를 정확히 평가하고 분석하여 장애자에게 적절한 훈련진도를 계획하는 것이 중요하다. 본 논문에서 청각장애자를 위해 개인평가에 따라 다양하게 청능 언어 훈련을 기획하고 관리해주는 청능 및 언어 훈련 서비스 모델을 제안한다. 또한 이 모델을 기반으로 하는 기능성 게임콘텐츠를 기획하는 설계방법을 제시한다.

Sign Language Translation Using Deep Convolutional Neural Networks

  • Abiyev, Rahib H.;Arslan, Murat;Idoko, John Bush
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권2호
    • /
    • pp.631-653
    • /
    • 2020
  • Sign language is a natural, visually oriented and non-verbal communication channel between people that facilitates communication through facial/bodily expressions, postures and a set of gestures. It is basically used for communication with people who are deaf or hard of hearing. In order to understand such communication quickly and accurately, the design of a successful sign language translation system is considered in this paper. The proposed system includes object detection and classification stages. Firstly, Single Shot Multi Box Detection (SSD) architecture is utilized for hand detection, then a deep learning structure based on the Inception v3 plus Support Vector Machine (SVM) that combines feature extraction and classification stages is proposed to constructively translate the detected hand gestures. A sign language fingerspelling dataset is used for the design of the proposed model. The obtained results and comparative analysis demonstrate the efficiency of using the proposed hybrid structure in sign language translation.

Brainstem auditory evoked potential findings in a French bulldog with bilaterally congenital sensorineural deafness

  • An, Daegi;Jung, Dong-In;Kim, Ha-Jung;Kang, Ji-Houn;Chang, Dong-Woo;Yang, Mhan-Pyo;Kang, Byeong-Teck
    • 대한수의학회지
    • /
    • 제53권4호
    • /
    • pp.265-267
    • /
    • 2013
  • A 3-month-old, intact male French bulldog was suspected of deafness. The dog was irresponsive to environmental noises generated out of sight, but normal responses were noted for visual stimuli. No abnormalities were observed on the neurological, otoscopic, radiographic, and blood examinations. To diagnose the apparent deafness, brainstem auditory evoked potential (BAEP) was recorded in the presented dog together with a normal dog. While the BAEP from the control dog showed a normal wave consisting of 5 peaks, absence of all peaks was noted in the suspected deaf dog. Therefore the dog was definitively diagnosed as bilaterally congenital sensorineural deafness.

Combining Dynamic Time Warping and Single Hidden Layer Feedforward Neural Networks for Temporal Sign Language Recognition

  • Thi, Ngoc Anh Nguyen;Yang, Hyung-Jeong;Kim, Sun-Hee;Kim, Soo-Hyung
    • International Journal of Contents
    • /
    • 제7권1호
    • /
    • pp.14-22
    • /
    • 2011
  • Temporal Sign Language Recognition (TSLR) from hand motion is an active area of gesture recognition research in facilitating efficient communication with deaf people. TSLR systems consist of two stages: a motion sensing step which extracts useful features from signers' motion and a classification process which classifies these features as a performed sign. This work focuses on two of the research problems, namely unknown time varying signal of sign languages in feature extraction stage and computing complexity and time consumption in classification stage due to a very large sign sequences database. In this paper, we propose a combination of Dynamic Time Warping (DTW) and application of the Single hidden Layer Feedforward Neural networks (SLFNs) trained by Extreme Learning Machine (ELM) to cope the limitations. DTW has several advantages over other approaches in that it can align the length of the time series data to a same prior size, while ELM is a useful technique for classifying these warped features. Our experiment demonstrates the efficiency of the proposed method with the recognition accuracy up to 98.67%. The proposed approach can be generalized to more detailed measurements so as to recognize hand gestures, body motion and facial expression.

형태소분석에 기초한 수화영상변환시스템에 관한 연구 (Sign Language Transformation System based on a Morpheme Analysis)

  • 이용동;김형근;정운달
    • 한국음향학회지
    • /
    • 제15권6호
    • /
    • pp.90-98
    • /
    • 1996
  • 본 논문에서는 한글의 형태소 분석에 기초한 청각장애자용 수화영상 변환시스템을 제안하였다. 제안된 시스템은 입력 문자열에 대해 형태소 분석에 의한 음운성분과 접속정보를 추출한 다음, 이에 대응한 수화영상을 구축된 수화영상 데이터베이스를 통하여 정확히 출력한다. 효과적인 수화영상변환을 위해 입력문자열에 대한 형태소 분석부와 수화패턴 참조를 위한 수화언어기술부로 이루어진 언어정보기술사전을 구성하였다. 수화패턴은 중복을 피하기 위해 기본수화, 복합수화 그리고 유사수화단어로 분류하여 작성하였으며, 실험을 통해 제안된 시스템의 유용성을 확인하였다.

  • PDF

DTV 수신기의 자막방송 S/W 모듈의 구현 (Implementation of closed caption service S/W module on DTV receiver)

  • 김순권;노승용
    • 대한전자공학회논문지SP
    • /
    • 제41권1호
    • /
    • pp.69-76
    • /
    • 2004
  • 최근 DTV 기술의 발전과 더불어 부가서비스의 요구가 크게 증가하고 있다. 본 논문에서는 청각장애인 과 어학 학습을 목적으로 사용될 수 있는 새로운 캡션엔진을 DTV상에서 구현 하였다. 기존의 자막방송 수신 기능은 영문 자막만을 수신할 수 있으며 마이컴에 내장된 OSD 데이터가 이용되기 때문에 지원하는 폰트와 칼라수가 제한되었다. 또 폰트가 매끄럽지 못하여 시각적으로 만족스러운 결과를 보여주지 못하였다. 본 논문에서는 EIA-608 규격에서 정의한 기능을 구현하기 위해 새로운 알고리즘을 제안하였으며, 가독성(visibility)을 높이기 위한 새로운 기법 및 고속 데이터 전송 기법을 적용한 결과 만족할 만한 결과를 얻을 수 있었다.

인공와우이식 아동 말용인도의 예측 변인 (Variables for Predicting Speech Acceptability of Children with Cochlear Implants)

  • 윤미선
    • 말소리와 음성과학
    • /
    • 제6권4호
    • /
    • pp.171-179
    • /
    • 2014
  • Purposes: Speech acceptability means the subjective judgement of listeners regarding the naturalness and normality of the speech. The purpose of this study was to determine the predicting variables for speech acceptabilities of children with cochlear implants. Methods: Twenty seven children with CI participated. They had profound pre-lingual hearing loss without any additional disabilities. The mean of chronological ages was 8;9, and mean of age of implantation was 2;11. Speech samples of reading and spontaneous speech were recorded separately. Twenty college students who were not familiar to the speech of deaf children evaluated the speech acceptabilities using visual analog scale. 1 segmental (articulation) and 6 suprasegmental features (pitch, loudness, quality, resonance, intonation, and speaking rate) of speech were perceptually evaluated by 3 SLPs. Correlation and multiple regression analysis were performed to evaluate the predicting variables. Results: The means of speech acceptability for reading and spontaneous speech were 73.47 and 71.96, respectively. Speech acceptability of reading was predicated by the severity of intonation and articulation. Speech acceptability of spontaneous speech was predicated by the severity of intonation and loudness. Discussion and conclusion: Severity of intonation was the most effective variable to predict the speech acceptabilities of both reading and spontaneous speech. A further study would be necessary to generalize the result and to apply this result to intervention in clinical settings.

모바일 수화 인식 시스템의 개선에 관한 연구 (Betterment of Mobile Sign Language Recognition System)

  • 박광현
    • 전자공학회논문지SC
    • /
    • 제43권4호
    • /
    • pp.1-10
    • /
    • 2006
  • 본 논문에서는 수화를 의사소통 수단으로 사용하는 청각 장애인이 일반인과 일상 대화를 할 수 있도록 도와주는 모바일 수화 인식 시스템을 다룬다. 개발된 시스템은 모자에 부착된 카메라와 손목에 착용한 가속도 센서를 통해 사용자의 수화 동작을 관찰하는데, 모바일 환경에서 실제 적용할 수 있도록 조명 변화에 둔감하고 실시간 처리가 가능하도록 개발하였다. 이를 위해 조명 변화에 강인한 손 영역 분할 방법을 제안하고 추출된 손 영역 정보를 히든 마르코프 모델의 입력으로 사용하여 연속적인 수화에 대해 99.07%의 단어 정확도를 얻었다.

3D 아바타의 자연스러운 수화 동작 표현 방법 (Soft Sign Language Expression Method of 3D Avatar)

  • 오영준;장효영;정진우;박광현;김대진;변증남
    • 정보처리학회논문지B
    • /
    • 제14B권2호
    • /
    • pp.107-118
    • /
    • 2007
  • 본 논문에서는 실제 수화자의 관점에서 기존 수화 아바타의 한계와 문제점을 지적한다. 이를 해결하기 위하여 손 모양, 손 방향, 손 운동을 비롯하여 입술 움직임, 얼굴 표정, 안색, 운동자 움직임, 몸동작 등을 통해 수화를 보다 자연스럽게 표현할 수 있는 수화 아바타를 개발하였다. 또한, 데이터베이스의 성능을 높이기 위해 손의 움직임과 함께 다른 신체 요소들의 움직임을 구조적으로 같이 기술할 수 있는 하이퍼 수화 문장을 제안한다. 개발된 시스템의 우수성을 보이기 위해 실제 청각 장애인을 대상으로 설문조사를 수행하여 시스템의 사용성을 평가하였다.