• 제목/요약/키워드: 시각 음성인식

검색결과 130건 처리시간 0.028초

시각장애인의 라이프 사이클을 지원하는 인공지능 웨어러블 플랫폼 (Artificial intelligence wearable platform that supports the life cycle of the visually impaired)

  • 박시웅;김정은;강현서;박형준
    • Journal of Platform Technology
    • /
    • 제8권4호
    • /
    • pp.20-28
    • /
    • 2020
  • 본 논문에서는 시각장애인의 라이프 사이클을 사전에 학습하여 시각장애인의 자립생활을 돕는 적정기술로 음성인식 기반 스마트 웨어러블 디바이스, 스마트 기기 및 웹 AI서버를 포함하는 음성, 사물 및 문자 인식 플랫폼을 제안하였다. 시각장애인용 웨어러블 기기는 착용편의성과 사물인식기능 효율을 높이기 위해 리버스 넥밴드 구조로 설계하여 제작하였으며, 웨어러블 기기에 부착된 고감도 소형 마이크와 스피커는 웨어러블 기기와 연동된 스마트기기의 앱으로 구성된 음성인식 인터페이스 기능을 지원하도록 구성하였다. 음성, 사물 및 광학문자 인식 서비스는 웹 AI 서버에서 오픈소스 및 구글 API를 활용하였고, 서비스 플랫폼의 음성, 사물 및 광학문자 인식 정밀도는 실험을 통하여 평균 90%이상 달성하였음을 확인하였다.

  • PDF

내장형 음성인식기를 위한 전용 하드웨어가속기 기술개발 동향 (Trends of Hardware Accelerator for the Embedded Speech Recognition)

  • 김주엽;김태중;이주현;엄낙웅
    • 전자통신동향분석
    • /
    • 제29권4호
    • /
    • pp.91-100
    • /
    • 2014
  • 사람의 말소리를 문자로 변환하여 기기의 제어명령으로 활용하는 것이 음성인식 기술이다. 음성인식에 대한 기술개발 요구는 수십 년 전부터 있어 왔고, 꾸준히 제품화되고 있는 분야라 하겠다. 제품으로의 상용화가 가능한 알고리즘 및 데이터 처리체계는 HMM(Hidden Markov Model)이라는 수학적 모델링으로 정형화되어 있으며, 대규모의 반복적 데이터 수집과 정교한 학습 데이터베이스의 구축이 음성인식기술의 핵심요소라는 것이 일반적인 시각이다. 이러한 이유로 인해, 대용량 음성인식 데이터베이스의 수집, 가공 등이 가능한 인프라를 갖춘 기관 및 업체들이 음성인식기술 시장을 점유할 수 있는 것이다. 그러나, 이러한 음성인식의 서비스 제공 체계는 사물인터넷 또는 웨어러블 디바이스 등으로 음성인식 사용자 인터페이스가 확대되고 통신 및 네트워크가 연결이 불가한 경우 그 한계를 보일 수 있다. 본고에서는 이러한 문제를 해결하기 위한 내장형 음성인식기의 하드웨어가속기 기술개발에 대한 내용과 국내외 현황을 살펴보기로 한다.

  • PDF

2층 구조의 입체 시각형 신경망 기반 음소인식 (Phoneme Recognition based on Two-Layered Stereo Vision Neural Network)

  • Kim, Sung-Ill;Kim, Nag-Cheol
    • 한국멀티미디어학회논문지
    • /
    • 제5권5호
    • /
    • pp.523-529
    • /
    • 2002
  • 본 연구는 입체 시각을 위한 신경망에 대한 연구 결과로서 인간의 음성을 인식하는데 적용된다. 입체 시각신경망(SVNN)에 기반한 음성인식에서, 먼저 입력된 음성 신호를 표준 모델과 비교함으로써 유사성이 얻어진다. 이 값들은 다이나믹한 처리 과정으로 주어지고 이웃한 신경소자들 사이에서 경쟁적이고 협력적인 처리를 거치게 된다. 이러한 다이나믹한 처리과정을 통해 단 하나의 가장 우수한 신경세포(winner neuron)만이 최후에 검출된다. 비교연구에서 2층 구조의 SVNN은 HMM 인식기보다 인식정확도 측면에서 7.7% 더 높았다. 평가 결과. SVNN은 기손리 HMM 인식기 성능을 능가하는 것으로 나타났다.

  • PDF

시각장애인을 위한 보행 안내 스마트 안경 플랫폼 설계 (Design of Smart Glasses Platform walking guide for the visually impaired)

  • 이재범;장종욱;장성진
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.320-322
    • /
    • 2021
  • 세계적으로 고령 인구가 증가함에 따라 시각장애인의 비율 역시 증가하고 있으며, 여전히 안전상에 문제, 안내정보 부족 등 시각장애인이 외부 활동을 하는 데에 있어서 많은 제약이 존재한다. 이를 해결하기 위해 광학 문자 인식(OCR) 기능이 탑재된 스마트 안경 등 스마트 기기에 관한 연구가 활발히 진행되고 있다. 본 논문에서는 전방에 장애물을 인식해 음성으로 정보를 알려주고, 목적지까지 길을 안내해주는 시스템을 제안한다. 딥러닝 객체 인식 모델인 Yolo를 이용하여 계단, 라바 콘과 같은 위험요소를 장애물로 인식하고 음성으로 정보를 전달해주며, 길 찾기 API와 음성인식, TTS 라이브러리를 사용하여 입력한 목적지까지 음성으로 길 안내를 해줌으로써 시각장애인의 외부 활동 범위가 확대되는 효과를 기대할 수 있다.

  • PDF

어텐션 기반 엔드투엔드 음성인식 시각화 분석 (Visual analysis of attention-based end-to-end speech recognition)

  • 임성민;구자현;김회린
    • 말소리와 음성과학
    • /
    • 제11권1호
    • /
    • pp.41-49
    • /
    • 2019
  • 전통적인 음성인식 모델은 주로 음향 모델과 언어 모델을 사용하여 구현된다. 이때 음향 모델을 학습시키기 위해서는 음성 데이터에 대한 정답 텍스트뿐만 아니라 음성인식에 사용되는 단어의 발음사전과 프레임 단위의 음소 정답 데이터가 필요하다. 이 때문에 모델을 훈련하기 위해서는 먼저 프레임 단위의 정답을 생성하는 등의 여러 과정이 필요하다. 그리고 음향 모델과 별도의 텍스트 데이터로 훈련한 언어 모델을 적용하여야 한다. 이러한 불편함을 해결하기 위하여 최근에는 하나의 통합 신경망 모델로 이루어진 종단간(end-to-end) 음성인식 모델이 연구되고 있다. 이 모델은 훈련에 여러 과정이 필요없고 모델의 구조를 이해하기 쉽다는 장점이 있다. 하지만 인식이 내부적으로 어떤 과정을 거쳐 이루어지는지 알기 어렵다는 문제가 있다. 본 논문에서는 어텐션 기반 종단간 모델을 시각화 분석하여 내부적인 작동 원리를 이해하고자 하였다. 이를 위하여 BLSTM-HMM 하이브리드 음성인식 모델의 음향 모델과 종단간 음성인식 모델의 인코더를 비교하고, 신경망 레이어 별로 어떠한 차이가 있는지 분석하기 위해 t-SNE를 사용하여 시각화하였다. 그 결과로 음향모델과 종단간 모델 인코더의 차이점을 알 수 있었다. 또한 종단간 음성인식 모델의 디코더의 역할을 언어모델 관점에서 분석하고, 종단간 모델 디코더의 개선이 성능 향상을 위해 필수적임을 알 수 있었다.

웹 기반의 VoiceXML 문서 인터프리터의 설계 (The design of VoiceXML Interpreter based on the Web)

  • 이선남;김경아;이기호
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (1)
    • /
    • pp.355-357
    • /
    • 2001
  • VoiceXML은 음성인식 및 음성합성과 음성처리기술을 이용하여, 시각에 의존하는 기존의 웹을 벗어나 음성 및 시각을 모두 활용할 수 있는 새로운 정보 서비스 패러다임으로 제시되어지고 있다. VoiceXML을 이용한 음성정보서비스를 제공할 경우, 마크업 언어형태로 작성된 시나리오를 인터프리터를 통해 서비스하기 때문에 시나리오 변경 요구시 재프로그램해야 하는 기존 음성정보서비스 시스템의 문제점을 쉽게 개선할 뿐만 아니라, 음성정보서비스의 개발자가 음성인식.음성합성과 같은 기술적인 문제와는 독립적으로 시나리오를 작성할 수 있다는 이점이 있다. 본 논문에서는 W3C Voice Browser Working Group에서 제안하는 문법표현.시스템구조.다이얼로그 모델 등을 지원하는 XML 기반 대화형 마크업 언어인 VoiceXML 문서의 인터프리터를 설계하고자 한다.

  • PDF

청각장애인을 위한 사운드-시각화 및 재난 경보 웨어러블 시스템 (Wearable system for sound visualization and disaster alarm for the Hearing-Impaired)

  • 이세훈;공진용;염대훈;강은호;백영태
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2017년도 제56차 하계학술대회논문집 25권2호
    • /
    • pp.257-258
    • /
    • 2017
  • 본 논문에서는 청각 장애인들은 시각에 의존하지 않고는 소리를 인지할 수 없다는 문제를 해결하기 위해 사운드를 시각화하는 웨어러블 시스템을 구현하였다. 시스템의 음성 인식 센서가 음성을 인식해 웨어러블 디스플레이에 전송된 메시지를 확인하고, 기상 재난 메시지를 웨어러블에서 실시간으로 확인하여 안전사고를 예방할 수 있게 하여 청각장애인의 어려움을 해결하였다.

  • PDF

시각장애인용 웹사이트 자동생성 툴 개발 (Development of Automatic Creating Web-Site Tool for the Blind)

  • 백현기;하태현
    • 디지털콘텐츠학회 논문지
    • /
    • 제8권4호
    • /
    • pp.467-474
    • /
    • 2007
  • 본 연구는 시각장애인을 위해 음성 인식, 음성 합성 기술을 이용하여 일반인과 마찬가지로 개인의 특성에 맞는 홈페이지를 구축하게 하는 웹 사이트 자동 생성 툴을 개발 하였다. 이 연구에서 개발한 툴을 이용하여 시각 장애인은 개인 맞춤 정보 생성 기능과 관리기능을 통해 일반인과 의사소통을 원활하게 할 수 있다. 또한 이 툴은 기본적인 명령어를 음성인식으로 처리할 수 있게 지원하며, 음성출력이 지원되는 TTS등을 추가적으로 제공한다. 따라서 본 연구개발의 결과물은 시각장애인들이 사회적 소외감을 없애며, 정보화 시대에 동등한 위치에서 생활 할 수 있도록 하는데 중요한 역할을 할 것이다.

  • PDF

한국어 음성 웹브라우저 설계 및 구현 (Design and Implementation of Korean Voice Web Browser)

  • 장영건;조경환
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제7권5호
    • /
    • pp.458-466
    • /
    • 2001
  • 본 논문은 HTML을 분석하여 추출된 내용을 음성으로 변환시키고, 웹 브라우저 제어 및 웹문서의 내용 지정을 위하여 음성인식을 사용하는 음성 웹 부라우저의 설계와 구현에 관한 것이다. 이 시스템의 특징은 보편적 설계기법을 사용하여 정상인과 시각장애인을 모두 고려하여 설계되었으며, 특히 시각장애인 인터페이스를 위하여 웹 문서의 구조를 쉽게 인식할 수 있는 트리 구조를 도입하였고, 웹 브라우저 상에 태그로 표현된 모든 요소를 추출하고, 각 요소에 따라 출력음성의 속성을 다르게 하여 별도의 요소 안내음성 출력이 없이 요소 특성을 인지할 수 있게 하였다. 이 방식은 음성 특징을 세부적으로 표현할 수 있는 청각 스타일 시트의 사용을 배제한 것으로써 웹 문서 작성자가 특별한 추가적 노력 없이, 사용자가 문서내의 구조와 요소들의 특징을 쉽게 인식할 수 있는 장점이 있다.

  • PDF

실시간 음성인식 및 립싱크 구현에 관한 연구 (A Study on the Implementation of Realtime Phonetic Recognition and LIP-synchronization)

  • 이형호;최두일;조우연
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2000년도 추계학술대회 논문집 학회본부 D
    • /
    • pp.812-814
    • /
    • 2000
  • 본 논문에서는 실시간 음성 인식에 의한 립싱크(Lip-synchronization) 애니메이션 제공 방법에 관한 것으로서, 소정의 음성정보를 인식하여 이 음성 정보에 부합되도록 애니메이션의 입모양을 변화시켜 음성정보를 시각적으로 전달하도록 하는 립싱크 방법에 대한 연구이다. 인간의 실제 발음 모습에 보다 유사한 립싱크와 생동감 있는 캐릭터의 얼굴 형태를 실시간으로 표현할 수 있도록 마이크 등의 입력을 받고 신경망을 이용하여 실시간으로 음성을 인식하고 인식된 결과에 따라 2차원 애니메이션을 모핑 하도록 모델을 상고 있다.

  • PDF