• 제목/요약/키워드: 시각 음성인식

검색결과 130건 처리시간 0.026초

시각장애인을 위한 내비게이션 App과 촉각을 이용한 방향 안내 지팡이 (Navigation App for the Blind and Tactile guide stick)

  • 한효병;이기혁;박근준;범효원;김웅섭;성지애
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 추계학술발표대회
    • /
    • pp.327-330
    • /
    • 2018
  • 우리는 본 연구를 통해 모바일을 통해 음성으로 목적지를 설정하고 사용자의 위치 정보를 바탕으로 경로 상의 다음 노드 방향을 효과적으로 계산하는 시스템을 설계하였다. 우리가 설계한 시스템은 손잡이에 달린 모터가 예상 경로방향을 가리키고 사용자는 모터 방향을 손가락의 촉각을 통해 인식함으로써 방향을 예측한다.

위치 기반 교통 신호 안내 시스템의 사용자 인터페이스 설계 (The Design of User Interface for Location Based Traffic Guide Signal System)

  • 고기남;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2011년도 추계학술발표대회
    • /
    • pp.1111-1112
    • /
    • 2011
  • 본 연구는 최근 널리 보급된 스마트 모바일 단말의 제한된 디스플레이에서 사용자에게 짧은 시간에 효율적으로 핵심 정보를 제공함으로써 사용자 편의성을 향상 시킬 수 있는 사용자 인터페이스(User Interface, UI)를 연구하기 위해 사용자 위치 기반 교통 신호 안내 시스템(Location Based Traffic Signal Guide System, LBTGS) 의 UI 설계에 관한 연구이다. 시각 정보와 음성 정보를 활용하여 짧은 시간에 사용자가 전방 교통 신호 정보를 인지하도록 하여 안전한 도로 운행에 반영할 수 있는 UI 를 효과적으로 설계함으로써 신호 위반으로 인한 교통 사고의 발생을 감소시킬 수 있다. 또한 보다 직관적으로 짧은 시간에 인식할 수 있는 UI 를 설계하여 스마트 모바일 단말의 제한된 디스플레이에서 향상된 사용자 경험을 제공할 수 있을 것으로 기대한다.

시각장애인을 위한 점자 교육 시스템 (OnDot: Braille Training System for the Blind)

  • 김학진;문준혁;송민욱;이세민;공기석
    • 한국인터넷방송통신학회논문지
    • /
    • 제20권6호
    • /
    • pp.41-50
    • /
    • 2020
  • 본 논문에서는 기존의 점자 학습 제품의 단점들을 보완한 점자 교육 시스템을 다룬다. 시각장애인 전용 어플리케이션은 사용자 편의성을 위해 터치 제스처 및 음성 안내를 통하여 전체 기능을 수행할 수 있도록 구성한다. 점자키트는 아두이노와 3D 프린팅을 통해 교육 목적에 맞게 제작한다. 시스템은 다음과 같은 기능들을 지원한다. 첫 째, 초성·종성·모음·약어 등 기초적인 점자의 학습. 둘 째, 단계별 퀴즈를 풀어 학습한 점자를 확인하는 기능. 셋 째, 모르는 점자가 있을 때 번역하는 기능이다. 실험을 통한 터치 제스처의 인식률과 점자 표현의 정확도를 확인하였고 번역의 경우 의도한대로 번역이 되는 것을 확인하였다. 이 시스템을 통해 시각장애인이 효율적으로 점자를 학습할 수 있다.

필기 입력데이터에 대한 언어식별 시스템의 설계 및 구현 (Design and Implementation of a Language Identification System for Handwriting Input Data)

  • 임채균;김규호;이기영
    • 한국인터넷방송통신학회논문지
    • /
    • 제10권1호
    • /
    • pp.63-68
    • /
    • 2010
  • 최근, 유비쿼터스 시대로의 도약을 위하여 모바일 기기의 입력 인터페이스에 대한 연구가 활발하게 진행되고 있으며, 기존의 마우스, 키보드뿐만 아니라 필기, 음성, 시각, 터치와 같이 다분야로 세분화되어 새로운 인터페이스가 연구되고 있다. 특히 소형 모바일 기기에서는 크기로 인하여 추가가능한 장치의 제약이 심하기 때문에, 작은 화면에서도 효율적인 입력 인터페이스로 필기 인식이 대두되고 있다. 필기 인식에 대한 이전 연구는 2차원 영상을 기반으로 하거나 벡터로 입력받은 필기데이터를 인식하는 알고리즘이 대부분이며, 필기 인식 알고리즘의 정확성을 향상시키는 연구에만 초점을 두고 있는 실정이다. 또한 실제 필기 입력하는 경우에는 현재 문자가 영문 대/소문자, 한글, 숫자 등의 어느 분류에 속하는지 선택해야하는 문제가 있다. 따라서 본 논문에서는 입력된 필기 데이터를 기반으로 형상 분석을 통하여, 영문이나 한글의 여부를 판단하고 언어식별이 가능한 시스템을 제안하였다. 제안 기법은 벡터 단위의 집합으로 필기 데이터를 취급하여 각 벡터 간의 상호관계와 방향성을 분석함으로써 효율적인 언어식별을 가능하도록 하였다.

모바일 이미지 기반의 문자인식 시스템 (The Character Recognition System of Mobile Camera Based Image)

  • 박영현;이형진;백중환
    • 한국산학기술학회논문지
    • /
    • 제11권5호
    • /
    • pp.1677-1684
    • /
    • 2010
  • 최근 모마일 폰의 발달과 스마트 폰의 보급으로 인해서 많은 콘텐츠들이 개발되어지고 있다. 특히, 모바일 휴대장치에 소형 카메라가 탑재되면서부터 카메라로부터 입력되어지는 영상 기반 콘텐츠 개발은 사람들의 흥미뿐만 아니라 활용 면에서도 중요한 부분을 차지하고 있다. 그중 문자인식 시스템은 시각 장애인 보행 보조 시스템, 로봇 자동 주행 시스템, 비디오 자동 검색 및 색인 시스템, 텍스트 자동 번역 시스템 등과 같은 활용영역에서 매우 광범위하게 쓰일 수 있다. 따라서 본 논문에서는 스마트 폰 카메라로 입력되는 자연 영상에 포함되어 있는 텍스트를 추출 및 인식하고 음성으로 출력해주는 시스템을 제안하였다. 텍스트 영역을 추출하기 위해 Adaboost 알고리즘을 이용하고 추출된 개별 텍스트 후보영역의 문자 인식에는 오류 역전파 신경망을 이용하였다.

상호텍스트성을 활용한 디지털 자화상 창작 (A Study on the Creation of Digital Self-portrait with Intertextuality)

  • 임수연
    • 문화기술의 융합
    • /
    • 제8권1호
    • /
    • pp.427-434
    • /
    • 2022
  • 본 연구의 목적은 관람자에게 자아 인식의 문제에 천착하게 하는 몰입의 경험을 제공하는 자화상을 창작하는 것이다. 우리는 관람자로부터 획득한 음성과 이미지 정보를 활용하여 인터랙티브 자화상을 구현하는 방안을 제시한다. 관람자의 음성 정보는 텍스트로 변환되어 시각화되는데, 텍스트 시각화를 위한 픽셀 정보로 관람자의 얼굴 이미지가 활용된다. 텍스트는 개인의 경험과 기억을 바탕으로 자신만의 감성, 상상, 의도 등이 다양하게 혼합되어 있는 결과물이다. 사람들은 각자 다른 방식으로 특정 텍스트에 대한 상이한 해석력을 발휘한다. 제안한 디지털 자화상은 텍스트가 가진 상호텍스트성을 활용하여 내적인 면에서 관람자의 자의식을 재현할 뿐 아니라 텍스트에 내재된 의미들을 확장한다. 넓은 의미에서의 상호텍스트성은 텍스트와 텍스트, 주체와 주체 사이에서 일어나는 모든 지식의 총체를 가리킨다. 따라서 텍스트로 표현된 자화상은 관객과 텍스트, 관객과 관객, 텍스트와 텍스트 사이에서 다양한 관계를 파생시키며 확장해간다. 또한 본 연구는 제안한 자화상이 외적인 면에서도 텍스트가 가진 조형성을 확인하고 시공간성을 재창조할 수 있다는 것을 보여준다. 이 동적 자화상은 실시간으로 관람자들의 관심사를 반영하고 갱신되며 창작되는 특성을 지닌다.

청각적, 시각적 자극제시 방법과 음절위치에 따른 일반아동의 음운인식 능력 (Phonological awareness skills in terms of visual and auditory stimulus and syllable position in typically developing children)

  • 최유미;하승희
    • 말소리와 음성과학
    • /
    • 제9권4호
    • /
    • pp.123-128
    • /
    • 2017
  • This study aims to compare the performance of syllable identification task according to auditory and visual stimuli presentation methods and syllable position. Twenty-two typically developing children (age 4-6) participated in the study. Three-syllable words were used to identify the first syllable and the final syllable in each word with auditory and visual stimuli. For the auditory stimuli presentation, the researcher presented the test word only with oral speech. For the visual stimuli presentation, the test words were presented as a picture, and asked each child to choose appropriate pictures for the task. The results showed that when tasks were presented visually, the performances of phonological awareness were significantly higher than in presenting with auditory stimuli. Also, the performances of the first syllable identification were significantly higher than those of the last syllable identification. When phonological awareness task are presented by auditory stimuli, it is necessary to go through all the steps of the speech production process. Therefore, the phonological awareness performance by auditory stimuli may be low due to the weakness of the other stages in the speech production process. When phonological awareness tasks are presented using visual picture stimuli, it can be performed directly at the phonological representation stage without going through the peripheral auditory processing, phonological recognition, and motor programming. This study suggests that phonological awareness skills can be different depending on the methods of stimulus presentation and syllable position of the tasks. The comparison of performances between visual and auditory stimulus tasks will help identify where children may show weakness and vulnerability in speech production process.

청각적 말소리 자극과 시각적 글자 자극 제시방법에 따른 5, 6세 일반아동의 음소인식 수행력 비교 (Effects of auditory and visual presentation on phonemic awareness in 5- to 6- year-old children)

  • 김명헌;하지완
    • 말소리와 음성과학
    • /
    • 제8권1호
    • /
    • pp.71-80
    • /
    • 2016
  • The phonemic awareness tasks (phonemic synthesis, phonemic elision, phonemic segmentation) by auditory presentation and visual presentation were conducted to 40 children who are 5 and 6 years old. The scores and error types in the sub-tasks by two presentations were compared to each other. Also, the correlation between the performances of phonemic awareness sub-tasks in two presentation conditions were examined. As a result, 6-year-old group showed significantly higher phonemic awareness scores than 5-year-old group. Both group showed significantly higher scores in visual presentation than auditory presentation. While the performance under the visual presentation was significantly lower especially in the segmentation than the other two tasks, there was no significant difference among sub-tasks under the auditory presentation. 5-year-old group showed significantly more 'no response' errors than 6-year-old group and 6-year-old group showed significantly more 'phoneme substitution' and 'phoneme omission' errors than 5-year-old group. Significantly more 'phoneme omission' errors were observed in the segmentation than the elision task, and significantly more 'phoneme addition' errors were observed in elision than the synthesis task. Lastly, there are positive correlations in auditory and visual synthesis tasks, auditory and visual elision tasks, and auditory and visual segmentation tasks. Summarizing the results, children tend to depend on orthographic knowledge when acquiring the initial phonemic awareness. Therefore, the result of this research would support the position that the orthographic knowledge affects the improvement of phonemic awareness.

특허데이터 기반 한국의 인공지능 경쟁력 분석 : 특허지표 및 토픽모델링을 중심으로 (Analysis of Korea's Artificial Intelligence Competitiveness Based on Patent Data: Focusing on Patent Index and Topic Modeling)

  • 이현상;차오신;신선영;김규리;오세환
    • 정보화정책
    • /
    • 제29권4호
    • /
    • pp.43-66
    • /
    • 2022
  • 인공지능 기술의 발전과 더불어 세계 각국의 인공지능 기술 특허를 둘러싼 경쟁도 치열해지고 있다. 2000년~2021년간 미국 특허청의 인공지능 기술 특허출원은 꾸준히 증가하고 있는 가운데 2010년대 들어 보다 가파른 성장세를 기록하고 있다. 특허지표를 통해 한국의 인공지능 기술경쟁력을 분석한 결과, 청각지능, 시각지능 등의 세부 분야에서 특허활동성, 영향력, 시장성 등이 우위에 있는 것으로 평가된다. 그러나, 주요국과 비교하여 한국의 인공지능 기술 특허는 양적 활동성, 시장성 확보 측면에서는 상대적으로 우수하나 기술 파급력은 다소 열위에 있는 것으로 나타난다. 최근 인공지능 기술 토픽으로 노이즈 캔슬링, 음성인식 등은 감소한 반면 모델학습 최적화, 스마트센서, 자율주행 등이 활성화되면서 성장이 기대되고 있다. 한국의 경우 사기탐지/보안, 의료 비전러닝 등의 분야에서 특허출원 성과가 다소 부족하여 분발이 요구된다.

경계 값과 pre-fetching을 이용한 적합성 피드백 기법 (A Relevance Feedback Method Using Threshold Value and Pre-Fetching)

  • 박민수;황병연
    • 한국멀티미디어학회논문지
    • /
    • 제7권9호
    • /
    • pp.1312-1320
    • /
    • 2004
  • 최근 다양한 시각적 특징 표현들이 연구되고 많은 시스템들이 만들어졌음에도 불구하고 기존의 내용기반 영상 검색 접근 방식들은 유음성에서 한계가 있었다. 특히 사용자의 고 수준개념들과 시스템의 저 수준 특징 사이의 차이와 시각적 내용에 대한 인간의 유사성 인식의 주관성이 배제되는 한계를 지니고 있었다. 따라서 영상정보의 정확한 데이터 전달과 이를 효율적으로 검색하기 위한 방법이 요구된다. 적합성 피드백은 멀티미디어 검색에 있어 사용자가 요구하는 정보를 반영할 수 있어 영상의 검색 효율을 높일 수 있다. 본 논문에서는 기존의 적합성 피드백 기법의 성능을 향상시키기 위해 경계 값과 pre-fetching을 이용하여 긍정적 피드백과 부정적 피드백을 혼합한 개선된 영상 검색 기법을 제안한다. 또한, 제안된 피드백 기법을 이용하여 기존의 검색시스템을 보다 발전시킨 영상 검색 시스템을 구현한다.

  • PDF