• 제목/요약/키워드: Visual speech recognition

검색결과 67건 처리시간 0.025초

신호등 인식 성능 향상을 위한 쿠버네티스 기반의 프레임워크: YOLOv5와 Visual Attention을 적용한 C-RNN의 융합 Vision AI 시스템 (Kubernetes-based Framework for Improving Traffic Light Recognition Performance: Convergence Vision AI System based on YOLOv5 and C-RNN with Visual Attention)

  • 조형서;이민정;한연지
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.851-853
    • /
    • 2022
  • 고령화로 인해 65세 이상 운전자가 급증하며 고령운전자의 교통사고 비율이 증가함에 따라 시급한 사회 문제로 떠오르고 있다. 이에 본 연구에서는 객체 검출, 인식 모델을 결합하고 신호등을 인식하여 Text-To-Speech(TTS)로 알리는 쿠버네티스 기반의 프레임워크를 제안한다. 객체 검출 단계에서는 YOLOv5 모델들의 성능을 비교하여 활용하였으며 객체 인식 단계에서는 C-RNN 기반의 attention-OCR 모델을 활용하였다. 이는 신호등의 내부 LED 영역이 아닌 이미지 전체를 인식하는 방식으로 오탐지 요소를 낮춰 인식률을 높였다. 결과적으로 1,628장의 테스트 데이터에서 accuracy 0.997, F1-score 0.991의 성능 평가를 얻어 제안한 프레임워크의 타당성을 입증하였다. 본 연구는 후속 연구에서 특정 도메인에 딥러닝 모델을 한정하지 않고 다양한 분야의 모델을 접목할 수 있도록 하며 고령 운전자 및 신호 위반으로 인한 교통사고 문제를 예방할 수 있다.

한국어 시각단어재인에서 의미 이웃크기 효과 (The Effect of Semantic Neighborhood Density in Korean Visual Word Recognition)

  • 권유안;남기춘
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2007년도 한국음성과학회 공동학술대회 발표논문집
    • /
    • pp.173-175
    • /
    • 2007
  • The lexical decision task (LDT) commonly postulates the activation of semantic level. However, there are few studies for the feedback effect from semantic level. The purpose of the present study is to investigate whether the feedback effect from semantic level is facilitatory or inhibitory in Korean LDT. In Experiment 1, we manipulated the number of phonological syllable neighbors (PSN) and the number of semantic neighbors (SEN) orthogonally while orthographic syllable neighbor (OSN) is dense. In the results, the significant facilitatory effect was shown in words with many SEN. In Experiment 2, we examined same conditions as Experiment 1 but OSN was sparse. Although the similar lexical decision latency pattern was shown, there was no statistical significance. These results can be explained by the feedback activation from semantic level. If a target has many SENs and many PSNs, it receives more feedback activation from semantic level than a target with few SENs and PSNs.

  • PDF

음성인식기능을 이용한 지도정보검색시스템을 위한 검색엔진의 성능 평가 (Performance Evaluation of Search Engine for Speech Recognition Based Map Information Retrieval System)

  • 김태수
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1998년도 제15회 음성통신 및 신호처리 워크샵(KSCSP 98 15권1호)
    • /
    • pp.39-42
    • /
    • 1998
  • 음성인식기능을 이용한 지도정보 검색 시스템의 실용화를 위하여 독자적인 지도검색 알고리즘을 구현하여 기존의 GIS 용 검색툴을 이용함으로서 소요되는 비용을 최저화하면서도 어느 정도의 검색속도를 유지할 수 있는 음성구동지도검색시스템 구현을 위해 개발한 검색엔진의 성능 평가 실험을 통하여 그 유효성을 확인하고자 한다. 지도정보 검색시스템은 크게 음성인식부, 지도검색부로 나눌 수 있으며, 음성인식부에서는 유한상태오토마타에 의한 구문 제어를 통하여 OPDP 법으로 대상 단어의 인식을 수행하고, 지도검색부에서는 기존의 시스템에 사용된 OLE 기법에 기저한 Mapinfo 툴을 이용하지 않고, Visual C++를 이용한 독자적인 알고리즘을 구성하여 지도자료를 읽어 들이도록 구성하였다. 평가결과, 사무실 환경하에서 지도검색용 68단어를 대상으로 실시한 on-line test에서 검색 대상 단어인식률은 98.02%를 얻었으며, 이 때 해당지도를 화면에 나타내는데 걸리는 시간은 평균 18.2초가 소요되었다.

  • PDF

한국어 단어재인에서 나타나는 이웃효과 (The neighborhood size and frequency effect in Korean words)

  • 권유안;조혜숙;남기춘
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2006년도 춘계 학술대회 발표논문집
    • /
    • pp.117-120
    • /
    • 2006
  • This paper examined two hypotheses. Firstly, if the first syllable of word play an important role in visual word recognition, it may be the unit of word neighbor. Secondly, if the first syllable is the unit of lexical access, the neighborhood size effect and the neighborhood frequency effect would appear in a lexical decision task and a form primed lexical decision task. We conducted two experiments. Experiment 1 showed that words had large neighbors made a inhibitory effect in the LDT(lexical decision task). Experiment 2 showed the interaction between the neighborhood frequency effectand the word form similarity in the form primed LDT. We concluded that the first syllable in Korean words might be the unit of word neighborhood and play a central role in a lexical access.

  • PDF

오디오-비디오 정보 융합을 통한 멀티 모달 음성 인식 시스템 (Audio-Visual Integration based Multi-modal Speech Recognition System)

  • 이상운;이연철;홍훈섭;윤보현;한문성
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 추계학술발표논문집 (상)
    • /
    • pp.707-710
    • /
    • 2002
  • 본 논문은 오디오와 비디오 정보의 융합을 통한 멀티 모달 음성 인식 시스템을 제안한다. 음성 특징 정보와 영상 정보 특징의 융합을 통하여 잡음이 많은 환경에서 효율적으로 사람의 음성을 인식하는 시스템을 제안한다. 음성 특징 정보는 멜 필터 캡스트럼 계수(Mel Frequency Cepstrum Coefficients: MFCC)를 사용하며, 영상 특징 정보는 주성분 분석을 통해 얻어진 특징 벡터를 사용한다. 또한, 영상 정보 자체의 인식률 향상을 위해 피부 색깔 모델과 얼굴의 형태 정보를 이용하여 얼굴 영역을 찾은 후 강력한 입술 영역 추출 방법을 통해 입술 영역을 검출한다. 음성-영상 융합은 변형된 시간 지연 신경 회로망을 사용하여 초기 융합을 통해 이루어진다. 실험을 통해 음성과 영상의 정보 융합이 음성 정보만을 사용한 것 보다 대략 5%-20%의 성능 향상을 보여주고 있다.

  • PDF

딥러닝 기반 사용자 친화형 키오스크 시스템 (An User-Friendly Kiosk System Based on Deep Learning)

  • 강수연;이유진;정현아;조승아;이형규
    • 한국산업정보학회논문지
    • /
    • 제29권1호
    • /
    • pp.1-13
    • /
    • 2024
  • 본 연구는 키오스크 사용 증가로 인한 변화에 대응하기 위해 사용자 특성을 고려한 맞춤형 동적 키오스크 화면을 제공하는 것을 목표로 한다. 디지털 취약계층인 시각장애인, 노인, 어린이, 휠체어 사용자 등의 특성에 따른 화면 구성의 최적화를 위해 객체 탐지, 걸음걸이 인식, 음성발화 인식기술을 종합하여 사용자의 특성(휠체어 사용 여부, 시각 장애, 연령 등)을 실시간으로 분석하고, 이를 기반으로 9개의 카테고리로 사용자를 분류한다. 키오스크 화면은 사용자의 특성에 따라 동적으로 조정되어 효율적인 서비스 제공이 가능하다. 본 연구는 임베디드 환경에서 시스템 통신 및 운용이 이루어졌으며, 사용된 객체 탐지, 걸음걸이 인식, 음성발화 인식 기술은 각각 74%, 98.9%, 96%의 정확도를 보여준다. 제안된 기술은 프로토타입을 구현하여 그 효용성을 검증하였으며, 이를 통해 본 연구가 디지털 격차의 축소와 사용자 친화적인 "배리어 프리 키오스크" 서비스 제공의 가능성을 보였다.

3차원 모델을 이용한 입모양 인식 알고리즘에 관한 연구 (A study on the lip shape recognition algorithm using 3-D Model)

  • 배철수
    • 한국정보통신학회논문지
    • /
    • 제3권1호
    • /
    • pp.59-68
    • /
    • 1999
  • 최근 통신 시스템의 연구와 발전 방향은 목소리의 음성 정보와 말하는 얼굴 영상의 화상 정보를 함께 적용하므로서 음성 정보만을 제공하는 경우보다 높은 인식율을 제공한다. 따라서 본 연구는 청각장애자들의 언어 대체수단 중 하나인 구화(speechreading)에서 가장 시각적 변별력이 높은 입모양 인식을 일반 퍼스널 컴퓨터상에서 구현하고자 한다. 본 논문은 기존의 방법과 달리 말하는 영상 시퀀스에서 입모양 인식을 행하기 위해 3차원 모델을 사용하여 입의 벌어진 정도, 턱의 움직임, 입술의 돌출과 같은 3차원 특징 정보를 제공하였다. 이와 같은 특징 정보를 얻기 위해 3차원 형상 모델을 입력 동영상에 정합시키고 정합된 3차원 형상 모델에서 각 특징점의 변화량을 인식파라미터로 사용하였다. 그리고, 인식단위로 동영상을 분리하는 방법은 3차원 특징점 변화량에서 얻어지는 강도의 기울기에 의하여 이루어지고, 인식은 각각의 3차원 특징벡터를 이산 HMM 인식기의 인식 파라메타로 사용하였다. 본 논문에서는 한국어 10개 모음에 대하여 인식실험하여 비교적 높은 인식율을 얻을 수 있는 것으로 보아 본 연구에서 사용한 특징 벡터를 시간적 변별 요소로서 사용할 수 있음을 제시하였다.

  • PDF

The Effect of Acoustic Correlates of Domain-initial Strengthening in Lexical Segmentation of English by Native Korean Listeners

  • Kim, Sa-Hyang;Cho, Tae-Hong
    • 말소리와 음성과학
    • /
    • 제2권3호
    • /
    • pp.115-124
    • /
    • 2010
  • The current study investigated the role of acoustic correlates of domain-initial strengthening in lexical segmentation of a non-native language. In a series of cross-modal identity-priming experiments, native Korean listeners heard English auditory stimuli and made lexical decision to visual targets (i.e., written words). The auditory stimuli contained critical two word sequences which created temporal lexical ambiguity (e.g., 'mill#company', with the competitor 'milk'). There was either an IP boundary or a word boundary between the two words in the critical sequences. The initial CV of the second word (e.g., [$k_{\Lambda}$] in 'company') was spliced from another token of the sequence in IP- or Wd-initial positions. The prime words were postboundary words (e.g., company) in Experiment 1, and preboundary words (e.g., mill) in Experiment 2. In both experiments, Korean listeners showed priming effects only in IP contexts, indicating that they can make use of IP boundary cues of English in lexical segmentation of English. The acoustic correlates of domain-initial strengthening were also exploited by Korean listeners, but significant effects were found only for the segmentation of postboundary words. The results therefore indicate that L2 listeners can make use of prosodically driven phonetic detail in lexical segmentation of L2, as long as the direction of those cues are similar in their L1 and L2. The exact use of the cues by Korean listeners was, however, different from that found with native English listeners in Cho, McQueen, and Cox (2007). The differential use of the prosodically driven phonetic cues by the native and non-native listeners are thus discussed.

  • PDF

Design of Smart Device Assistive Emergency WayFinder Using Vision Based Emergency Exit Sign Detection

  • 이민우;비나야감 마리아판;비투무키자 조셉;이정훈;조주필;차재상
    • 한국위성정보통신학회논문지
    • /
    • 제12권1호
    • /
    • pp.101-106
    • /
    • 2017
  • In this paper, we present Emergency exit signs are installed to provide escape routes or ways in buildings like shopping malls, hospitals, industry, and government complex, etc. and various other places for safety purpose to aid people to escape easily during emergency situations. In case of an emergency situation like smoke, fire, bad lightings and crowded stamped condition at emergency situations, it's difficult for people to recognize the emergency exit signs and emergency doors to exit from the emergency building areas. This paper propose an automatic emergency exit sing recognition to find exit direction using a smart device. The proposed approach aims to develop an computer vision based smart phone application to detect emergency exit signs using the smart device camera and guide the direction to escape in the visible and audible output format. In this research, a CAMShift object tracking approach is used to detect the emergency exit sign and the direction information extracted using template matching method. The direction information of the exit sign is stored in a text format and then using text-to-speech the text synthesized to audible acoustic signal. The synthesized acoustic signal render on smart device speaker as an escape guide information to the user. This research result is analyzed and concluded from the views of visual elements selecting, EXIT appearance design and EXIT's placement in the building, which is very valuable and can be commonly referred in wayfinder system.

딥 러닝을 이용한 시각장애인을 위한 실시간 버스 도착 알림 시스템 (A Real-time Bus Arrival Notification System for Visually Impaired Using Deep Learning )

  • 장세영;유인재;김석윤;김영모
    • 반도체디스플레이기술학회지
    • /
    • 제22권2호
    • /
    • pp.24-29
    • /
    • 2023
  • In this paper, we propose a real-time bus arrival notification system using deep learning to guarantee movement rights for the visually impaired. In modern society, by using location information of public transportation, users can quickly obtain information about public transportation and use public transportation easily. However, since the existing public transportation information system is a visual system, the visually impaired cannot use it. In Korea, various laws have been amended since the 'Act on the Promotion of Transportation for the Vulnerable' was enacted in June 2012 as the Act on the Movement Rights of the Blind, but the visually impaired are experiencing inconvenience in using public transportation. In particular, from the standpoint of the visually impaired, it is impossible to determine whether the bus is coming soon, is coming now, or has already arrived with the current system. In this paper, we use deep learning technology to learn bus numbers and identify upcoming bus numbers. Finally, we propose a method to notify the visually impaired by voice that the bus is coming by using TTS technology.

  • PDF