• 제목/요약/키워드: Sound recognition

검색결과 311건 처리시간 0.032초

한글 수화용 동적 손 제스처의 실시간 인식 시스템의 구현에 관한 연구 (On-line dynamic hand gesture recognition system for the korean sign language (KSL))

  • 김종성;이찬수;장원;변증남
    • 전자공학회논문지C
    • /
    • 제34C권2호
    • /
    • pp.61-70
    • /
    • 1997
  • Human-hand gestures have been used a means of communication among people for a long time, being interpreted as streams of tokens for a language. The signed language is a method of communication for hearing impaired person. Articulated gestures and postures of hands and fingers are commonly used for the signed language. This paper presents a system which recognizes the korean sign language (KSL) and translates the recognition results into a normal korean text and sound. A pair of data-gloves are used a sthe sensing device for detecting motions of hands and fingers. In this paper, we propose a dynamic gesture recognition mehtod by employing a fuzzy feature analysis method for efficient classification of hand motions, and applying a fuzzy min-max neural network to on-line pattern recognition.

  • PDF

퍼지를 이용한 인간형 능동 청각 시스템 (Humanoid Active Audition System Using the Fuzzy Logic System)

  • 김현돈;최종석;이창훈;박귀태;김문상
    • 제어로봇시스템학회논문지
    • /
    • 제9권5호
    • /
    • pp.390-397
    • /
    • 2003
  • We propose a humanoid active audition system which detects the direction of sound using just three microphones. Compared with previous researches, this system which has a simpler algorithm and less microphone shows better performance. Moreover, it uses the fuzzy logic system to remove the reflective sound and makes the resultant improvement of confidence. In order to verify our system's performance, we install the proposed active audition system to the home service robot, called hombot II, which has been developed at the KIST(Korea Institute of Science and Technology), and confirm its excellent performance through the experiment.

AMDF를 이용한 Digital Sonar 의 반사신호처리에 관한 연구 (On the reflected signal processing of Digital Sonar using the AMDF)

  • 홍우영
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1984년도 추계학술발표회 논문집
    • /
    • pp.91-95
    • /
    • 1984
  • Because of layer and scattering in the ocean, there are some problem in algorithm currently used for the recognition of targets. Those are time delay of processing and circuit design. The simple method of detecting direct sound wave in noise caused by time delay is proposed-recognized, estimated, and then direcxt sound wave is reconstructed by the AMDF and $\mu$-processor. 2KHz, 4KHz, 8KHz, 12KHz, 16KHz sound waves are used in experiment. To obtain a reference signal, anechoic water tank is used is processing and aluminium water tank used instead of real ocean. As a result, there are a few errors which caused by anechoic water tank error, decreasing of frequency make errors. Possibility of application to Sonar Signal Processing is proved.

  • PDF

음향인식기술을 활용한 자동차 인식 조명제어 가로등 개발 (A development of Automotive recognition streetlight lighting control with sound recognition technology)

  • 최원철;우중재
    • 한국산학기술학회논문지
    • /
    • 제16권3호
    • /
    • pp.2135-2140
    • /
    • 2015
  • 본 논문에서는 기존 가로등의 소비 전력을 줄이고 자동차의 유무에 따라 지능적으로 조명을 제어하는 효율적인 새로운 조명제어 시스템을 제안한다. 제안된 새로운 조명제어 시스템은 자동차가 이동할 때 발생하는 음향을 수집하고 분석하여 자동차의 유무를 판별한다. 그리고 자동차 감지 정보를 통해 가로등의 조명을 제어하고 다음 가로등에 자동차 감지 정보를 전송하여 순차적으로 가로등을 점등한다. 실험결과, 자동차의 유무에 따라 조명을 제어하고 자동차의 이동방향을 판별하여 순차적으로 가로등이 점등하는 동작을 확인하였다. 이와 같은 시스템은 자동차의 이동이 적은 지방도로나 국도에서 비효율적으로 항시 점등되어 있는 가로등에 적용하여 에너지를 절감할 수 있는 기술로 판단된다.

인공신경망을 이용한 DWT 전력스펙트럼 밀도 기반 자동화 기계 고장 진단 기법 (Fault Diagnosis Method for Automatic Machine Using Artificial Neutral Network Based on DWT Power Spectral Density)

  • 강경원
    • 융합신호처리학회논문지
    • /
    • 제20권2호
    • /
    • pp.78-83
    • /
    • 2019
  • 소리 기반 기계 고장 진단은 기계의 음향 방출 신호에서 비정상적인 소리를 자동으로 감지하는 것이다. 수학적 모델을 사용하는 기존의 방법은 기계 시스템의 복잡성과 잡음과 같은 비선형 요인이 존재하기 때문에 기계 고장 진단이 어려웠다. 따라서 기계 고장 진단의 문제를 패턴 인식 문제로 해결하고자 한다. 본 논문에서 DWT와 인공신경망 기반 패턴 인식 기법을 이용한 자동화 기계 고장 진단 기법을 제안한다. 기계의 결함을 효과적으로 탐지하기 위해 DWT를 이용해 대역별 분해 후 최상위 고주파 부대역과 최하위 저주파 부대역을 제외한 나머지 부대역의 PSD를 구하여 인공신경망 기반 분류기의 입력으로 사용한다. 그 결과 본 연구에서 제안한 방법은 효과적으로 결함을 탐지할 뿐만 아니라 소리 기반의 다양한 자동 진단 시스템에도 효과적으로 활용될 수 있음을 보여준다.

유사 음소 모델 스키마 지원을 위한 결정 트리 (Decision Tree for Likely phoneme model schema support)

  • 오상엽
    • 디지털융복합연구
    • /
    • 제11권10호
    • /
    • pp.367-372
    • /
    • 2013
  • 어휘 인식 시스템에서는 훈련 중에 적용되지 않는 음소에 대한 문제점으로 인해 시스템에 저장된 모델을 재생성해야 하고 그에 따른 시간과 추가 비용이 초래된다. 본 논문에서는 결정 트리 군집화 방법을 사용하여 유사 음소 모델을 관리하는 방법을 제안하였다. 제안한 방법은 생성된 모델들로부터 결정트리 군집화 방법을 적용하여 군집화된 모델에서 음소 단위로 확률 모델을 탐색할 수 있는 시스템을 모델링하여 모델의 재생성 과정을 줄이고 강인하고 정확한 음향 모델을 제공한다. 또한, 제안된 시스템의 사용으로 시스템에서 기존에 생성되어진 음향 모델에 추가적으로 유사 음소 모델을 생성하여 제공하므로 음성 인식에 강인한 음향 모델을 구성한다. 본 연구에서 제안된 방법으로 실내 환경에 대하여 어휘 종속 인식과 어휘 독립 인식 실험을 수행한 결과 실내 환경의 어휘 종속 실험에서는 98.3%의 인식 성능을 보였고, 어휘 독립 실험에서 98.4%의 인식 성능을 보였다.

사각영역이 없는 전방향 음원인식을 위한 QRAS 기반의 알고리즘 (QRAS-based Algorithm for Omnidirectional Sound Source Determination Without Blind Spots)

  • 김영언;박구만
    • 방송공학회논문지
    • /
    • 제27권1호
    • /
    • pp.91-103
    • /
    • 2022
  • 음원의 음량, 방향 및 음원까지의 거리와 같은 음원의 특성을 인식하는 것은 자율주행차, 로봇 시스템, AI 스피커 등 무인 시스템에서 중요한 기술 중의 하나이다. 음원의 방향이나 거리를 인식하는 방법은 레이다, 라이더, 초음파 및 고주파와 소리를 이용하는 방법이 있다. 그러나 이러한 방법은 신호를 발신하여야 하며, 장애물에 의한 비가시 영역에서 발생하는 음원은 정확하게 인식할 수 없다. 본 논문에서는 비가시 영역을 포함한 주변에서 발생하는 음원의 음량, 방향 및 음원까지의 거리를 인식하는 방법으로 가청 주파수 대역의 소리를 검출하여 인식하는 방법을 구현하고 평가하였다. 음원을 인식하기 위하여 주로 사용하는 교차형 기반의 음원인식 알고리즘은 음원의 음량과 방향을 인식할 수 있으나 사각영역이 발생하는 문제가 있다. 뿐만아니라 이 알고리즘은 음원까지의 거리를 인식할 수 없다는 제약이 있다. 이러한 기존 방법의 한계를 탈피하기 위하여, 본 논문에서는 교차형 기반의 알고리즘보다 더 발전된 직사각형 기법을 사용한 QRAS 기반의 알고리즘으로 음원의 음량, 방향 및 음원까지의 거리를 인식하여 음원의 특성을 파악할 수 있는 음원인식 알고리즘을 제안한다. 전방향 음원인식을 위한 QRAS 기반의 알고리즘은 직사각형으로 배치된 4개의 음향센서에 의하여 도출되는 6쌍의 음향 도착 시간차를 사용한다. QRAS 기반의 알고리즘은 기존 교차형 기반의 알고리즘으로 음원을 인식할 때 발생하는 사각영역과 같은 문제점을 해결할 수 있으며, 음원까지의 거리도 인식할 수 있다. 실험을 통하여 제안된 전방향 음원 인식을 위한 QRAS 기반의 알고리즘은 사각영역없이 음원의 음량, 방향 및 음원까지의 거리를 인식할 수 있음을 확인하였다.

시각장애인을 위한 딥러닝 기반 음료수 캔 인식 시스템 (A Beverage Can Recognition System Based on Deep Learning for the Visually Impaired)

  • 이찬비;심수현;김선희
    • 디지털산업정보학회논문지
    • /
    • 제19권1호
    • /
    • pp.119-127
    • /
    • 2023
  • Recently, deep learning has been used in the development of various institutional devices and services to help the visually impaired people in their daily lives. This is because not only are there few products and facility guides written in braille, but less than 10% of the visually impaired can use braille. In this paper, we propose a system that recognizes beverage cans in real time and outputs the beverage can name with sound for the convenience of the visually impaired. Five commercially available beverage cans were selected, and a CNN model and a YOLO model were designed to recognize the beverage cans. After augmenting the image data, model training was performed. The accuracy of the proposed CNN model and YOLO model is 91.2% and 90.8%, respectively. For practical verification, a system was built by attaching a camera and speaker to a Raspberry Pi. In the system, the YOLO model was applied. It was confirmed that beverage cans were recognized and output as sound in real time in various environments.

Japanese Vowel Sound Classification Using Fuzzy Inference System

  • Phitakwinai, Suwannee;Sawada, Hideyuki;Auephanwiriyakul, Sansanee;Theera-Umpon, Nipon
    • 한국융합학회논문지
    • /
    • 제5권1호
    • /
    • pp.35-41
    • /
    • 2014
  • An automatic speech recognition system is one of the popular research problems. There are many research groups working in this field for different language including Japanese. Japanese vowel recognition is one of important parts in the Japanese speech recognition system. The vowel classification system with the Mamdani fuzzy inference system was developed in this research. We tested our system on the blind test data set collected from one male native Japanese speaker and four male non-native Japanese speakers. All subjects in the blind test data set were not the same subjects in the training data set. We found out that the classification rate from the training data set is 95.0 %. In the speaker-independent experiments, the classification rate from the native speaker is around 70.0 %, whereas that from the non-native speakers is around 80.5 %.

TMS320C2000계열 DSP를 이용한 단일칩 음성인식기 구현 (Implementation of a Single-chip Speech Recognizer Using the TMS320C2000 DSPs)

  • 정익주
    • 음성과학
    • /
    • 제14권4호
    • /
    • pp.157-167
    • /
    • 2007
  • In this paper, we implemented a single-chip speech recognizer using the TMS320C2000 DSPs. For this implementation, we had developed very small-sized speaker-dependent recognition engine based on dynamic time warping, which is especially suited for embedded systems where the system resources are severely limited. We carried out some optimizations including speed optimization by programming time-critical functions in assembly language, and code size optimization and effective memory allocation. For the TMS320F2801 DSP which has 12Kbyte SRAM and 32Kbyte flash ROM, the recognizer developed can recognize 10 commands. For the TMS320F2808 DSP which has 36Kbyte SRAM and 128Kbyte flash ROM, it has additional capability of outputting the speech sound corresponding to the recognition result. The speech sounds for response, which are captured when the user trains commands, are encoded using ADPCM and saved on flash ROM. The single-chip recognizer needs few parts except for a DSP itself and an OP amp for amplifying microphone output and anti-aliasing. Therefore, this recognizer may play a similar role to dedicated speech recognition chips.

  • PDF