• Title/Summary/Keyword: 음성 명령

Search Result 111, Processing Time 0.024 seconds

Automatic Recognition of Sentence-final Intonatio Patterns for Korean Predicates (한국어 서술어의 문장만 위치에서의 억양패턴에 대한 자동인식)

  • 이기영
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1995.06a
    • /
    • pp.131-134
    • /
    • 1995
  • 최근, 문장단위의 음성을 인식할 수 있는 시스템을 개발하는 단계에 접어들면서 자발적인 발성음성의 인식 또는 음성언어 이해의 차원을 위한 시스템의 개발을 위해 운율특징을 이용하는 연구가 요구되고 있으나, 지금까지 개발되어온 음성이식시스템은 주로 독립단어의 인식수준에 머물고있기 때문에 운율을 이용하고자 하는 연구가 상대적으로 미흡한 수준에 있다. 본 연구에서? 나국어의 중의성 문장에서 서술어 부분을 세그멘트하고 이 부분의 억양패턴을 자동인식하여 중의성 문장이 서술형, 의문형, 명령형, 권유형인지를 파악하므로써 인식시스템에서 억양패턴을 이용할 수 있는 가능성을 제시하였으며, 서술형 문장음서으이 서술어 부분의 억양변황에 의해 의문형, 명령형, 권유형 무장으로 변환시키므로써 서술어 부분의 억양패턴에 따라 문장의 형태가 구분될 수 있음을 확인하였다.

  • PDF

Optimal Feature Parameters Extraction for Speech Recognition of Ship's Wheel Orders (조타명령의 음성인식을 위한 최적 특징파라미터 검출에 관한 연구)

  • Moon, Serng-Bae;Chae, Yang-Bum;Jun, Seung-Hwan
    • Journal of the Korean Society of Marine Environment & Safety
    • /
    • v.13 no.2 s.29
    • /
    • pp.161-167
    • /
    • 2007
  • The goal of this paper is to develop the speech recognition system which can control the ship's auto pilot. The feature parameters predicting the speaker's intention was extracted from the sample wheel orders written in SMCP(IMO Standard Marine Communication Phrases). And we designed the post-recognition procedure based on the parameters which could make a final decision from the list of candidate words. To evaluate the effectiveness of these parameters and the procedure, the basic experiment was conducted with total 525 wheel orders. From the experimental results, the proposed pattern recognition procedure has enhanced about 42.3% over the pre-recognition procedure.

  • PDF

One of User Friendly Word Editors (사용자에 친밀한 문서 편집기의 한가지)

  • 심상덕;김인순;이상욱;추명경;손영선
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2000.11a
    • /
    • pp.399-402
    • /
    • 2000
  • 본 논문에서는 Windows 환경에서 동작하는 문서 편집기상에서 사용자의 명령을 음성으로 입력받아 글자 크기 및 화면의 이동속도를 조절하는 시스템을 연구하였다. 입력된 명령으로부터 추론된 글자 크기 값을 중심으로 font size 변경 범위를 1/2씩 줄여감으로써 사용자가 만족하는 글자 크기로 접근해 가는 방법을 사용하였다. 화면의 이동 속도는 사용자가 선택한 명령 부근에서는 원하는 이동 속도로 근접할 것이라는 개념을 도입하여 사용자가 원하는 속도로 접근하는 방법을 사용하였다.

  • PDF

Real-Time Implementation of Wireless Remote Control of Mobile Robot Based-on Speech Recognition Command (음성명령에 의한 모바일로봇의 실시간 무선원격 제어 실현)

  • Shim, Byoung-Kyun;Han, Sung-Hyun
    • Journal of the Korean Society of Manufacturing Technology Engineers
    • /
    • v.20 no.2
    • /
    • pp.207-213
    • /
    • 2011
  • In this paper, we present a study on the real-time implementation of mobile robot to which the interactive voice recognition technique is applied. The speech command utters the sentential connected word and asserted through the wireless remote control system. We implement an automatic distance speech command recognition system for voice-enabled services interactively. We construct a baseline automatic speech command recognition system, where acoustic models are trained from speech utterances spoken by a microphone. In order to improve the performance of the baseline automatic speech recognition system, the acoustic models are adapted to adjust the spectral characteristics of speech according to different microphones and the environmental mismatches between cross talking and distance speech. We illustrate the performance of the developed speech recognition system by experiments. As a result, it is illustrated that the average rates of proposed speech recognition system shows about 95% above.

Wireless Communication Real-Time Travelling Control of Mobile Robot by Voice Command (음성명령에 의한 모바일로봇의 무선통신 실시간 주행제어)

  • Shim, Byoung-Kyun;Han, Sung-Hyun
    • Journal of the Korean Society of Manufacturing Process Engineers
    • /
    • v.10 no.6
    • /
    • pp.33-38
    • /
    • 2011
  • We describe a research about remote control of mobile robot based on voice command in this paper. Through real-time remote control and wireless network capabilities of an unmanned remote-control experiments and Home Security / exercise with an unmanned robot, remote control and voice recognition and voice transmission are possible to transmit on a PC using a microphone to control a robot to pinpoint of the source. Speech recognition can be controlled robot by using a remote control. In this research, speech recognition speed and direction of self-driving robot were controlled by a wireless remote control in order to verify the performance of mobile robot with two drives.

Conformer-based Elderly Speech Recognition using Feature Fusion Module (피쳐 퓨전 모듈을 이용한 콘포머 기반의 노인 음성 인식)

  • Minsik Lee;Jihie Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.39-43
    • /
    • 2023
  • 자동 음성 인식(Automatic Speech Recognition, ASR)은 컴퓨터가 인간의 음성을 텍스트로 변환하는 기술이다. 자동 음성 인식 시스템은 다양한 응용 분야에서 사용되며, 음성 명령 및 제어, 음성 검색, 텍스트 트랜스크립션, 자동 음성 번역 등 다양한 작업을 목적으로 한다. 자동 음성 인식의 노력에도 불구하고 노인 음성 인식(Elderly Speech Recognition, ESR)에 대한 어려움은 줄어들지 않고 있다. 본 연구는 노인 음성 인식에 콘포머(Conformer)와 피쳐 퓨전 모듈(Features Fusion Module, FFM)기반 노인 음성 인식 모델을 제안한다. 학습, 평가는 VOTE400(Voide Of The Elderly 400 Hours) 데이터셋으로 한다. 본 연구는 그동안 잘 이뤄지지 않았던 콘포머와 퓨전피쳐를 사용해 노인 음성 인식을 위한 딥러닝 모델을 제시하였다는데 큰 의미가 있다. 또한 콘포머 모델보다 높은 수준의 정확도를 보임으로써 노인 음성 인식을 위한 딥러닝 모델 연구에 기여했다.

  • PDF

A study of new interface system for the disabled and old people who do not well using electronic equipment (전자기기 사용이 불편한 장애인이나 노인들을 위한 새로운 인터페이스에 대한 연구)

  • Chung, Sung-Boo;Kim, Joo-Woong
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.16 no.12
    • /
    • pp.2595-2600
    • /
    • 2012
  • In this study, we propose the new interface system for the disabled and old people who do not well using electronic equipment that is used physical switch interface system. The proposed new interface system is consisted of speech and motion recognition system. Speech recognition system is mike in the headset, and motion recognition system is 3-axis accelerometer in the headset. In order to verify the usefulness of the proposed system, we make an experiment on new interface.

Development of Joystick & Speech Recognition Moving Machine Control System (조이스틱 및 음성인식 겸용 이동기제어시스템 개발)

  • Lee, Sang-Bae;Kang, Sung-In
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.17 no.1
    • /
    • pp.52-57
    • /
    • 2007
  • This paper presents the design of intelligent moving machine control system using a real time speech recognition. The proposed moving machine control system is composed of four separated module, which are main control module, speech recognition module, servo motor driving module and sensor module. In main control module with microprocessor(80C196KC), one part of the artificial intelligences, fuzzy logic, was applied to the proposed intelligent control system. In order to improve the non-linear characteristic which depend on an user's weight and variable environment, encoder attached to the servo motors was used for feedback control. The proposed system is tested using 9 words lot control of the mobile robot, and the performance of a mobile robot using voice and joystick command is also evaluated.

A Study on the Real-time Word Spotting by Continuous density HMM (연속분포 HMM에 의한 실시간 Word Spotting 에 관한 연구)

  • 서상원
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1995.06a
    • /
    • pp.92-95
    • /
    • 1995
  • 연속분포 HMM을 사용한 실시간 로봇 암 제어 시스템에 대해 기술하고 있다. 본 시스템은 자연스러운 문장의 로봇 암 제어 명령 발성을 받아 핵심단어 인식의 framework을 통한 명령 인식 및 로봇 제어를 구현하고 있다. 로봇 몸체의 부분, 방향, 각도, 동작명령들에 대해 각기 우향 HMM, 이외의 비 핵심어들에 대해서는 이들을 한데 모아 ergodic형 상태천이를 모델링하는 garbage HMM을 형성했는데, 조사, 감탄사 등을 따로 모은 garbage 모델과, silence 및 배경 잡음에 대한 garbage 모델을 형성, 학습 및 인식에 포함시켜 연결단어 인식을 수행함으로써 핵심단어 인식의 효과를 얻었다. 이때 핵심단어들의 사용에 있어 간단한 문법적 제약을 가정하였다. 남성화자 35명을 대상으로 30개 문형에 대해 데이터 수집용 개념적 문장을 구성하여 음성 데이터를 수집하였다. 학습 화자에 대한 제어 명령 인식률은 95% 이상을 나타내고 있으며, 비 학습화자에 대한 인식율은 90% 이상이다. 또한 학습된 단어외의 비 핵심단어들의 사용에 대해서도 긍정적인 인식 성능을 보였다.

  • PDF

Design of Multimodal User Interface using Speech and Gesture Recognition for Wearable Watch Platform (착용형 단말에서의 음성 인식과 제스처 인식을 융합한 멀티 모달 사용자 인터페이스 설계)

  • Seong, Ki Eun;Park, Yu Jin;Kang, Soon Ju
    • KIISE Transactions on Computing Practices
    • /
    • v.21 no.6
    • /
    • pp.418-423
    • /
    • 2015
  • As the development of technology advances at exceptional speed, the functions of wearable devices become more diverse and complicated, and many users find some of the functions difficult to use. In this paper, the main aim is to provide the user with an interface that is more friendly and easier to use. The speech recognition is easy to use and also easy to insert an input order. However, speech recognition is problematic when using on a wearable device that has limited computing power and battery. The wearable device cannot predict when the user will give an order through speech recognition. This means that while speech recognition must always be activated, because of the battery issue, the time taken waiting for the user to give an order is impractical. In order to solve this problem, we use gesture recognition. This paper describes how to use both speech and gesture recognition as a multimodal interface to increase the user's comfort.