• 제목/요약/키워드: Automatic Speech Recognition

검색결과 213건 처리시간 0.025초

음성인식모듈을 이용한 선박조타용 임베디드 시스템 개발 (Development of an Embedded System for Ship선s Steering Gear using Voice Recognition Module)

  • 박계각;서기열;홍태호
    • 한국지능시스템학회논문지
    • /
    • 제14권5호
    • /
    • pp.604-609
    • /
    • 2004
  • 최근 국내외적으로 소형선박의 효율적인 운용을 위해서 많은 자동화 기술의 발전을 이루었으나, 이에 따른 선박 운용은 더욱 복잡해져 각종 계기와 선박 기기를 조작해야하는 번거로움이 있다. 이러한 문제를 해결하기 위하여 휴먼 인터페이스 기술의 하나인 음성정보처리기술을 선박 운용시스템에 적용한 연구 사례가 있으나 아직까지 구체적인 시스템 구현이 미비하다고 할 수 있다. 따라서, 본 논문에서는 선박운항자의 및 부담경감 및 효율적인 선박운용을 위하여 음성인식 모델을 이용한 선박조타용 임베디드 시스템을 구현하고자 한다. 구체적인 연구방법으로는, 화자독립방식의 음성인식 모듈(VR-33R)을 이용하여 선박의 조타기를 제어할 수 있는 임베디드 시스템을 설계 및 구현하고, 실제 선박시스템을 축소한 모형선박의 조타시스템에 적용하여 그 효용성을 확인하고, 실용화를 위한 방안을 모색하고자 한다.

A Review on Advanced Methodologies to Identify the Breast Cancer Classification using the Deep Learning Techniques

  • Bandaru, Satish Babu;Babu, G. Rama Mohan
    • International Journal of Computer Science & Network Security
    • /
    • 제22권4호
    • /
    • pp.420-426
    • /
    • 2022
  • Breast cancer is among the cancers that may be healed as the disease diagnosed at early times before it is distributed through all the areas of the body. The Automatic Analysis of Diagnostic Tests (AAT) is an automated assistance for physicians that can deliver reliable findings to analyze the critically endangered diseases. Deep learning, a family of machine learning methods, has grown at an astonishing pace in recent years. It is used to search and render diagnoses in fields from banking to medicine to machine learning. We attempt to create a deep learning algorithm that can reliably diagnose the breast cancer in the mammogram. We want the algorithm to identify it as cancer, or this image is not cancer, allowing use of a full testing dataset of either strong clinical annotations in training data or the cancer status only, in which a few images of either cancers or noncancer were annotated. Even with this technique, the photographs would be annotated with the condition; an optional portion of the annotated image will then act as the mark. The final stage of the suggested system doesn't need any based labels to be accessible during model training. Furthermore, the results of the review process suggest that deep learning approaches have surpassed the extent of the level of state-of-of-the-the-the-art in tumor identification, feature extraction, and classification. in these three ways, the paper explains why learning algorithms were applied: train the network from scratch, transplanting certain deep learning concepts and constraints into a network, and (another way) reducing the amount of parameters in the trained nets, are two functions that help expand the scope of the networks. Researchers in economically developing countries have applied deep learning imaging devices to cancer detection; on the other hand, cancer chances have gone through the roof in Africa. Convolutional Neural Network (CNN) is a sort of deep learning that can aid you with a variety of other activities, such as speech recognition, image recognition, and classification. To accomplish this goal in this article, we will use CNN to categorize and identify breast cancer photographs from the available databases from the US Centers for Disease Control and Prevention.

오차 역전파 알고리즘을 갖는 MLP를 이용한 한국 지명 인식에 대한 연구 (A Study on the Spoken Korean Citynames Using Multi-Layered Perceptron of Back-Propagation Algorithm)

  • 송도선;이재건;김석동;이행세
    • 한국음향학회지
    • /
    • 제13권6호
    • /
    • pp.5-14
    • /
    • 1994
  • 이 논문은 오차역전달(error back-propagation) 알고리듬을 갖는 다층구조 퍼셉트런(Multi-Layered Perceptron)을 사용하여 우리말 단어음성을 화자종속으로 기계 인식하는 실험에 관한 연구 결과다. 대상단어는 시외 자동전화 지역번호표에서 임의로 선택한 50개 지역명이며, 이 중 43개는 2음절로 구성되어있고 나머지 7개는 3음절이다. 단어를 음소나 음절별로 분리(segmentation)하지 않고, 단어의 각 부분에서 골고루 추출된 특징성분을 신경망에 입력하는 방법을 사용했다. 그렇게 함으로써 발음지속시간에 관계없는 결과를 얻을 수 있으며, 이 때 사용된 특징 성분은 선형예측분석으로 구해진 PARCOR계수다. 전체학습과 구분학습의 비교, 프레임 갯수와 PARCOR차수에 대한 인식률의 의존도, 중간층 뉴런의 갯수에 대한 인식률의 변동, 그리고 출력층 뉴런의 구성 방법에 따른 비교 등 4가지 실험을 통하여 가장 최량의 조건을 찾아보고자 하였다. 이 연구를 발전시킨다면 실시간의 화자독립 소규모어휘 음성인식이 가능해질 것으로 보인다.

  • PDF

한국인 화자의 외래어 발음 변이 양상과 음절 기반 외래어 자소-음소 변환 (Pronunciation Variation Patterns of Loanwords Produced by Korean and Grapheme-to-Phoneme Conversion Using Syllable-based Segmentation and Phonological Knowledge)

  • 류혁수;나민수;정민화
    • 말소리와 음성과학
    • /
    • 제7권3호
    • /
    • pp.139-149
    • /
    • 2015
  • This paper aims to analyze pronunciation variations of loanwords produced by Korean and improve the performance of pronunciation modeling of loanwords in Korean by using syllable-based segmentation and phonological knowledge. The loanword text corpus used for our experiment consists of 14.5k words extracted from the frequently used words in set-top box, music, and point-of-interest (POI) domains. At first, pronunciations of loanwords in Korean are obtained by manual transcriptions, which are used as target pronunciations. The target pronunciations are compared with the standard pronunciation using confusion matrices for analysis of pronunciation variation patterns of loanwords. Based on the confusion matrices, three salient pronunciation variations of loanwords are identified such as tensification of fricative [s] and derounding of rounded vowel [ɥi] and [$w{\varepsilon}$]. In addition, a syllable-based segmentation method considering phonological knowledge is proposed for loanword pronunciation modeling. Performance of the baseline and the proposed method is measured using phone error rate (PER)/word error rate (WER) and F-score at various context spans. Experimental results show that the proposed method outperforms the baseline. We also observe that performance degrades when training and test sets come from different domains, which implies that loanword pronunciations are influenced by data domains. It is noteworthy that pronunciation modeling for loanwords is enhanced by reflecting phonological knowledge. The loanword pronunciation modeling in Korean proposed in this paper can be used for automatic speech recognition of application interface such as navigation systems and set-top boxes and for computer-assisted pronunciation training for Korean learners of English.

Developing an Embedded Method to Recognize Human Pilot Intentions In an Intelligent Cockpit Aids for the Pilot Decision Support System

  • 차우창
    • 대한인간공학회지
    • /
    • 제17권3호
    • /
    • pp.23-39
    • /
    • 1998
  • Several recent aircraft accidents occurred due to goal conflicts between human and machine actors. To facilitate the management of the cockpit activities considering these observations. a computational aid. the Agenda Manager (AM) has been developed for use in simulated cockpit environments. It is important to know pilot intentions performing cockpit operations accurately to improve AM performance. Without accurate knowledge of pilot goals or intentions, the information from AM may lead to the wrong direction to the pilot who is using the information. To provide a reliable flight simulation environment regarding goal conflicts. a pilot goal communication method (GCM) was developed to facilitate accurate recognition of pilot goals. Embedded within AM, the GCM was used to recognize pilot goals and to declare them to the AM. Two approaches to the recognition of pilots goals were considered: (1) The use of an Automatic Speech Recognition (ASR) system to recognize overtly or explicitly declared pilot goals. and (2) inference of covertly or implicitly declared pilot goals via the use of an intent inferencing mechanism. The integrated mode of these two methods could overcome the covert goal mis-understanding by use of overt GCM. And also could it overcome workload concern with overt mode by the use of covert GCM. Through simulated flight environment experimentation with real pilot subjects, the proposed GCM has demonstrated its capability to recognize pilot intentions with a certain degree of accuracy and to handle incorrectly declared goals. and was validated in terms of subjective workload and pilot flight control performance. The GCM communicating pilot goals were implemented within the AM to provide a rich environment for the study of human-machine interactions in the supervisory control of complex dynamic systems.

  • PDF

발화 내 감정의 정밀한 인식을 위한 한국어 문미억양의 활용 (Utilizing Korean Ending Boundary Tones for Accurately Recognizing Emotions in Utterances)

  • 장인창;이태승;박미경;김태수;장동식
    • 한국통신학회논문지
    • /
    • 제30권6C호
    • /
    • pp.505-511
    • /
    • 2005
  • 인간을 상대하는 자율장치는 고객의 자발적인 협조를 얻기 위해 암시적인 신호에 포함된 감정과 태도를 인지할 수 있어야 한다. 인간에게 음성은 가장 쉽고 자연스럽게 정보를 교환할 수 있는 수단이다. 지금까지 감정과 태도를 이해할 수 있는 자동시스템은 발성문장의 피치와 에너지에 기반한 특징을 활용하였다. 이와 같은 기존의 감정인식 시스템의 성능은 문장의 특정한 억양구간이 감정과 태도와 관련을 갖는다는 언어학적 지식의 활용으로 보다 높은 향상이 가능하다. 본 논문에서는 한국어 문미억양에 대한 언어학적 지식을 피치기반 특징과 다층신경망을 활용하여 구현한 자동시스템에 적용하여 감정인식률을 향상시킨다. 한국어 감정음성 데이터베이스를 대상으로 실험을 실시한 결과 $4\%$의 인식률 향상을 확인하였다.

Design of Smart Device Assistive Emergency WayFinder Using Vision Based Emergency Exit Sign Detection

  • 이민우;비나야감 마리아판;비투무키자 조셉;이정훈;조주필;차재상
    • 한국위성정보통신학회논문지
    • /
    • 제12권1호
    • /
    • pp.101-106
    • /
    • 2017
  • In this paper, we present Emergency exit signs are installed to provide escape routes or ways in buildings like shopping malls, hospitals, industry, and government complex, etc. and various other places for safety purpose to aid people to escape easily during emergency situations. In case of an emergency situation like smoke, fire, bad lightings and crowded stamped condition at emergency situations, it's difficult for people to recognize the emergency exit signs and emergency doors to exit from the emergency building areas. This paper propose an automatic emergency exit sing recognition to find exit direction using a smart device. The proposed approach aims to develop an computer vision based smart phone application to detect emergency exit signs using the smart device camera and guide the direction to escape in the visible and audible output format. In this research, a CAMShift object tracking approach is used to detect the emergency exit sign and the direction information extracted using template matching method. The direction information of the exit sign is stored in a text format and then using text-to-speech the text synthesized to audible acoustic signal. The synthesized acoustic signal render on smart device speaker as an escape guide information to the user. This research result is analyzed and concluded from the views of visual elements selecting, EXIT appearance design and EXIT's placement in the building, which is very valuable and can be commonly referred in wayfinder system.

다국어 음성 인식을 위한 자동 어휘모델의 생성에 대한 연구 (A Study on the Automatic Lexical Acquisition for Multi-lingustic Speech Recognition)

  • 지원우;윤춘덕;김우성;김석동
    • 한국음향학회지
    • /
    • 제22권6호
    • /
    • pp.434-442
    • /
    • 2003
  • 특정한 언어 (영어)로 구현된 소프트웨어를 다른 언어 (한국어, 중국어 등)에서 처리할 수 있도록 하는 과정인 소프트웨어의 국제화는 음성기술 분야에 적응할 때 매우 복잡해진다. 그 이유는 음성 자체가 언어와 많은 연관 관계를 갖기 때문이다. 그러나 어떠한 언어라 해도 그 나라의 언어표현은ASCII코드나 혹은 그 나라 고유의 코드 기반으로 소프트웨어를 처리한다. 영어의 경우는 ASCII코드의 코드체계로 이루어지지만 다른 나라 언어인 경우 다른 형태의 언어코드를 사용하는 것이 일반적이다. 음성 처리에서 언어의 본질적 특성은 어휘모델에 나타난다. 어휘모델은 문자집합, 음소집합, 발음규칙으로 구성된다. 본 논문에서는 다국어 음성인식처리를 위한 어휘모델을 자동으로 생성하기 위하여, 4단계로 나누어 처리하는 어휘모델 구축 방법을 제안한다. 우선 전처리 과정으로 특정한 언어로 표현한 단어를 유니코드로 변환한다. (1단계) 유니코드로부터 중간 형태 코드로의 변환 (2단계) 발음 형태를 기본으로 하는 표준화된 규칙 적용 (3단계) 음소 규칙들에 의한 문자소 구현 (4단계) 음운론을 적용하는 순서로 구성된다.

SVM Based Speaker Verification Using Sparse Maximum A Posteriori Adaptation

  • Kim, Younggwan;Roh, Jaeyoung;Kim, Hoirin
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제2권5호
    • /
    • pp.277-281
    • /
    • 2013
  • Modern speaker verification systems based on support vector machines (SVMs) use Gaussian mixture model (GMM) supervectors as their input feature vectors, and the maximum a posteriori (MAP) adaptation is a conventional method for generating speaker-dependent GMMs by adapting a universal background model (UBM). MAP adaptation requires the appropriate amount of input utterance due to the number of model parameters to be estimated. On the other hand, with limited utterances, unreliable MAP adaptation can be performed, which causes adaptation noise even though the Bayesian priors used in the MAP adaptation smooth the movements between the UBM and speaker dependent GMMs. This paper proposes a sparse MAP adaptation method, which is known to perform well in the automatic speech recognition area. By introducing sparse MAP adaptation to the GMM-SVM-based speaker verification system, the adaptation noise can be mitigated effectively. The proposed method utilizes the L0 norm as a regularizer to induce sparsity. The experimental results on the TIMIT database showed that the sparse MAP-based GMM-SVM speaker verification system yields a 42.6% relative reduction in the equal error rate with few additional computations.

  • PDF

ZigBee 토폴로지를 이용한 스마트 홈 네트워크 시스템 설계 (Design of Smart Home Network System based on ZigBee Topology)

  • 유단;김광준;이진우
    • 한국전자통신학회논문지
    • /
    • 제7권3호
    • /
    • pp.537-543
    • /
    • 2012
  • 스마트 홈 시스템은 종합적인 네트워크 지능 홈 제어 시스템에서 실제적이며, 자동제어 시스템, 컴퓨터 네트워크 시스템과 네트워크 통신 기술이다. 지능적인 홈 시스템은 사용자로 하여금 가옥, 무선 원격 제어, 터치스크린 전화, 인터넷 또는 음성 인식 제어 가정용 장치를 화면 조작 또는 장치들을 연결함으로서 보다 편리하게 해줄 수 있다. 본 논문에서는 상호간의 서로 다른 상태의 동작에 따른 사용자 요구가 필요가 없는 상호간의 통신이 가능한 다양한 종류의 지능적인 가정용 장치를 구현함으로서 사용자가 대단히 효율적이고 편리하며 안전하도록 설계하였다.