• 제목/요약/키워드: Sound recognition

검색결과 311건 처리시간 0.026초

음성정보 내용분석을 통한 골프 동영상에서의 선수별 이벤트 구간 검색 (Retrieval of Player Event in Golf Videos Using Spoken Content Analysis)

  • 김형국
    • 한국음향학회지
    • /
    • 제28권7호
    • /
    • pp.674-679
    • /
    • 2009
  • 본 논문은 골프 동영상에 포함된 오디오 정보로부터 검출된 이벤트 사운드 구간과 골프 선수이름이 포함된 음성구간을 결합하여 선수별 이벤트 구간을 검색하는 방식을 제안한다. 전체적인 시스템은 동영상으로부터 분할된 오디오 스트림으로부터 잡음제거, 오디오 구간분할, 음성 인식 등의 과정을 통한 자동색인 모듈과 사용자가 텍스트로 입력한 선수 이름을 발음열로 변환하고, 색인된 데이터베이스에서 질의된 선수 이름과 상응하는 음성구간과 연결되는 이벤트 구간을 찾아주는 검색 모듈로 구성된다. 선수이름 검색을 위해서 본 논문에서는 음소 기반, 단어 기반, 단어와 음소를 결합한 하이브리드 방식을 적용한 선수별 이벤트 구간 검색결과를 비교하였다.

서술어가 생략된 고시조의 문학치료 기능 연구 (A Study on the Literary Therapeutic Functions of Ancient Sijo that Ends without a Predicate)

  • 박인과
    • 한국융합학회논문지
    • /
    • 제8권8호
    • /
    • pp.225-230
    • /
    • 2017
  • 시조는 우리의 삶에 역동적이고 정격화 된 치유의 활력을 제공한다. 본 연구는 시조가 명사로 끝나는 부분에서 발화하는 문학치료의 기능을 살펴보고자 하였다. 연구의 결과 시조의 종장에 사용된 명사는 서술어의 기능을 발화시키는 것이었다. 이 시조는 한 음보 단축된 11음보로 응집되면서도 12음보의 기능으로 발화되는 것이다. 이러한 시조의 기능 발화는 문학치료의 부호화에 대한 치료적 서술이다. 그래서 시조나 언어에서 서술하지 않고 명사만 언급해도 치유적인 부호화를 활성화시킬 수 있다. 그 이유는 시조의 명사가 인체에 끼어들어 주어가 되고 인체의 뉴런이 서술어가 되어 문장을 만들어내기 때문이다. 이때 뉴런의 핵이 명사로 들어온 정보를 분석하여 새로운 문장을 만들어낸 것을 인체가 인식하는 것으로 판단된다. 이러한 인식이 또한 인체에서 발화하는 치료의 기능인 부호화의 과정이다.

인간의 비언어적 행동 특징을 이용한 다중 사용자의 상호작용 의도 분석 (Interaction Intent Analysis of Multiple Persons using Nonverbal Behavior Features)

  • 윤상석;김문상;최문택;송재복
    • 제어로봇시스템학회논문지
    • /
    • 제19권8호
    • /
    • pp.738-744
    • /
    • 2013
  • According to the cognitive science research, the interaction intent of humans can be estimated through an analysis of the representing behaviors. This paper proposes a novel methodology for reliable intention analysis of humans by applying this approach. To identify the intention, 8 behavioral features are extracted from the 4 characteristics in human-human interaction and we outline a set of core components for nonverbal behavior of humans. These nonverbal behaviors are associated with various recognition modules including multimodal sensors which have each modality with localizing sound source of the speaker in the audition part, recognizing frontal face and facial expression in the vision part, and estimating human trajectories, body pose and leaning, and hand gesture in the spatial part. As a post-processing step, temporal confidential reasoning is utilized to improve the recognition performance and integrated human model is utilized to quantitatively classify the intention from multi-dimensional cues by applying the weight factor. Thus, interactive robots can make informed engagement decision to effectively interact with multiple persons. Experimental results show that the proposed scheme works successfully between human users and a robot in human-robot interaction.

영어 청해력 향상을 위한 효율적인 학습 지도 방안 (A study of an effective teaching of listening comprehension)

  • 박찬식
    • 영어어문교육
    • /
    • 제1호
    • /
    • pp.69-108
    • /
    • 1995
  • Listening comprehension can be defined as a process of an integrative, positive and creative activity through which listeners get the message of speakers' production using linguistic or non-linguistic redundancy as well as linguistic or non-linguistic knowledge. Compared with reading comprehension, it has many difficulties especially for foreigners. while it can be transferred to the other skills: speaking, reading, writing. With this said, listening comprehension can be taught effectively using the following teaching strategies. First. systematic and intensive instruction of segmental phonemes, suprasegmental phonemes and sound changes must be given to remove the difficulties of listening comprehension concerned with the identification of sounds. Second, vocabulary drill through various games and other activities is absolutely needed until words can be unconsciously recognized. Without this, comprehension is almost impossible. Third, instruction of sentence structures is thought to be essential considering grammar is supplementary to listening comprehension and reading comprehension for academic purpose. So grammar translation drills, mechanical drills, meaningful drills and communicative drills should be performed in succession with common or frequently used structures. Fourth, listening activities for overall comprehension should teach how to receive overall meaning of intended messages intact. Linguists and literatures have listed some specific activities as follows: Total Physical Response, dictation, role playing, singing songs, selective listening, picture recognition, list activities, completion, prediction, true or false choice, multiple choice, seeking of specific information, summarizing, problem-solving and decision-making, recognization of relationships between speakers, recognition of mood, attitude and behavior of speakers.

  • PDF

A Study on Measuring the Speaking Rate of Speaking Signal by Using Line Spectrum Pair Coefficients

  • Jang, Kyung-A;Bae, Myung-Jin
    • The Journal of the Acoustical Society of Korea
    • /
    • 제20권3E호
    • /
    • pp.18-24
    • /
    • 2001
  • Speaking rate represents how many phonemes in speech signal have in limited time. It is various and changeable depending on the speakers and the characters of each phoneme. The preprocessing to remove the effect of variety of speaking rate is necessary before recognizing the speech in the present speech recognition systems. So if it is possible to estimate the speaking rate in advance, the performance of speech recognition can be higher. However, the conventional speech vocoder decides the transmission rate for analyzing the fixed period no regardless of the variety rate of phoneme but if the speaking rate can be estimated in advance, it is very important information of speech to use in speech coding part as well. It increases the quality of sound in vocoder as well as applies the variable transmission rate. In this paper, we propose the method for presenting the speaking rate as parameter in speech vocoder. To estimate the speaking rate, the variety of phoneme is estimated and the Line Spectrum Pairs is used to estimate it. As a result of comparing the speaking rate performance with the proposed algorithm and passivity method worked by eye, error between two methods is 5.38% about fast utterance and 1.78% about slow utterance and the accuracy between two methods is 98% about slow utterance and 94% about fast utterances in 30 dB SNR and 10 dB SNR respectively.

  • PDF

A Study on Stable Motion Control of Humanoid Robot with 24 Joints Based on Voice Command

  • Lee, Woo-Song;Kim, Min-Seong;Bae, Ho-Young;Jung, Yang-Keun;Jung, Young-Hwa;Shin, Gi-Soo;Park, In-Man;Han, Sung-Hyun
    • 한국산업융합학회 논문집
    • /
    • 제21권1호
    • /
    • pp.17-27
    • /
    • 2018
  • We propose a new approach to control a biped robot motion based on iterative learning of voice command for the implementation of smart factory. The real-time processing of speech signal is very important for high-speed and precise automatic voice recognition technology. Recently, voice recognition is being used for intelligent robot control, artificial life, wireless communication and IoT application. In order to extract valuable information from the speech signal, make decisions on the process, and obtain results, the data needs to be manipulated and analyzed. Basic method used for extracting the features of the voice signal is to find the Mel frequency cepstral coefficients. Mel-frequency cepstral coefficients are the coefficients that collectively represent the short-term power spectrum of a sound, based on a linear cosine transform of a log power spectrum on a nonlinear mel scale of frequency. The reliability of voice command to control of the biped robot's motion is illustrated by computer simulation and experiment for biped walking robot with 24 joint.

음성인식 기반 인터렉티브 미디어아트의 연구 - 소리-시각 인터렉티브 설치미술 "Water Music" 을 중심으로-

  • 이명학;강성일;김봉화;김규정
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.354-359
    • /
    • 2008
  • 소리-시각 인터랙티브 설치미술인 "Water Music" 은 관객의 음성에 따라서 변하는 물결의 파동을 표현한다. 음정인식 기반 인터페이스 기술을 이용하여 벽면에 비디오 프로젝션 된 시각적 물결이미지로 나타난다. 물결이미지는 동양화의 붓으로 그린 물결과 작은 원형의 입자들을 생성하여 표현된 영상으로 구성된다. 관객은 입김을 불어 넣거나 소리를 냄으로써 화면에서 연속적으로 생성되는 컴퓨터 프로그램 기반 물결의 움직임과 상호 반응할 수 있다. 이러한 공생적인 소리 시각 환경은 관객에게 생각으로 그리고 신체적으로 환영적 공간을 경험하도록 한다. 본 설치작업에서 관객과 상호 반응 할 수 있는 움직이는 물결을 생성하기 위하여 적용된 주요 프로그램은 Visual C++ and DirectX SDK이며, 풀 프레임 3D 렌더링 기술과 파티클 시스템이 사용되었다.

  • PDF

녹음 환경의 차이에 따른 화자의 음원 특성 비교: 발성유형지수 k를 중심으로 (Comparison of Speaker's Source Characteristics in Different Recording Environments by Using Phonation Type Index k)

  • 이후동;강선미;박한상;장문수
    • 음성과학
    • /
    • 제10권3호
    • /
    • pp.213-224
    • /
    • 2003
  • Spoken sound includes not only speaker's source but the characteristics of vocal tract and speech radiation. This paper is based on the theory of Park[1], who proposes the Phonation Type Index k; a variable that shows the characteristic of speaker's source excluding those of speaker's vocal tract and speech radiation. With Park's theory, we collect data by changing recording environments and expanding experimental data, and analyze the data collected to see whether or not the PTI k shows good discriminating power as a variable for speaker recognition. In the experiment, we repeatedly record 8 sentences ten times for each of 5 males in the environment of a recording room and an office, extract PTI k for each speaker, and measure the discriminating power for each speaker by using the value of PTI k. The result shows that PTI k has the excellent discriminating power of speakers. We also confirm that, even if the recording environment is changed, PTI k shows similar results.

  • PDF

음향음성학 파라미터를 사용한 비음 위치 검출 (Nasal Place Detection with Acoustic Phonetic Parameters)

  • 이석명;최정윤;강홍구
    • 한국음향학회지
    • /
    • 제31권6호
    • /
    • pp.353-358
    • /
    • 2012
  • 논문은 지식기반의 음성인식 시스템에서 비음 위치를 검출하기 위한 음향음성학적 파라미터를 제시하였다. 음향음성학적 파라미터는 앞선 연구자들의 연구내용을 토대로 비강을 통해 음성이 발성될 때 나타나는 특징을 기반으로 하여 선별하였다. 선별된 파라미터들은 대역별 에너지 비율, 대역별 에너지의 차이, 포먼트 그리고 포먼트의 차이로써, 비음 위치에 따라 변화하는 조음기관의 영향을 잘 나타내 주었다. 이러한 음향음성학 파라미터를 이용하여 비음을 순비음(/m/), 치경비음(/n/), 그리고 연구개비음(/ng/)으로 나누는 실험을 진행하였고, TIMIT 데이터베이스로 실험하였을 때 57.5%의 검출률을 얻을 수 있었다.

다중대역 음성인식을 위한 부대역 신뢰도의 추정 및 가중 (Estimation and Weighting of Sub-band Reliability for Multi-band Speech Recognition)

  • 조훈영;지상문;오영환
    • 한국음향학회지
    • /
    • 제21권6호
    • /
    • pp.552-558
    • /
    • 2002
  • 최근에 Fletcher의 HSR (human speech recognition) 이론을 기초로 한 다중대역 (multi-band) 음성인식이 활발히 연구되고 있다. 다중대역 음성인식은 주파수 영역을 다수의 부대역으로 나누고 별도로 인식한 뒤 부대역들의 인식결과를 부대역 신뢰도로 가중 및 통합하여 최종 판단을 내리는 새로운 음성인식 방식으로서 잡음환경에 특히 강인하다고 알려졌다. 잡음이 정상적인 경우 무음구간의 잡음정보를 이용하여 부대역 신호대 잡음비(SNR)를 추정하고 이를 가중치로 사용하기도 하였으나, 비정상잡음은 시간에 따라 특성이 변하여 부대역 신호대 잡음비를 추정하기가 쉽지 않다. 본 논문에서는 깨끗한 음성으로 학습한 은닉 마코프 모델과 잡음음성의 통계적 정합에 의해 각 부대역에서 모델과 잡음음성 사이의 거리를 추정하고, 이 거리의 역을 부대역 가중치로 사용하는 ISD (inverse sub-band distance) 가중을 제안한다. 1500∼1800㎐로 대역이 제한된 백색잡음 및 클래식 기타음에 대한 인식 실험 결과, 제안한 방법은 정상 및 비정상대역제한잡음에 대하여 부대역의 신뢰도를 효과적으로 표현하며 인식 성능을 향상시켰다.