• 제목/요약/키워드: Sound Processing

검색결과 616건 처리시간 0.037초

GPGPU에 의한 음장의 가시화에 관한 연구 (A study on the visualization of the sound field by using GPGPU)

  • 이채봉
    • 한국전자통신학회논문지
    • /
    • 제5권5호
    • /
    • pp.421-427
    • /
    • 2010
  • 본 연구에서는 음파전달의 가시화를 위해 고속 연산장치인 GPU(Graphics Processing Unit)를 이용하여 실시간 처리를 하였으며 이산 호이겐스 모델법을 사용하여 시뮬레이션 하였다. 실시간 처리와 2차원 가상 음장내의 반사물이나 음원의 상태를 변경하여 실재 음장과 같은 음파전달의 가시화를 하였다. 그 결과, 음파가 반사물에 의해 반사되는 형태나 반사물에서 회절하는 형태가 확인되었다.

Solution for Spatial Sound Realization in MIDI Specification

  • Cho, Sang-Jin;Ovcharenko, Alexander;Chae, Jin-Wook;Chong, Ui-Pil
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2005년도 추계학술대회 논문집
    • /
    • pp.274-277
    • /
    • 2005
  • Panning is the way in which to realize a spatial sound in MIDI by moving sound images by the loudness of each channel. However, there is a limitation for the natural spatial sound. The HRTF (Head Related Transfer Function) has been widely known as one of the ways to realize spatial sound using the two channels, but it needs much processing power. It is very hard to implement a real time processing structure. In this paper, we propose an improved 3D sound model for the spatial sound location by changing the acoustic parameters. We could get a good result from the experiment with MIDI Pan and our Model.

  • PDF

한국어 음운 변동 처리 규칙의 설계 및 구현 (Design and Implementation of Vocal Sound Variation Rules for Korean Language)

  • 이계영
    • 한국정보처리학회논문지
    • /
    • 제5권3호
    • /
    • pp.851-861
    • /
    • 1998
  • 한국어는 음운 변동 현상이 매우 발달되어 있다는 특징을 갖고 있다. 따라서, 음성 인식율의 제고와 음성 합성음의 자연스러움을 향상시키기 위해서는 음운 변동 현상을 비롯한 한국어의 모든 특징에 대한 체계적인 연구가 있어야 한다. 본 논문은 한국어의 제 특징 중에서 음운 변동 현상을 효율적으로 처리할 수 있는 규칙을 설계하고 구현함으로써, 한국어 음성 인식과 합성에 효율적으로 이용될 수 있음을 보인다. 음운 변동 규칙의 설계를 위하여 사용된 규정은 한글 맞춤법 통일안의 표준 발음법(7장 30항)이며, 일차적으로 각 규정별로 설계된 규칙을 최종적으로 27개 그룹으로 정리된 종성별 규칙을 제시하였다. 본 연구에서 제안된 음운 변동 처리 시스템은 한번의 규칙 적용으로 음운 변도 dgus상이 신속히 처리되는 잇점이 있으며, 단어 및 용언의 어간에 접속되는 정보에 대한 처리 내용까지도 제안된 규칙내에 수용하였기 때문에 문장 단위의 음성 인식과 합성 시스템의 연구에 도움을 줄 수 있다.

  • PDF

Aurally Relevant Analysis by Synthesis - VIPER a New Approach to Sound Design -

  • Daniel, Peter;Pischedda, Patrice
    • 한국소음진동공학회:학술대회논문집
    • /
    • 한국소음진동공학회 2003년도 춘계학술대회논문집
    • /
    • pp.1009-1009
    • /
    • 2003
  • VIPER a new tool for the VIsual PERception of sound quality and for sound design will be presented. Requirement for the visualization of sound quality is a signal analysis modeling the information processing of the ear. The first step of the signal processing implemented in VIPER, calculates an auditory spectrogram by a filter bank adapted to the time- and frequency resolution of the human ear. The second step removes redundant information by extracting time- and frequency contours from the auditory spectrogram in analogy to contours of the visual system. In a third step contours and/or auditory spectrogram can be resynthesised confirming that only aurally relevant information were extracted. The visualization of the contours in VIPER allows intuitively to grasp the important components of a signal. Contributions of parts of a signal to the overall quality can be easily auralized by editing and resynthesising the contours or the underlying auditory spectrogram. Resynthesis of time contours alone allows e.g. to auralize impulsive components separately from the tonal components. Further processing of the contours determines tonal parts in form of tracks. Audible differences between two versions of a sound can be visually inspected in VIPER through the help of auditory distance spectrograms. Applications are shown for the sound design of several interior noises of cars.

  • PDF

Sound System Analysis for Health Smart Home

  • CASTELLI Eric;ISTRATE Dan;NGUYEN Cong-Phuong
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 ICEIC The International Conference on Electronics Informations and Communications
    • /
    • pp.237-243
    • /
    • 2004
  • A multichannel smart sound sensor capable to detect and identify sound events in noisy conditions is presented in this paper. Sound information extraction is a complex task and the main difficulty consists is the extraction of high­level information from an one-dimensional signal. The input of smart sound sensor is composed of data collected by 5 microphones and its output data is sent through a network. For a real time working purpose, the sound analysis is divided in three steps: sound event detection for each sound channel, fusion between simultaneously events and sound identification. The event detection module find impulsive signals in the noise and extracts them from the signal flow. Our smart sensor must be capable to identify impulsive signals but also speech presence too, in a noisy environment. The classification module is launched in a parallel task on the channel chosen by data fusion process. It looks to identify the event sound between seven predefined sound classes and uses a Gaussian Mixture Model (GMM) method. Mel Frequency Cepstral Coefficients are used in combination with new ones like zero crossing rate, centroid and roll-off point. This smart sound sensor is a part of a medical telemonitoring project with the aim of detecting serious accidents.

  • PDF

웨이블릿을 이용한 입체음향의 확산감 제어 (3D Sound Diffusion Control Using Wavelets)

  • 김익형;정의필
    • 융합신호처리학회논문지
    • /
    • 제4권4호
    • /
    • pp.23-29
    • /
    • 2003
  • 본 논문에서는 무향실에서 녹음된 모노 음으로부터 효과적인 음의 확산감을 얻기 위해서 스테레오 헤드폰을 이용한 개선된 입체음향 시스템의 구현을 위한 알고리듬을 제안하고자 한다. 머리전달함수(HRTF)를 이용해서 음상을 정위하고 음의 확산 효과를 위해서 시간 지연을 삽입한 웨이블릿 필터 뱅크를 이용한다. 좌$.$우 머리전달함수의 샘플링률을 변화시키면서 음상 정위의 왜곡 정도를 파악한다. 계산의 복잡도를 고려하여 공간상의 정보를 잃지 않는 가장 낮은 샘플링률을 갖는 머리전달함수와 실험 음원과의 컨벌루션 처리를 통해서 2 채널의 스테레오 음을 획득한다. 헤드폰의 좌$.$우측 신호에 대한 상관계수 값의 제어를 통해서 음의 확산 정도를 비교한다. 잔향처리를 통하여 최종적인 확산 음원을 획득한다.

  • PDF

가상환경의 인터랙티브 사운드를 위한 'EVE-SoundTM' 툴킷 ('EVE-SoundTM' Toolkit for Interactive Sound in Virtual Environment)

  • 남양희;성숙정
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.273-280
    • /
    • 2007
  • 본 논문은 2D/3D 가상환경에서 실감 사운드의 실시간 합성을 위한 $EVE-Sound^{TM}$ 툴킷의 설계와 개발결과를 제시한다. $EVE-Sound^{TM}$는 사운드 효과 계산에 필요한 장면요소를 간추리는 전처리 도구와 실시간 렌더링 API들로 구성되며, 다중 모달리티의 실감 재현을 필요로 하는 가상현실, 게임 등의 각종 인터랙티브 콘텐츠에서 사용자에게 고급 그래픽 환경을 허용하면서 동시에 사운드의 실시간 재현을 가능하게 함을 목표로 하였다. 3차원 사운드 계산이 매우 복잡하기 때문에 기존의 사운드 API들이 간단한 사운드 효과와 재생을 제공하는 것과 달리, 복잡한 가상환경에서 3차원 사운드의 원리를 반영하되 그 렌더링을 실시간화하는 데 초점을 두었고, 이를 위해 새로운 장면 간략화 및 공간사운드 계산 방법이 제시되었다. 응용 사례 및 실험, 알고리즘 분석을 통해 제시된 툴킷의 활용성 및 향상된 실시간성을 확인하였다.

Development of Signal Monitoring Platform for Sound Source Localization System

  • Myagmar, Enkhzaya;Kwon, Soon Ryang;Lee, Dong Myung
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 춘계학술발표대회
    • /
    • pp.961-963
    • /
    • 2012
  • The sound source localization system is used to some area such as robotic system, object localization system, guarding system and medicine. So time delay estimation and angle estimation of sound direction are studied until now. These days time delay estimation is described in LabVIEW which is used to create innovative computer-based product and deploy measurement and control systems. In this paper, the development of signal monitoring platform is presented for sound source localization. This platform is designed in virtual instrument program and implemented in two stages. In first stage, data acquisition system is proposed and designed to analyze time delay estimation using cross correlation. In second stage, data obtaining system which is applied and designed to monitor analog signal processing is proposed.

선행음 및 후속음이 음원의 방향지각에 미치는 영향에 관한 연구 (A study on the effect of leading sound and following sound on sound localization)

  • 이채봉
    • 융합신호처리학회논문지
    • /
    • 제16권2호
    • /
    • pp.40-43
    • /
    • 2015
  • 본 연구에서는 연속 마스킹과 같은 효과가 기준음보다도 선행되는 음(선행음)과 후속되는 음(후속음)이 음상정위에 미치는 영향을 레벨차 및 시간차(Inter Stimuli Interval : ISI)에 의한 변화를 청취실험을 하고 그 결과에 대하여 검토를 하였다. 기준음의 제시시간은 2ms이며 후속음 및 선행음의 제시시간은 10ms로 두었다. 제시음은 1kHz 정현파이며 좌우 귀에 도달하는 시간차(Interaural Time Difference : ITD)는 0.5ms로 두었다. 레벨차는 0, -10, -15, -20dB로 두어 제시하였다. 실험결과 선행음이 후속음보다도 음상정위에 크게 영향을 미치고 있음을 알았다. 그리고 선행음의 영향은 ISI의 값에 의존하고 ISI의 값이 작을 때 음상정위에 미치는 영향의 차가 있음을 알았다.

향상된 실시간 음원방향 인지 시스템의 하드웨어 설계 (Hardware Design of Enhanced Real-Time Sound Direction Estimation System)

  • 김태완;김동훈;정연모
    • 한국음향학회지
    • /
    • 제30권3호
    • /
    • pp.115-122
    • /
    • 2011
  • 본 논문에서는 십자 형태로 구성된 네 개의 마이크로폰을 이용하여 일반화된 상호 상관 기법을 적용한 음성 도달시간 지연을 측정하여 정확한 음원 방향을 실시간으로 계산하는 방식에 대해 제시하였다. 기존 시스템에서는 마이크로폰 어레이 신호처리를 위해 데이터 수집 장치를 필요로 하므로 시스템을 내장하기 힘들고, 또한 DSP 프로세서를 사용한 음원방향 인지는 마이크로폰의 채널의 수가 늘어날수록 실시간 처리가 어려워지는 두 가지 단점이 있다. 본 논문에서는 이러한 한계를 극복하기 위하여 마이크로폰 어레이 신호처리를 이용한 향상된 음원방향 인지 하드웨어의 개발을 제안하였다. 공간 구분 기법을 이용한 효율적인 설계 및 검증방식을 제안하였고 이를 통하여 보다 정확한 방향 추정과 설계시간 단축이 가능하다. 최종적으로 음성 코덱과 FPGA를 이용하는 임베디드 시스템을 위해서 사용이 가능한 시스템을 개발하였다. 실험 결과에 의하면 PC 기반이나 DSP 프로세서를 사용한 경우에 비해 보다 빠른 처리 시간을 보였다.