• Title/Summary/Keyword: Software Sound Synthesis

Search Result 13, Processing Time 0.03 seconds

Development of Parameter Extraction Algorithm and Software Simulator For a Digital Music FM Synthesis (FM 방식의 디지털 악기음 합성을 위한 소프트웨어 시뮬레이터 및 파라미터 추출 알고리즘 개발)

  • Joon Yul Joo
    • Journal of the Korean Institute of Telematics and Electronics B
    • /
    • v.31B no.3
    • /
    • pp.24-38
    • /
    • 1994
  • In this paper we develop the software simulator written in a C language for a frequency modulation synthesis and the approximate range of parameters, for a musically satisfactory timbre, obtained by using the software simulator will be applied to develop an algorithm for parameter extraction. For a frequency modulation synthesis, we also develop an algorithm for parameter extraction through waveform analysis in the time domain as well as spectrum analysis using a FFT in the frequency domain. To verify the validity of the developed algorithm as well as software simulator experimentally, we extract parameters for the several music instruments using the suggested algorithm and analyze the synthesized sound by applying the parameters to the software simulator. The evaluation of the synthesized sound is first done by listening the sound directly as a subjective testing. Secondly, to evaluate the synthesized sound objectively with an engineering sense, we compare the synthesized sound with an original one in a time domain and a frequency domain.

  • PDF

Novel Sound Energy and Reversal Mapping for Procedural Sound Synthesis in Cloth Simulation (옷감 시뮬레이션의 절차적 사운드 합성을 위한 새로운 사운드의 에너지와 반전 매핑)

  • Kim, Dong-Hui;Moon, Seong-Hyeok;Shin, Young-Chan;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.587-590
    • /
    • 2022
  • 본 논문에서는 물리기반 옷감 시뮬레이션에 적합한 소리를 효율적으로 생성하기 위한 데이터 기반 합성 기법을 제안한다. 시뮬레이션에서 소리를 표현하는 방법은 크게 생성과 합성이 있지만, 합성은 실시간 애플리케이션에서 활용이 가능하기 때문에 인터랙티브한 환경에서 자주 활용되고 있다. 하지만, 데이터에 의존하기 때문에 원하는 장면에 부합하는 사운드를 합성하기는 어려우며, 기존 방법은 한 방향으로만 사운드 데이터를 검색하기 때문에 불연속으로 인한 끊김 현상이 발생한다. 본 논문에서는 양방향 사운드 합성 기법을 제시하며, 이를 통해 불연속적으로 합성되는 사운드 결과를 효율적으로 개선될 수 있음을 보여준다.

  • PDF

Particle-Based Sound Matching and Synthesis for Efficient and Realistic Foam Sound Generation (효율적이고 사실적인 거품 사운드 생성을 위한 입자 기반 사운드 매칭과 합성)

  • YoungChan Shin;Jong-Hyun Kim
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.357-360
    • /
    • 2023
  • 본 논문에서는 거품 입자의 물리적 속성을 활용하여 가상 시뮬레이션 장면에 맞는 거품 사운드를 합성하고 사운드의 물리적 현상을 기반으로 사운드의 크기를 효율적으로 제어할 수 있는 기법을 제안한다. 현실에서는 사운드의 근원지와 청중의 위치 관계에 따라 사운드 크기의 차이가 나타타는 것을 쉽게 관찰할 수 있다. 본 논문에서는 이 문제를 효율적으로 풀어내기 위해 복잡한 3차원 유체의 움직임을 분석하는 게 아닌, 2차원으로 투영된 입자의 유동을 분석하여 사운드를 합성하고 제어하는 방식을 소개한다. 우리의 방법은 거품 사운드의 크기를 효율적으로 조절할 수 있도록 스크린 공간에서 계산된 거품 입자의 속도와 위치를 활용하여 청중의 위치 관계 및 사운드의 방향성을 확인하고, 이를 통해 거품 사운드를 사실적으로 합성하였다.

  • PDF

Efficient Foam Sound Generation with Screened Clustering Based Sound Synthesis (스크린드 군집화 기반의 사운드 합성을 이용한 효율적인 거품 사운드 생성)

  • Shin, YoungChan;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.553-556
    • /
    • 2022
  • 본 논문에서는 거품 입자를 활용하여 시뮬레이션 장면에 맞는 소리를 효율적으로 합성할 수 있는 기법을 제안한다. 물리 기반 시뮬레이션 환경에서 소리를 표현하는 대표적인 방법은 생성과 합성이다. 사운드 생성의 경우 시뮬레이션 장면마다 물리 기반 접근법을 사용하여 소리를 생성할 수 있는데 계산 시간과 재질 표현의 어려움으로 다양한 시뮬레이션 장면에 대한 소리를 만들어 내기에는 쉽지 않다. 사운드 합성의 경우 소리 데이터를 미리 구축해야 하는 사전 준비가 필요하지만, 한 번 구축하면 비슷한 장면에서는 같은 소리 데이터를 활용할 수 있는 점이 있다. 따라서 본 논문에서는 거품 시뮬레이션의 소리 합성을 위해 소리 데이터를 구축하고 거품 입자의 효율적인 군집화를 통해 계산 시간을 줄이면서 소리의 사실감은 개선할 수 있는 사운드 합성 기법을 제안한다.

  • PDF

Sound Synthesis using Block & Moving Ball (블록과 움직이는 공을 이용한 사운드 신디시스)

  • Chang, Kyu-Sik;Jang, Dong-Hun;Kim, Tae-Yong
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02b
    • /
    • pp.292-297
    • /
    • 2007
  • 터치스크린을 통한 유저의 입력은 미디신호로 변환되며 생성된 블록은 하나의 음표 또는 다수의 음표로 남게 되며 유저가 설정한 타임라인의 빠르기에 따라 입력된 블록 위치의 음계 값을 토대로 소프트웨어 신디사이저의 오실 레이터에서 생성된 소리를 스피커로 출력해 낸다. 블록은 서로 다른 색깔의 8개의 미디채널로 존재하여 각 채널을 레이어 시켜 다른 블록을 생성하여 사인파, 톱니파, 삼각파, 사각파등을 엔벨로프 변형을 통해 만든 10가지 다른 소리로 지정하여 넣을 수 있다. 미디의 멀티채널방식을 이용해 다중 레이어의 입력방식을 취했으며, 관객은 작곡 모드에서는 일정한 패턴을 가진 단음이나 화성을, 게임모드에서는 생성된 공이 블록을 부딪치며 예측하기 어렵게 생성된 단음이나 화성음을 만들 수 있다. 생성한 음이 재생될 때에는 생성된 음정의 주파수 값과 음량에 따라서 RGB LED 조명이 반응을 하며 유저가 생성시킨 독특한 음악 진행에 따라 조명의 밝기와 색깔이 바뀌게 된다.

  • PDF

A Particle-Grid Method for Efficient Sound Synthesis of Ocean Waves

  • Jong-Hyun Kim
    • Journal of the Korea Society of Computer and Information
    • /
    • v.29 no.10
    • /
    • pp.157-164
    • /
    • 2024
  • In this paper, we propose a technique that utilizes the physical properties of foam particles to synthesize foam sounds and efficiently control their size. A typical way to represent sound in physics-based simulation environments is to generate and synthesize virtual sounds. In particular, foam particles have a large number of particles, so synthesizing sounds using only particles is computationally expensive, and a way to reduce the amount of computation is to use spatial information, lattices. In this paper, we present a method for reliably mapping and clustering foam particles into a lattice space. Furthermore, we utilize this structure to control the loudness of the sound according to the location of the sound source and the audience. As a result, the method proposed in this paper proposes an efficient way to synthesize the sound of bubble particles, which utilizes the velocity and position of the bubble particles projected in the lattice space, and synthesizes the sound of bubble particles based on the position relationship of the audience and the directionality of the sound.

Efficient Sound Processing and Synthesis in VR Environment Using Curl Vector of Obstacle Object (장애물 객체의 회전 벡터를 이용한 VR 환경에서의 효율적인 음향 처리 및 합성)

  • Park, Seong-A;Park, Soyeon;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.01a
    • /
    • pp.369-372
    • /
    • 2022
  • 본 논문에서는 장애물 객체의 회전 벡터를 이용하여 VR 환경에서의 효율적으로 음향 처리 및 합성하는 방법을 제안한다. 현실에서 소리와 장애물이 있을 때, 소리는 장애물의 형태에 따라 퍼지면서 전파되는 형태를 보여준다. 이 같은 특징을 가상현실 환경에 유사하게 음향 처리하고자 하며 이를 위해 장애물 객체의 위치와 소리의 근원지 위치를 입력으로 소리의 전파 형태를 근사한다. 이때 모서리 부근에서 표현되는 소리의 회전을 계산하기 위해 장애물의 회전벡터(Curl vector)를 기반으로 소리의 회전을 추출하였으며, 장애물 형태를 컨볼루션(Convolution)하여 소리가 바깥 방향으로 전파되는 형태를 모델링한다. 또한, 장애물과 소리 벡터 사이의 거리, 소리 근원지와 소리 벡터 사이의 거리를 계산하여 소리의 크기를 감쇠 시켜 주며, 최종적으로 장애물 주변으로 퍼지는 벡터 모양인 외부벡터를 합성하여 장애물로부터 외부로 퍼지는 벡터의 방향을 설정한다. 본 논문에서 제안하는 방법을 이용한 소리는 장애물과의 거리와 형태를 고려하여 퍼지는 사운드 벡터 형태를 보여주며, 소리 위치에 따라 소리 감소 패턴이 변경되고, 장애물 모양에 따라 흐름이 조절되는 결과를 보여준다. 이 같은 실험은 실제 현실에서 소리가 장애물의 모양에 따라 나타나는 소리의 변화 및 패턴을 거의 유사하게 표현할 수 있다.

  • PDF

Music Programming Language Composition Using Csound (Csound를 이용한 음악 프로그래밍 언어 제작)

  • Yeo Young-Hwan
    • The Journal of the Acoustical Society of Korea
    • /
    • v.24 no.7
    • /
    • pp.365-370
    • /
    • 2005
  • The present study is purposed to establish a systematic theory for user-friendly approach to the creation of using a programming language using Csound. Csound is a world-wide computer music programming language and a software synthesizer specialized for prominent sound designers developed by Barry Vercoe at the Media Laboratory in M.I.T. The introduction and the main body of this paper suggested as the starting point of creating electronic music and musical sound the time of combination of music with natural sound or sound from specific media from the viewpoint of traditional Western music. and presents a systematic method composed of the principle of the operation of Csound and basic data samples.

Perceptual Experiment on Number Production for Speaker Identification

  • Yang, Byung-Gon
    • Speech Sciences
    • /
    • v.8 no.1
    • /
    • pp.7-19
    • /
    • 2001
  • The acoustic parameters of nine Korean numbers were analyzed by Praat, a speech analysis software, and synthesized by SenSynPPC, a Klatt formant synthesizer. The overall intensity, pitch and formant values of the numbers were modified dynamically by a step of 1 dB, 1 Hz and 2.5% respectively. The study explored the sensitivity of listeners to changes in the three acoustic parameters. Twelve subjects (male and female) listened to 390 pairs of synthesized numbers and judged whether the given pair sounded the same or different. Results showed that subjects perceived the same sound quality within the range of 6.6 dB of intensity variation, 10.5 Hz of pitch variation and 5.9% of the first three formant variations. The male and female groups showed almost the same perceptual ranges. Also, an asymmetrical structure of high and low boundary was observed. The ranges may be applicable to the development of a speaker identification system while the method of synthesis modification may apply to its evaluation data.

  • PDF

Fillers in the Hong Kong Corpus of Spoken English (HKCSE)

  • Seto, Andy
    • Asia Pacific Journal of Corpus Research
    • /
    • v.2 no.1
    • /
    • pp.13-22
    • /
    • 2021
  • The present study employed an analytical framework that is characterised by a synthesis of quantitative and qualitative analyses with a specially designed computer software SpeechActConc to examine speech acts in business communication. The naturally occurring data from the audio recordings and the prosodic transcriptions of the business sub-corpora of the HKCSE (prosodic) are manually annotated with a speech act taxonomy for finding out the frequency of fillers, the co-occurring patterns of fillers with other speech acts, and the linguistic realisations of fillers. The discoursal function of fillers to sustain the discourse or to hold the floor has diverse linguistic realisations, ranging from a sound (e.g. 'uhuh') and a word (e.g. 'well') to sounds (e.g. 'um er') and words, namely phrase ('sort of') and clause (e.g. 'you know'). Some are even combinations of sound(s) and word(s) (e.g. 'and um', 'yes er um', 'sort of erm'). Among the top five frequent linguistic realisations of fillers, 'er' and 'um' are the most common ones found in all the six genres with relatively higher percentages of occurrence. The remaining more frequent realisations consist of clause ('you know'), word ('yeah') and sound ('erm'). These common forms are syntactically simpler than the less frequent realisations found in the genres. The co-occurring patterns of fillers and other speech acts are diverse. The more common co-occurring speech acts with fillers include informing and answering. The findings show that fillers are not only frequently used by speakers in spontaneous conversation but also mostly represented in sounds or non-linguistic realisations.