• Title/Summary/Keyword: 컴퓨터 소리합성

Search Result 15, Processing Time 0.03 seconds

Efficient Foam Sound Generation with Screened Clustering Based Sound Synthesis (스크린드 군집화 기반의 사운드 합성을 이용한 효율적인 거품 사운드 생성)

  • Shin, YoungChan;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.553-556
    • /
    • 2022
  • 본 논문에서는 거품 입자를 활용하여 시뮬레이션 장면에 맞는 소리를 효율적으로 합성할 수 있는 기법을 제안한다. 물리 기반 시뮬레이션 환경에서 소리를 표현하는 대표적인 방법은 생성과 합성이다. 사운드 생성의 경우 시뮬레이션 장면마다 물리 기반 접근법을 사용하여 소리를 생성할 수 있는데 계산 시간과 재질 표현의 어려움으로 다양한 시뮬레이션 장면에 대한 소리를 만들어 내기에는 쉽지 않다. 사운드 합성의 경우 소리 데이터를 미리 구축해야 하는 사전 준비가 필요하지만, 한 번 구축하면 비슷한 장면에서는 같은 소리 데이터를 활용할 수 있는 점이 있다. 따라서 본 논문에서는 거품 시뮬레이션의 소리 합성을 위해 소리 데이터를 구축하고 거품 입자의 효율적인 군집화를 통해 계산 시간을 줄이면서 소리의 사실감은 개선할 수 있는 사운드 합성 기법을 제안한다.

  • PDF

Interactive Synthesizing of Sound in Virtual Environments with considering Shape and Elevation of the Terrain (가상환경에서 지형의 형태와 고도를 고려한 인터렉티브한 사운드 합성)

  • Park, Soyeon;Park, Seong-A;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.07a
    • /
    • pp.593-596
    • /
    • 2021
  • 본 논문에서는 지형의 고도와 기울기를 고려하여 사운드의 확산과 회절을 인터렉티브하게 표현할 수 있는 사운드 합성 기법을 제안한다. 우리의 접근 방식은 광선 추적법(Raytracing)을 기반으로 소리의 크기를 보여줄 수 있는 사운드 강도 맵을 빠르게 계산한다. 지형의 고도와 기울기 값을 고려하여 소리의 강도 맵에 가중치를 적용하여, 결과적으로 지형의 지오메트리 분석인 큰 계산 과정을 피하고 지형을 고려한 소리의 크기를 인터렉티브하게 업데이트한다. 이 과정에서 소리의 근원지에 따른 고도 간의 격차를 계산하여 소리의 크기를 자동으로 감쇠시키며, 주변 지형의 공간 기울기를 기반으로 기울기의 차에 따라 소리의 크기를 자동으로 감쇠시킨다. 본 논문에서 제안하는 방법을 이용한 소리는 실제 높낮이가 있는 현실의 지형에서 듣는 소리의 전파 및 감쇠와 유사한 형태를 보여주며, 소리의 위치에 따라서 소리 감소 패턴이 변경되고, 또한, 지형에 따라서 소리의 크기가 제어되는 결과를 보여준다.

  • PDF

Novel Sound Energy and Reversal Mapping for Procedural Sound Synthesis in Cloth Simulation (옷감 시뮬레이션의 절차적 사운드 합성을 위한 새로운 사운드의 에너지와 반전 매핑)

  • Kim, Dong-Hui;Moon, Seong-Hyeok;Shin, Young-Chan;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.587-590
    • /
    • 2022
  • 본 논문에서는 물리기반 옷감 시뮬레이션에 적합한 소리를 효율적으로 생성하기 위한 데이터 기반 합성 기법을 제안한다. 시뮬레이션에서 소리를 표현하는 방법은 크게 생성과 합성이 있지만, 합성은 실시간 애플리케이션에서 활용이 가능하기 때문에 인터랙티브한 환경에서 자주 활용되고 있다. 하지만, 데이터에 의존하기 때문에 원하는 장면에 부합하는 사운드를 합성하기는 어려우며, 기존 방법은 한 방향으로만 사운드 데이터를 검색하기 때문에 불연속으로 인한 끊김 현상이 발생한다. 본 논문에서는 양방향 사운드 합성 기법을 제시하며, 이를 통해 불연속적으로 합성되는 사운드 결과를 효율적으로 개선될 수 있음을 보여준다.

  • PDF

Efficient Sound Processing and Synthesis in VR Environment Using Curl Vector of Obstacle Object (장애물 객체의 회전 벡터를 이용한 VR 환경에서의 효율적인 음향 처리 및 합성)

  • Park, Seong-A;Park, Soyeon;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.01a
    • /
    • pp.369-372
    • /
    • 2022
  • 본 논문에서는 장애물 객체의 회전 벡터를 이용하여 VR 환경에서의 효율적으로 음향 처리 및 합성하는 방법을 제안한다. 현실에서 소리와 장애물이 있을 때, 소리는 장애물의 형태에 따라 퍼지면서 전파되는 형태를 보여준다. 이 같은 특징을 가상현실 환경에 유사하게 음향 처리하고자 하며 이를 위해 장애물 객체의 위치와 소리의 근원지 위치를 입력으로 소리의 전파 형태를 근사한다. 이때 모서리 부근에서 표현되는 소리의 회전을 계산하기 위해 장애물의 회전벡터(Curl vector)를 기반으로 소리의 회전을 추출하였으며, 장애물 형태를 컨볼루션(Convolution)하여 소리가 바깥 방향으로 전파되는 형태를 모델링한다. 또한, 장애물과 소리 벡터 사이의 거리, 소리 근원지와 소리 벡터 사이의 거리를 계산하여 소리의 크기를 감쇠 시켜 주며, 최종적으로 장애물 주변으로 퍼지는 벡터 모양인 외부벡터를 합성하여 장애물로부터 외부로 퍼지는 벡터의 방향을 설정한다. 본 논문에서 제안하는 방법을 이용한 소리는 장애물과의 거리와 형태를 고려하여 퍼지는 사운드 벡터 형태를 보여주며, 소리 위치에 따라 소리 감소 패턴이 변경되고, 장애물 모양에 따라 흐름이 조절되는 결과를 보여준다. 이 같은 실험은 실제 현실에서 소리가 장애물의 모양에 따라 나타나는 소리의 변화 및 패턴을 거의 유사하게 표현할 수 있다.

  • PDF

Formant Synthesis of Haegeum Sounds Using Cepstral Envelope (캡스트럼 포락선을 이용한 해금 소리의 포만트 합성)

  • Hong, Yeon-Woo;Cho, Sang-Jin;Kim, Jong-Myon;Chong, Ui-Pil
    • The Journal of the Acoustical Society of Korea
    • /
    • v.28 no.6
    • /
    • pp.526-533
    • /
    • 2009
  • This paper proposes a formant synthesis method of Haegeum sounds using cepstral envelope for spectral modeling. Spectral modeling synthesis (SMS) is a technique that models time-varying spectra as a combination of sinusoids (the "deterministic" part), and a time-varying filtered noise component (the "stochastic" part). SMS is appropriate for synthesizing sounds of string and wind instruments whose harmonics are evenly distributed over whole frequency band. Formants extracted from cepstral envelope are parameterized for synthesis of sinusoids. A resonator by Impulse Invariant Transform (IIT) is applied to synthesize sinusoids and the results are bandpass filtered to adjust magnitude. The noise is calculated by first generating the sinusoids with formant synthesis, subtracting them from the original sound, and then removing some harmonics remained. Linear interpolation is used to model noise. The synthesized sounds are made by summing sinusoids, which are shown to be similar to the original Haegeum sounds.

Theory of Acoustic Quanta and its Application on Sound Design (음향 양자 이론의 사운드 디자인적 응용)

  • Koo, Jahwan
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.19 no.9
    • /
    • pp.420-426
    • /
    • 2018
  • Acoustic Quanta, which British Physicist Dennis Gabor created, is the theoretical background for granular synthesis and has influenced many computer music artists and sound designers. Acoustic Quanta is a very short sound burst, lasting only 1 to 100 ms. Granular synthesis is a sound synthesis technique which slices original sound into sound grains and re-combines them into a new acoustic event. Concept of sound grain is borrowed from the acoustic quanta. Granular Synthesis can make very unique sound, so that it can be useful in many ways, especially in sound design. This paper presents concept of acoustic quanta and granular synthesis. It then discusses making a synthesizer as an implementation of synchronous granular synthesis and its applications on sound design. As a result, the duration of acoustic quanta should range between 0.239 and 33.367 ms, in consideration of audible frequencies, which is different from the original concept of the acoustic quanta.

Music Programming Language Composition Using Csound (Csound를 이용한 음악 프로그래밍 언어 제작)

  • Yeo Young-Hwan
    • The Journal of the Acoustical Society of Korea
    • /
    • v.24 no.7
    • /
    • pp.365-370
    • /
    • 2005
  • The present study is purposed to establish a systematic theory for user-friendly approach to the creation of using a programming language using Csound. Csound is a world-wide computer music programming language and a software synthesizer specialized for prominent sound designers developed by Barry Vercoe at the Media Laboratory in M.I.T. The introduction and the main body of this paper suggested as the starting point of creating electronic music and musical sound the time of combination of music with natural sound or sound from specific media from the viewpoint of traditional Western music. and presents a systematic method composed of the principle of the operation of Csound and basic data samples.

Spectral Modeling of Haegeum Using Cepstral Analysis (캡스트럼 분석을 이용한 해금의 스펙트럼 모델링)

  • Hong, Yeon-Woo;Kang, Myeong-Su;Cho, Sang-Jin;Kim, Jong-Myon;Lee, Jung-Chul;Chong, Ui-Pil
    • The Journal of the Acoustical Society of Korea
    • /
    • v.29 no.4
    • /
    • pp.243-250
    • /
    • 2010
  • This paper proposes a spectral modeling of Korean traditional instrument, Haegeum, using cepstral analysis to naturally describe Haegeum sounds varying with time. To get a precise result of cepstral analysis, we set the frame size to 3 periods of input signal and more cepstral coefficients are used to extract formants. The performance is enhanced by flexibly controlling the cutoff frequency of bandpass filter depending on the resonances in the synthesis process of sinusoidal components and the deleting peaks remained in the residual signal. To detect the change of pitch, we divide the input frames into silence, attack, and sustain region and determine which region the current frame is involved in. Then, the proposed method readjusts the frame size according to the fundamental frequency in the case of the current frame is in attack region and corrects the extraction errors of the fundamental frequency for the frames in sustain region. With these processes, the synthesized sounds are much more similar to the originals. The evaluation result through the listening test by a Haegeum player says that the synthesized sounds are almost similar to originals (96~100 % similar to the original sounds).

Audio-Visual Scene Aware Dialogue System Utilizing Action From Vision and Language Features (이미지-텍스트 자질을 이용한 행동 포착 비디오 기반 대화시스템)

  • Jungwoo Lim;Yoonna Jang;Junyoung Son;Seungyoon Lee;Kinam Park;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.253-257
    • /
    • 2023
  • 최근 다양한 대화 시스템이 스마트폰 어시스턴트, 자동 차 내비게이션, 음성 제어 스피커, 인간 중심 로봇 등의 실세계 인간-기계 인터페이스에 적용되고 있다. 하지만 대부분의 대화 시스템은 텍스트 기반으로 작동해 다중 모달리티 입력을 처리할 수 없다. 이 문제를 해결하기 위해서는 비디오와 같은 다중 모달리티 장면 인식을 통합한 대화 시스템이 필요하다. 기존의 비디오 기반 대화 시스템은 주로 시각, 이미지, 오디오 등의 다양한 자질을 합성하거나 사전 학습을 통해 이미지와 텍스트를 잘 정렬하는 데에만 집중하여 중요한 행동 단서와 소리 단서를 놓치고 있다는 한계가 존재한다. 본 논문은 이미지-텍스트 정렬의 사전학습 임베딩과 행동 단서, 소리 단서를 활용해 비디오 기반 대화 시스템을 개선한다. 제안한 모델은 텍스트와 이미지, 그리고 오디오 임베딩을 인코딩하고, 이를 바탕으로 관련 프레임과 행동 단서를 추출하여 발화를 생성하는 과정을 거친다. AVSD 데이터셋에서의 실험 결과, 제안한 모델이 기존의 모델보다 높은 성능을 보였으며, 대표적인 이미지-텍스트 자질들을 비디오 기반 대화시스템에서 비교 분석하였다.

  • PDF

인터렉티브 하이브리드 미디어 응용기술 -MPEG-4 SNHC를 중심으로-

  • 김형곤
    • Broadcasting and Media Magazine
    • /
    • v.3 no.2
    • /
    • pp.44-58
    • /
    • 1998
  • 최근의 멀티미디어 기술은 정보의 디지털화와 온라인화에 따라 가전, 컴퓨터, 통신 및 방송 기술이 융화되어 가는 추세에 있으며, 대화형의 하이브리드 멀티미디어 기술을 그 특징으로 하고있다. 하이브리드 멀티미디어는 컴퓨터 그래픽 및 미디(MIDI) 기술로 인위적으로 생성한 2D/3D그래픽 및 음향을 실제의 자연적인 영상과 소리에 추가하여 합성하므로 생성된다. MPEG-4는 이렇게 인위적으로 합성되거나 자연적인 영상 혹은 음향 정보의 디지털 하이브리드 멀티미디어 부호화를 목적으로 하며, 활성화된 혼합 미디어의 내용기반 처리, 상호, 동작 및 사용자의 쉬운 접근 등을 가능하게 한다. SNHC(Synthetic-Natural Hybrid Coding)는 기존의 수동적인 미디어의 전달뿐 아니라 실시간 처리가 가능한 인터랙티브 응용 분야까지 다루고 있으며, 통합된 시공간 부호화 기법을 사용하여 시각, 청각, 2차원, 3차원 컴퓨터 그래픽스 등 다양한 형태의 표준 AV(Aural/Visual) 객체를 처리한다. 표준화는 주로mesh-segmented 비디오 부호화, 구조물 부호화, 객체간의 동기화, AV 객체 스트림의 멀티플렉싱, 혼합 미디어 형태의 시-공간 통합화 등에서 이루어지게 되는데, 이는 궁극적으로 네트워크로 연결되는 가상 환경(Virtual Environment)에서 다수의 사용자가 서로 상호작용 할 수 있는 틀을 제공하는데 있다. 이러한 틀이 제공되면, 대화형 하이브리드 멀티미디어라는 새로운 형태의 정보를 사용함으로써 기존의 미디어로는 경험하지 못하는 다양한 응용과 서비스를 경험할 수 있을 것이다.

  • PDF