DOI QR코드

DOI QR Code

Reduced Raytracing Approach for Handling Sound Map with Multiple Sound Sources, Wind Advection and Temperature

  • Jong-Hyun Kim (College of Software and Convergence (Dept. of Design Technology), Inha University)
  • Received : 2023.08.07
  • Accepted : 2023.09.18
  • Published : 2023.09.30

Abstract

In this paper, we present a method that utilizes geometry-based sound generation techniques to efficiently handle multiple sound sources, wind turbulence, and temperature-dependent interactions. Recently, a method based on reduced raytracing has been proposed to update the sound position and efficiently calculate sound propagation and diffraction without recursive reflection/refraction of many rays, but this approach only considers the propagation characteristics of sound and does not consider the interaction of multiple sound sources, wind currents, and temperature. These limitations make it difficult to create sound scenes in a variety of virtual environments because they only generate static sounds. In this paper, we propose a method for efficiently constructing a sound map in a situation where multiple sounds are placed, and a method for efficiently controlling the movement of an agent through it. In addition, we propose a method for controlling sound propagation by considering wind currents and temperature. The method proposed in this paper can be utilized in various fields such as metaverse environment design and crowd simulation, as well as games that can improve content immersion based on sound.

본 논문에서는 기하학 기반의 사운드 생성 기법을 활용하여 1)다중 음원, 2)바람의 이류와 3)온도에 따른 상호작용을 효율적으로 처리할 수 있는 방법을 제시한다. 최근에 절감된 광선추적법(Reduced raytracing) 기반으로 사운드(Sound) 위치를 업데이트하고 많은 레이(Ray)의 재귀적인 반사/굴절 없이 사운드 전파와 회절을 효율적으로 계산하는 방법이 제안되었지만, 이 접근법은 사운드의 전파 특징만을 고려했지 다중 음원, 바람의 이류와 온도에 따른 상호작용은 고려하지 못했다. 이러한 한계는 정적인 사운드만 생성하기 때문에, 다양한 가상환경에서 사운드를 통한 장면 제작을 어렵게 만든다. 본 논문에서는 여러 개의 사운드가 배치된 상황에서 사운드 맵을 효율적으로 구성할 수 있는 방법과 이것을 통해 효율적으로 에이전트의 움직임을 제어할 수 있는 방법을 제시한다. 뿐만 아니라 바람의 이류와 온도를 고려하여 사운드 전파를 제어를 할 수 있는 방법을 제안한다. 본 논문에서 제안하는 방법은 사운드를 기반으로 콘테츠 몰입을 개선시킬 수 있는 게임뿐만 아니라 메타버스 환경 디자인, 군중 시뮬레이션 등 다양한 분야에서 활용이 가능하다.

Keywords

I. Introduction

비디오 게임에서 고품질의 사운드 효과는 게임 분위기와 몰입을 향상시킬 수 있기 때문에 중요한 작업이다. 대부분의 상호작용 애플리케이션은 객체와의 상호작용에 해당하는 사운드를 제공하기 위해 사전에 녹음된 사운드 클립을 활용한다. 예를 들어, 충격이나 알림과 같이 컴퓨터에서 생성된 게임 이벤트에 의해 원하는 사운드 효과를 간단히 표현할 수 있다[1,2]. 이 접근법은 사운드 생성 시간이 매우 빠르다는 장점이 있지만 물리적인 환경이나 움직임에 따른 사운드를 표현하기에는 충분하지 않다. 사운드의 물리적인 특징(반사, 굴절, 회절 등)을 온전히 표현하려면 계산양이 커지기 때문에 실시간 애플리케이션이나 게임에는 활용이 어렵다. 이 문제는 물리 기반으로 사운드를 생성하는 시스템에서도 동일하게 나타나는 한계점이다[3-5]. 특히 객체와의 충돌에 의해 표현되는 힘을 사운드 시스템에 전달해야 된다. 물론 충돌 되는 시점에서 계산된 힘만을 이용하여 사운드 크기를 표현할 수는 있지만 물리적으로 정확한 방법은 아니다. 사운드는 반사 및 굴절에 따라 사운드가 들리는 영역과 크기가 달라지기 때문에 최근에는 사운드 맵을 통해 이 문제를 효율적으로 풀려는 연구가 제안되었다[6]. 이 접근법은 사운드 자체의 특징인 반사와 회절을 효율적으로 표현했지만, 다중 음원과 에이전트의 상호작용뿐만 아니라 바람이나 온도에 대한 특징을 사운드 전파에 고려하지 않았다. 이러한 한계는 다양한 산업(게임, 영상특수효과, 혼합현실 등)에 활용되기 어렵게 하는 원인이기 때문에 본 논문에서는 사운드 맵을 기반으로 다중 음원, 바람 이류 및 온도와의 상호작용 문제를 효율적으로 해결하고자 한다.

본 논문에서는 다수개의 사운드 처리와 바람 이류 및 온도를 기반으로 사운드 맵을 효율적으로 제어할 수 있는 방법을 제시한다. 일반적으로 질량-스프링 시스템은 유한요소법보다 정확하게 모델을 근사시킬 수 있고, 표면으로부터 표현되는 진동을 통해 사운드를 표현할 수 있다[7-9]. 이 접근법은 물체 표면의 운동 방정식에 대한 해석적 해를 계산하는 방법이며, 이를 통해 사운드 에너지를 계산한다. 그러나 이 접근법은 실시간 처리가 어려울 뿐만 아니라, 계산 복잡도가 표면을 구성하고 있는 삼각형 혹은 다면체개수에 의존하기 때문에 계산양이 크다. 가상환경에서 에이전트와 사운드 개수가 많을수록 온라인에서의 계산양이 커진다. 최근에는 이러한 알고리즘 복잡도를 줄이기 위해 계산 공간을 3차원에서 2차원으로 줄이고, 사운드의 특징인 반사와 굴절, 그리고 회절을 효율적으로 표현한 방법에 제시되었다[6]. 하지만 이 방법은 사운드의 특징만을 고려했기 때문에 다중 음원과 사운드의 상호작용을 고려하지 못했고 바람의 이류 및 온도가 사운드 볼륨에 영향을 주지 못했다. 본 논문에서는 이러한 한계점을 사운드 맵을 통해 효율적으로 해결할 수 있는 방법을 제안한다.

Fig. 1은 본 논문에서 제안하는 알고리즘 개요이다. 기하학 접근 방식의 사운드 전파로부터 전파 에너지를 효율적으로 변형할 수 있는 방법을 제안하며, 이를 통해 몰입형 사운드 가상환경을 효율적으로 구축할 수 있게한다.

CPTSCQ_2023_v28n9_55_f0001.png 이미지

Fig. 1. Algorithm overview.

II. Related Work

컴퓨터 애니메이션과 비디오 게임에서 오디오 생성의 중요성은 콘텐츠의 품질과 연결되어 있기 때문에 그 중요성은 점차 커지고 있다. 강체의 경우 대부분의 재질이 균등하기 때문에 외부 충격이 가해지면 강한 진동으로 인한 공명을 나타낸다. 물리 모델을 사용하여 물체의 표면 진동을 계산하는 개념은 질량과 댐핑(Damping) 스프링을 사용하여 처음으로 제안되었다[10]. 이후 좀 더 정확하게 진동을 모델링하기 위해 유한요소법을 활용하여 물리 기반으로 사운드를 합성했다[7,8]. 이 접근법은 시뮬레이션 매개변수가 물리적으로 측정한 값과 관련 있기 때문에 물리적으로 정확하지만, 앞에서 언급했듯이 구현이 복잡하고 시뮬레이션 계산시간이 오래 걸리기 때문에 온라인상에서 계산양이 커지게 된다.

이 접근법에 대한 성능 문제를 해결하기 위해 van den Doel and Pai는 수치 적분 대신에 물체의 진동 모드를 해석적으로 계산하여 속도를 향상시키고 실시간 사운드 합성을 가능하게 했다[11,12]. 그러나 임의의 3D 모델 형상에서 진동을 계산하는 방정식은 복잡하기 때문에 풀고자하는 장면이 간단한 경우에만 적용이 가능하다는 한계가 있다. 복잡한 장면을 다루기 위한 해결책으로는 크게 두가지 접근법이 있다. 첫 번째는 주어진 모델 형상에 대한 물리적 측정을 사용하여 진동 모드와 충격지점에 대한 상관관계를 계산하는 것이다[13]. 향후 이 모드를 실시간 애플리케이션에 활용하여 사실적인 합성 사운드를 생성한다. 그러나 임의의 3D 모델에서 청각적인 특징을 찾기 위해서는 물리적인 접근을 거쳐야 한다. 이를 위해 O’Brien et al.은 3D 모델을 사면체 체적 요소로 이산화하여 임의의 형태를 처리할 수 있는 방법을 제안했으며[9], 이들은 유한 요소법을 기반으로 이 문제를 풀 수 있음을 보여주었다. 따라서 임의의 형태에 대한 물체를 모델링하고 인터랙티브한 속도로 사실적인 사운드를 시뮬레이션 할 수 있게 됐다. Raghuvanshi와 Lin은 단순화된 질량 포인트(Simplified mass point)와 댐핑 스프링을 사용하여 표면 진동을 모델링했다[14]. Bonneel et al.은 푸리에(Fourier) 계수를 빠르게 합산하여 모달(Modal) 합성이 가능한 방법을 제시했다[15]. James et al.은 모달 진동의 음향 압력 진폭을 추정하기 위해 사전에 계산된 음향 전달 방식을 도입하여 모달 진동의 음향 압력 진폭을 추정했다[16]. 이 방법은 Li et al.에 의해 간단한 매개변수 조정과 효율적인 사전 계산 방식으로 개선되었다[17]. Ren et al.은 미리 녹음된 오디오 클립을 사용하여 재질 파라미터를 추정하는 새로운 방법을 제시했다[18].

몰입형 환경에서 사운드 합성을 위해 여러 객체들을 스케줄링(Scheduling)하는 것이 중요하다[19]. 이들은 객체의 우선순위 지정에 따라 반복적으로 시간 할당량을 적용하는 시스템을 제안했다. 이 시간 할당 접근법을 이용하여 사운드 생성을 좀 더 사실적으로 표현할 수 있다. van den Doel et al.은 주파수 마스킹(Frequency masking)을 활용하여 강체와 수많은 입자들에 대한 사운드 합성 기법을 제안했다. 최근에는 충격과 구르는 사운드 외에 미끄러지는(Sliding) 사운드를 처리할 수 있는 방법이 제안되었다[20]. 이 기법에서 밀리미터 미만의 표면 기하구조는 확률론적으로 모델링하고, 중간 스케일의 기하구조는 렌더링에 사용되는 노말 맵(Normal map)을 이용하여 진동을 얻고 그로부터 사운드를 합성했다. 하지만 대부분의 방법들이 사운드의 확산만을 표현하려고 했으며, 다중 음원과 에이전트의 상호작용이나 주변 환경(온도나 바람 등)을 고려하지 못했다. 본 논문에서는 이러한 문제에 집중하여 효율적으로 풀어 낼 수 있는 새로운 방식을 제안한다. 최근에 2차원 파동 시뮬레이션을 이용하여 사운드를 전파할 수 있는 기법이 제안되었다[21]. 최근에는 인공신경망을 이용하여 음파의 전파를 예측하는 기법도 제안되었다[22].

III. The Proposed Scheme

최근에 Kim et al.은 기하구조 기반의 접근법인 절감된 광선추적법(Reduced raytracing)을 통해 사운드를 제어할 수 있는 맵을 생성했으며[6], 이를 이용하여 사운드의 볼륨을 제어할 수 있는 방법을 제안했다. 이번 장에서 본 논문에서 활용하고 있는 기반기법인 사운드 합성 방식에 대해서 간단하게 살펴본다. 그리고 난 뒤 이 기법을 주변 에이전트와 환경에 따라 확장할 수 있는 방법을 설명한다.

1. Sound Representation via Sound Field

본 논문에서는 사운드의 회절을 고려한 맵을 계산하기 위해 Kim et al.의 방법을 활용하며, 이번 장에서는 이를 계산하기 위한 방법을 간단하게 설명한다[6]. 사운드의 근원 위치로부터 많은 개수의 레이를 쏘고, 장애물과 충돌된 횟수에 비례하여 사운드의 크기를 감쇠시킨다. 이를 고려한 사운드의 크기인 Γcp는 수식 1을 통해 표현된다.

Γcp = (1 - αh)2       (1)

여기서 h는 장애물과 충돌된 레이의 개수이며, α는 장애물 재질에 따른 소리의 감쇠 정도이고, 0에서 1사이의 값을 가진다. 근사된 회절 소리의 위치는 수식 2를 이용하여 계산한다.

\(\begin{aligned}\Gamma_{c p}^{p}=\frac{\sum_{k=0}^{\left\|V_{h}\right\|} V_{h}^{k}+\left(\sum_{k=0}^{\left\|V_{n h}\right\|} V_{n h}^{k} w\right)}{N}\end{aligned}\)       (2)

여기서 N은 굴절 벡터의 개수, Vh와 Vnh는 각각 장애물과 충돌된 굴절 벡터와 충돌되지 않은 벡터를 나타낸다. w는 장애물 재질에 따른 굴절 정도를 나타내는 값으로 상수이며, 이 값은 소리의 흡수를 정도를 나타내기 때문에 사용자가 선택할 수 있는 값이다. 근사된 회절 위치 값을 계산한 후 장애물을 기준으로 사용자가 어디에 있는지 판별해서 장애물 너머에 위치해 있다면 회절 소리만을 이용하여 소리의 크기를 계산하고, 그렇지 않으면 원본 소리를 고려하여 사운드 크기를 계산한다. Fig. 2는 회전되는 장애물에서 표현된 사운드의 크기 맵을 시각화한 결과이다.

CPTSCQ_2023_v28n9_55_f0002.png 이미지

Fig. 2. Generation sound map with previous method[6].

2. Deformation of Sound Field with Wind Advection

바람을 고려한 사운드 전파의 변형을 개발할 때 사운드 크기 맵은 2차원 데이터 형태로 제공된다고 가정한다[6]. 격자 데이터에는 사운드 크기가 스칼라 형태로 저장되어 있으며, 바람이 부는 방향을 알고 있다면 사운드의 전파 방향이 바람을 어떻게 변형시키고 이동시키는지 알아야 한다. 우선 사운드 전파 방향을 표현한 광선(Ray)이 통과하는 노드를 찾고, 그 노드에 있는 사운드의 크기를 알아야 한다. 바람이 부는 순간에 사운드의 크기 추정은 시간에 따른 보간(Time interpolation)이 아니라, 본 논문에서는 사운드 크기 이류(Advection)를 기반으로 사운드 전파를 변형한다. 사운드 크기에 대한 이류는 준 라그랑지안(Semi-Lagrangian) 이류를 사용하여 바람이 부는 순간에서 변형된 사운드 크기를 추정한다 (수식 3 참조). 여기서 f는 선형 보간법이며, v(x)는 바람의 속도이다.

x = (iΔx, jΔy)

x' = x - v(x)Δt

s'(i, j) = f(s, x')       (3)

시간 보간과 위치기반으로 추정한 변형된 사운드 크기는 잘못된 결과를 제공한다 (Fig. 3 참조). 위 그림과 같이 바람이 일정한 속도로 수평 방향을 따라 운동한다고 했을 때 이를 표현할 수 있는 간단한 방식은 마치 사운드 근원지가 바람의 방향과 동일하게 이동하는 것처럼 표현하는 것이다. 하지만 바람은 유동적인 형태를 가지고 있고 유체 방정식에 의해 이류되기 때문에 비선형적인 움직임을 가진다. 이런 간단한 상황에서도 시간 보간으로 측정된 값인 φTI는 실제 값인 φ와 차이가 나기 때문에 본 논문에서는 수식 3을 이용하여 변형된 사운드 크기를 계산한다.

CPTSCQ_2023_v28n9_55_f0003.png 이미지

Fig. 3. Characterizing sound loudness changes with wind in a simple example : (a) the snapshot at tn, (b) the snapshot at tn+1, (c) the situation at τ, (d) the sound loudness changes.

3. Multiple Sound Sources

한 장면에 여러 개의 사운드가 존재할 때 효율적으로 사운드 맵을 구성하기 위해 본 논문에서는 사운드의 크기를 기반으로 맵을 정규화한다. 사운드의 개수가 N개라고 했을 때 사운드 맵은 다음과 같이 정제한다 (수식 4 참조).

\(\begin{aligned}\Omega^{\prime}=\frac{\sum_{s=0}^{N} \widehat{\Omega_{i, j}^{s}}}{\max \left(\Omega_{i, j}^{0, \ldots, N}\right)}\end{aligned}\)       (4)

여기서 Ω는 이전 기법을 통해 만들어진 사운드 맵이며, Ω0,...,Ni,j는 다수 개의 사운드 소스로부터 (i, j)위치에서 측정된 사운드 크기이다. Fig. 4은 다수 개의 사운드 소스로부터 생성된 사운드 맵을 시각화한 결과이다. 그림에서 보듯이 사운드 소스 근처는 빨간색으로 표시되고, 그 주변으로 사운드 에너지가 전파된 형태를 잘 표현하고 있다. Fig. 5는 다수 개의 사운드 소스로부터 계산된 맵을 기반으로 에이전트가 이동하는 결과이다. Fig. 5a는 2개의 사운드 소스 중에서 상대적으로 가까운 사운드 지점으로 에이전트가 이동하는 결과이다. 에이전트의 초기 지점으로부터 위쪽에 있는 사운드까지 실시간으로 움직이는 결과를 얻을 수 있다. 이와 다르게 Fig. 5b는 2개의 사운드 크기의 차이가 크도록 설정했으며, 에이전트가 소스 위치뿐만아니라 사운드 크기를 고려할 수 있는지를 보기 위한 실험이다. 그림에서 보듯이 상대적으로 소리가 큰 아래쪽 사운드 소스 방향으로 에이전트가 이동하는 것을 볼 수 있다.

CPTSCQ_2023_v28n9_55_f0004.png 이미지

Fig. 4. Generated sound map from multiple sound sources.

CPTSCQ_2023_v28n9_55_f0005.png 이미지

Fig. 5. Trajectory of an agent by considering multiple sounds.

본 논문에서는 에이전트와 사운드 소스간의 거리보다는 소리의 크기에 가중치를 더 높게 두었다. 실시간으로 에이전트의 이동을 표현하기 위해 본 논문에서는 네비게이션 메쉬(Navigation mesh) 탐색 형태로 기본적인 에이전트의 움직임을 표현한다. 목표 지점은 에이전트 위치에서 얻은 가중치인 W를 이용하여 결정한다. 여기서 가중치는 다음과 같이 계산한다 (수식 5 참조).

Wi(x) = (1 - η)Sidist + ηSimag       (5)

여기서 η는 보간을 위한 가중치이고, Sdist와 Smag는 각각 사운드 근원지로부터의 거리와 크기 값이며, i는 사운드의 개수를 나타내는 인덱스이다. 본 논문에서는 η를 0.7로 설정했고, 단순한 거리보다는 들리는 사운드의 크기에 좀 더 가중을 두었다. 모든 사운드마다 W를 계산하고 그 중에서 가장 큰 값을 가진 사운드를 목표지점으로 지정해서 이동한다. 목표지점은 진행 중에 다른 곳에서 사운드 크기와 사운드 소스의 위치가 변경되면 수정될 수 있다.

4. Sound Map Variations Based on Altitude and Temperature

일상생활에서는 음속은 340m/s를 사용하지만 이것은 절대적인 수치가 아니며, 영상 15도 기준 공기 중에서 표현되는 소리의 속도이다. 실제로는 온도 및 밀도의 영향을 크게 받는다. 물리적으로 사운드의 속도는 다음과 같이 계산된다 (수식 6 참조).

\(\begin{aligned}V_{a i r}=\sqrt{\frac{K_{s}}{\rho}}\end{aligned}\)       (6)

여기서 Ks는 물체의 탄성 계수이며, ρ는 물체의 밀도이다. Ks는 외부 변화에 변형이 잘되는지 나타내는 상수이다. 이때 공기를 이상기체(Ideal gas)로 가정하면 Ks = γp이며 (여기서 γ는 열용량 비이며, 공기의 경우 1.4이고, p는 압력이다), 이상기체법칙을 이용하면 사운드의 속도는 다음과 같이 쓸 수 있다 (수식 7 참조).

\(\begin{aligned}V_{a i r}=\sqrt{\gamma R T}\end{aligned}\)       (7)

여기서 γ는 단열계수, R은 이상기체 상수, T는 절대온도이다. 결과적으로 본 논문에서는 고도가 높을수록 기압이 낮아지며, 결국 소리의 이동 속도가 감쇠되는 특징을 효율적으로 구현하기 위해 다음과 같은 방식으로 사운드 맵을 수정한다 (수식 8 참조).

x = (iΔx, jΔy)

x' = x - v(x)VairΔt

s'(i, j) = f(s, x')       (8)

여기서 f는 선형 보간법이며, v(x)는 바람의 속도이다. 위 수식은 준 라그랑지안 이류에 사운드의 속도인 Vair를 고려하여 보간 정도를 제어한 수식이다. 시간에 따른 역으로(Backward) 위치를 알아내기 위해 -∆t를 곱하고, 사운드 속도를 고려하여 위치를 수정하기 때문에 최종적인 역 위치를 고려한 가중치는 다음과 같다 : -v(x)Vair∆t.

또한 일반적으로 고도가 높을수록 온도가 낮아지고 이는 소리의 속도여 영향을 준다. 음파와 열은 모두 에너지의 한 형태이다. 물질의 분자는 모두 빠르게 진동하고 있고, 그 진동 속도는 온도가 높을수록(에너지가 커지므로) 빨라진다. 그러므로 소리가 전달되는 속도는 물질의 온도가 높을수록 빨라진다. 이를 모델링하기 위해 본 논문에서는 지형에 따른 사운드 맵을 고려할 때 사용한 가중치 맵을 이용하여 수식 7에서의 T를 결정한다. γ와 R은 장면에 따라 사용자가 설정할 수 있는 변수로 설정했다. Fig. 6는 지형의 고도 맵을 이용하여 T를 계산한 결과이며, 절단면은 Fig. 6b에서 보듯이 지형의 고도를 나타낸다. 일반적으로 지형의 고도는 높을수록 온도가 낮아지기 때문에 사운드 전파는 (1)에서 (3)으로 갈수록 빨라진다.

CPTSCQ_2023_v28n9_55_f0006.png 이미지

Fig. 6. Temperature variation with terrain elevation.

IV. Experiment and Results

본 연구의 결과들을 만들기 위해 실험한 환경은 Intel Core i7-7700K CPU, 32GB RAM, Geforce GTX 1080Ti GPU가 탑재된 컴퓨터를 이용하였다. 본 연구에서는 1) 바람의 이동을 사운드 맵 변경, 2) 다수 개의 사운드들로부터 사운드 맵 구성, 3) 그리고 지형의 고도와 온도를 고려한 사운드 맵 제어를 할 수 있는 방법을 제시했다.

본 논문에서는 유체의 이류과정에서 활용되는 준 라그랑지안 이류를 이용하여 바람 방향에 따라 사운드 전파가 변형되는 알고리즘을 제안했다. 이 방법을 통해 사운드의 반사, 굴절, 회절뿐만 아니라 바람을 고려하여 사운드의 크기를 제어할 수 있기 때문에 게임, 혼합현실, 메타버스 등에서 가상환경을 모델링할 때 활용될 수 있다. Fig. 7은 바람의 각각 오른쪽 (Fig. 7b 참조)과 왼쪽방향 (Fig. 7c 참조)으로 불었을 때 변경된 사운드 전파 맵을 계산한 결과이다. 바람이 없을 때 (Fig. 7a 참조)와 비교했을 때 사운드 전파 형태가 변형된 결과를 볼 수 있다. 이 맵에서 표현된 색은 사운드의 크기이다.

CPTSCQ_2023_v28n9_55_f0007.png 이미지

Fig. 7. Sound propagation deformed by wind direction and magnitude : (a) calm, (b) light wind(direction : rightward), (c) strong wind(direction : leftward).

Fig. 8은 다수 개의 사운드 소스로 부터 생성된 사운드 맵과 그 맵을 이용해 에이전트의 이동궤적을 계산한 결과이다. 사운드가 서로 멀리 떨어진 경우 서로 고립된 형태의 사운드 맵이 계산되며 (Fig. 8a 참조), 그 중에서 상대적으로 거리가 가깝고 사운드 크기가 큰 쪽으로 에이전트가 이동하는 결과를 보인다 (Fig. 8b 참조). 이와는 다르게 사운드의 위치가 서로 가까운 경우 물리 기반 모델링에서 나타나는 사운드 브리지(Sound bridge)형태가 표현되는 것을 볼 수 있다 (Fig. 8c 참조). 여기서 말하는 사운드 브리지는 사운드의 영향을 받는 범위가 가까울 때 자연스럽게 합쳐지는 영역을 말한다. Fig. 8b에서 나타난 결과와 유사하게 사운드의 크기가가 상대적으로 큰 쪽으로 에이전트가 이동되는 결과를 보이고 있다 (Fig. 8d 참조).

CPTSCQ_2023_v28n9_55_f0008.png 이미지

Fig. 8. Sound map generation of multiple sound sources and agent trajectory.

Fig. 9는 온도에 기반 한 고도 맵을 이용하여 사운드 맵을 변형한 결과이다. Fig. 9a는 Fig. 6a에서 사용한 지형의 고도와 같은 형태이다. 이 결과에서는 온도를 표현하는 고도의 형태에 따라 사운드 맵이 변형되는 결과를 보여주기 위해 직관적으로 고도 맵을 보여주었다. 바람의 방향이 오른쪽 상단방향이라고 가정했을 때 고도에 따른 사운드 맵의 변화는 Fig. 9b와 같다. 고도가 높이를 무지개 색 형태로 표현했기 때문에 빨간색은 온도의 영향에 따른 변형이 크게 받도록 설정하였고, 노란색, 그리고 파란색 계열로 갈수록 온도의 영향에 따른 변형이 상대적으로 덜 받도록 했으며, Fig. 9b는 그에 따른 결과를 잘 보여주고 있다. Fig. 9는 고도(온도)에 따른 사운드 맵을 직관적으로 보여 주고자 고도 맵을 시각화 그림을 보여주고 있으며, Fig. 9a와 비교했을 때 Fig. 9b에서는 온도와 바람방향으로 인해 색들이 이동되는 것을 볼 수 있다.

CPTSCQ_2023_v28n9_55_f0009.png 이미지

Fig. 9. Sound Map Variations with Temperature.

V. Conclusions

본 논문에서는 절감된 광선추적법 기반으로 효율적으로 사운드 맵을 구성하는 이전 기법의 한계점인 문제를 해결하였다 : 1) 다수 개의 사운드 맵으로 확장, 2) 바람의 이류를 이용한 사운드 맵 변형, 3) 온도에 따른 사운드 전파 변형. 절감된 광선추적법을 이용하여 사운드의 물리적 특징뿐만 아니라 변형과 상호작용 기술에도 확장함으로써 활용 가능성이 더 넓어졌다. 특히 이전 기법에서는 표현하지 못했던 바람의 이류와 온도에 따른 사운드 전파의 변형을 기하학 접근법에 맞게 효율적으로 설계했다. 본 논문에서 제안하는 방법은 사운드 몰입형 가상환경뿐만 아니라, 게임, 청각을 중요시하는 콘텐츠뿐만 아니라, 사실적인 사운드 효과를 필요로하는 영상특수효과에서도 효율적으로 활용될 수 있다.

그럼에도 불구하고 몇 가지 한계점이 있다. 일단 온전한 3D에서 이동되는 에이전트는 사운드 맵을 통해 제어하기 힘들다. 예를 들어 2D 지형을 이동하는 에이전트가 아닌, 3D 공간을 자유롭게 이동하는 새의 경우 현재 알고리즘을 3D로 사운드 에너지를 전파해야 한다. 앞으로 에이전트의 3D 이동을 온전하게 표현할 수 있도록 알고리즘을 확장할 계획이다.

ACKNOWLEDGEMENT

This work was supported by INHA UNIVERSITY Research Grant. This research was supported by Basic Science Research Program through the National Research Foundation of Korea(NRF) funded by the Ministry of Education(2022R1F1A1063180).

References

  1. Takala, Tapio, and James Hahn. "Sound rendering." In Proceedings of the 19th annual conference on Computer graphics and interactive techniques, pp. 211-220, 1992. DOI: 10.1145/142920.134063
  2. Cheong, Y.G. and Bae, B.C., "Procedural Content Generation or Games". Communications of the Korean Institute of Information Scientists and Engineers, Vol. 31, No 7, pp.16-25, October, 2016. DOI: 10.1145/2422956.2422957
  3. Langlois, T.R., Zheng, C. and James, D.L., "Toward animating water with complex acoustic bubbles". ACM Transactions on Graphics, Vol. 35, No 4, pp.1-13, July, 2016. DOI: 10.1145/2897824.2925904
  4. Langlois, T.R., An, S.S., Jin, K.K. and James, D.L., "Eigenmode compression for modal sound models". ACM Transactions on Graphics, Vol. 33, No 4, pp.1-9, July, 2014. DOI: 10.1145/2601097.2601177
  5. Langlois, T.R. and James, D.L., "Inverse-foley animation: Synchronizing rigid-body motions to sound". ACM Transactions on Graphics, Vol. 33, No 4, pp.1-11, July, 2014. DOI: 10.1145/2601097.2601178.
  6. Jong-Hyun Kim, Jong-In Choi, "Efficient Sound Control Method in Virtual Environments Using Raytracing Based Diffraction", Journal of the Korea Society of Computer and Information , pp. 81-87, 2022. DOI: 10.9708/jksci.2022.27.11.081.
  7. Chaigne, A. and Doutaut, V., "Numerical simulations of xylophones. I. Time-domain modeling of the vibrating bars". The Journal of the Acoustical Society of America, Vol. 101, No 1, pp.539-557, January, 1997. DOI: 10.1121/1.418117.
  8. O'Brien, James F., Perry R. Cook, and Georg Essl. "Synthesizing sounds from physically based motion." In Proceedings of the 28th annual conference on Computer graphics and interactive techniques, pp. 529-536. 2001.
  9. O'Brien, James F., Chen Shen, and Christine M. Gatchalian. "Synthesizing sounds from rigid-body simulations." ACM SIGGRAPH/Eurographics symposium on Computer animation, pp. 175-181. 2002. DOI: 10.1145/545261.545290.
  10. Florens, Jean-Loup, and Claude Cadoz. "The physical model: modeling and simulating the instrumental universe." pp. 227-267, 1991.
  11. Van de Doel, Kees, and Dinesh K. Pai. "Synthesis of shape dependent sounds with physical modeling." Georgia Institute of Technology, 1996.
  12. Van den Doel, K. and Pai, D.K., "The sounds of physical shapes. Presence", Vol. 7, No 4, pp.382-395, August, 1998. https://doi.org/10.1162/105474698565794
  13. Van Den Doel, Kees, Paul G. Kry, and Dinesh K. Pai. "FoleyAutomatic: physically-based sound effects for interactive simulation and animation." In Proceedings of the 28th annual conference on Computer graphics and interactive techniques, pp. 537-544. 2001. DOI: 10.1145/383259.383322
  14. Raghuvanshi, N. and Lin, M.C., "Interactive sound synthesis for large scale environments". In Proceedings of the 2006 symposium on Interactive 3D graphics and games, pp. 101-108, 2006. DOI: 10.1145/1111411.1111429
  15. Bonneel, Nicolas, George Drettakis, Nicolas Tsingos, Isabelle Viaud-Delmon, and Doug James. "Fast modal sounds with scalable frequency-domain synthesis." In ACM SIGGRAPH, pp. 1-9, 2008. DOI: 10.1145/1360612.1360623
  16. James, D.L., Barbic, J. and Pai, D.K., "Precomputed acoustic transfer: output-sensitive, accurate sound generation for geometrically complex vibration sources". ACM Transactions on Graphics, Vol. 25, No 3, pp.987-995, July, 2006. DOI: 10.1145/1141911.1141983
  17. Li, D., Fei, Y. and Zheng, C., "Interactive acoustic transfer approximation for modal sound". ACM Transactions on Graphics, Vol. 35, No 1, pp.1-16, December, 2015. DOI: 10.1145/2820612
  18. Ren, Z., Yeh, H. and Lin, M.C., "Example-guided physically based modal sound synthesis". ACM Transactions on Graphics, Vol. 32, No 1, pp.1-16, February, 2013. DOI: 10.1145/2421636.2421637.
  19. H. Fouad, J. Ballas, and J. Hahn. "Perceptually based scheduling algorithms for real-time synthesis of complex sonic environments". In Proc. Int. Conf. Auditory Display, pp. 1-5, 1997.
  20. Zhimin Ren, Hengchin Yeh, and Ming C. Lin. "Synthesizing contact sounds between textured models." In 2010 IEEE Virtual Reality Conference, pages 139-146, 2010. DOI: 10.1109/VR.2010.5444799
  21. Rosen, Matthew, Keith W. Godin, and Nikunj Raghuvanshi. "Interactive sound propagation for dynamic scenes using 2D wave simulation." In Computer Graphics Forum, Vol. 39, No. 8, pp. 39-46. November, 2020. DOI: 10.1111/cgf.14099
  22. Alguacil, Antonio, Michael Bauerheim, Marc C. Jacob, and Stephane Moreau. "Predicting the propagation of acoustic waves using deep convolutional neural networks." Journal of Sound and Vibration, Vol. 512, pp. 116285, November, 2021. DOI: 10.1016/j.jsv.2021.116285