DOI QR코드

DOI QR Code

Implementation of Stereophonic Sound System Using Multiple Smartphones

여러 대의 스마트폰을 이용한 입체 음향 시스템 구현

  • Kim, Ki-Jun (Dept. of Electronics Engineering, Kwangwoon University) ;
  • Myeong, Chang-Ho (Dept. of Electronics Engineering, Kwangwoon University) ;
  • Park, Hochong (Dept. of Electronics Engineering, Kwangwoon University)
  • Received : 2014.09.01
  • Accepted : 2014.11.11
  • Published : 2014.11.30

Abstract

In this paper, we propose a stereophonic sound system using multiple smartphones. In the conventional sound systems using smartphones, all devices play the same signal so that it is difficult to provide true stereophonic effect. In order to solve this problem, we propose a novel sound system which can generate a virtual sound source at any location in such a way that smartphones at different locations play different signals with amplitude panning. By using the proposed system, we can generate more realistic stereophonic effect than the conventional system, and can control the sound effect by user's command. We developed the proposed system using commercial smartphones and verified that the developed sound system effectively provides the desired stereophonic effect.

본 논문에서는 여러 대의 스마트폰을 이용하여 입체 음향을 재현하는 시스템을 제안한다. 기존의 스마트폰을 이용한 음향 시스템은 여러 기기에서 동일 신호를 재생하는 방식이기 때문에 입체감을 제공하기 어렵다. 이를 해결하기 위하여 본 논문에서는 다른 위치에 있는 기기 별로 서로 다른 신호를 재생하고 진폭 패닝 기법을 사용하여 임의의 위치에 가상 음원을 생성하는 시스템을 제안한다. 제안한 방법을 사용하면 기존 방법보다 우수한 입체감을 제공할 수 있으며, 사용자의 설정에 따라 자유롭게 입체 음향 효과를 조정할 수 있다. 상용 스마트폰을 이용하여 제안하는 시스템을 구현하였으며, 구현한 시스템이 원하는 입체 음향 효과를 제공하는 것을 확인하였다.

Keywords

Ⅰ. 서 론

입체 음향은 음의 고저와 음색뿐만 아니라 방향이나 거리감까지도 재현하여 실제 환경과 유사한 음장감을 제공하는 음향을 의미한다[1]. 최근에는 이와 같은 입체 음향 효과를 다채널 스피커를 기반으로 제공하는 방법에 대한 연구가 활발히 진행 중이다. 다채널 스피커 기반의 입체 음향시스템은 인간의 청각 특성에 관한 이론을 토대로 더 자연스럽고 정확한 방향감과 음장감을 재현할 수 있는 장점을 가진다[2]. 그러나 다채널 스피커 시스템은 여러 대의 스피커를 사용하기 때문에 구현 시 큰 비용과 많은 노력이 필요하다는 단점을 가진다[3]. 다채널 스피커 시스템을 간단히 구현하기 위해 여러 대의 스마트폰이 각각 독립 스피커 역할을 수행하도록 하는 응용 제품들이 최근 개발되었다. 예로, group play는 스마트폰에 저장된 음악 파일을 여러 스마트폰이 공유하고 해당 파일을 여러 대의 스마트폰에서 동시에 재생하도록 한다[4]. 이를 통하여 공간적으로 다른 위치에서 음원이 동시에 재생되는 멀티 스피커 동작을 수행할 수 있다. 그러나 이 시스템에서는 여러 위치에서 동일한 음원만 재생되므로 음원의 재현 공간만 확장될 뿐이며 실제 입체 음향을 재현하지는 못한다.

입체 음향 효과를 제공하기 위해서는 서로 다른 위치에 존재하는 스피커에서 음원의 재생 특성을 각각 조절하여 음원의 가상 위치와 움직임 등을 표현해야 한다[2,3]. 또한, 사용자가 임의로 설정한 입체감을 제공하기 위해 각 스피커에서 재생되는 신호의 자유로운 조정이 필요하고, 스피커 위치를 변경하지 않고 입체감의 변경을 위해 각 스피커의 신호 재생 특성을 실시간으로 변경하는 기능이 포함되어야 한다. 이와 같은 조건을 만족하기 위하여, 여러 대의 스피커로 구성된 음향 시스템은 중앙 제어 신호에 따라 각 스피커에서 서로 다른 신호를 재생하고, 무선 제어를 위해 중앙 제어 신호를 무선으로 스피커로 전송하는 실시간 통신 기능을 가져야 한다. 스마트폰은 이미 블루투스와 같은 무선 통신 기능을 포함하므로 스마트폰 사이의 통신을 통하여 필요한 정보 전달이 가능하며, 각 스마트폰이 다수의 음악 파일을 저장하고 주어진 명령에 따라 특정 파일을 재생하도록 하여 각 스마트폰에서 서로 다른 사운드가 출력되게 할 수 있다. 따라서 여러 대의 스마트폰으로 멀티 스피커 시스템을 구성하면, 무선 통신과 자유로운 사운드 재생 기능을 통하여 원하는 입체 음향을 제공하는 시스템 구현이 가능하다.

이상의 배경에 따라, 본 논문에서는 여러 대의 스마트폰을 이용한 입체 음향 시스템을 제안한다. 제안한 시스템에서 스마트폰은 마스터 기기 또는 스피커 기기 역할을 수행하고, 사용자는 마스터 기기를 통하여 원하는 입체 음향 효과를 입력하고, 마스터 기기는 입력된 효과를 재현하기 위한 재생 파라미터를 계산하여 각 스피커 기기로 전송하고, 각 스피커 기기는 전달받은 정보에 따라 신호를 재생한다. 음악 재생 중에 사용자가 입체 음향 효과를 변경할 수 있으며, 변경된 내용은 마스터 기기에서 각 스피커 기기로 실시간 전송되어 신호 재생에 적용된다.

제안한 시스템을 사용하면 사용자 명령에 따라 입체 효과를 실시간으로 조정하여 임의의 방향과 속도로 이동하는 입체감을 쉽게 구현할 수 있고, 기존 음향 시스템이 제공하지 못하는 새로운 느낌의 입체 음향 효과를 재현할 수 있다. 또한, 상용 스마트폰을 여러 개 이용함으로써 추가적인 비용 없이 재미있고 다양한 음향 효과의 제작이 가능하며, 이를 통해 새로운 형태의 음향 콘텐츠 제작도 가능하다.

제안한 시스템은 다음의 두 가지 신호 재생을 모두 고려한다. 첫째, 음악에서 보컬 및 악기별로 저장된 객체(object) 신호가 주어지면, 각 스마트폰은 모든 객체 신호를 저장하고 주어진 중앙 제어 명령에 따라 하나 또는 다수의 객체 신호를 출력한다. 이때, 진폭 패닝(amplitude panning) 기법에 따라 각 객체를 가상 위치에 정위시키면 마치 임의로 배치된 위치에서 악기를 합주하는 효과를 구현할 수 있다. 둘째, 기존의 스테레오 또는 5.1 채널 신호가 주어지면, 각 모노(mono) 채널 신호를 독립 음원 신호로 가정하고 각 스마트폰에서 패닝 기법에 따라 하나 또는 다수의 채널 신호를 재생하여 입체 음향 효과를 제공한다. 기존 스테레오와 5.1 채널 시스템은 2차원 구조의 고정된 입체 음향만 제공하지만, 제안한 시스템을 사용하면 스마트폰 위치에 따라 3차원으로 확장된 가변 입체 음향을 재현할 수 있다.

 

Ⅱ. 제안하는 입체 음향 시스템

1. 개요

제안하는 입체 음향 시스템의 목표는 여러 대의 스마트폰을 3차원 공간에 배치하고, 주어진 제어 명령에 따라 각 스마트폰에서 신호를 출력하여 원하는 가상 위치에 음원을 정위시켜 입체 음향 효과를 제공하는 것이다. 이를 위해 여러 대의 스마트폰을 사용하며, 그중 한 대는 사용자가 음향 효과를 입력하고 제어 신호를 생성하는 마스터 기기로 사용하며, 나머지 기기들은 다채널 스피커 역할을 수행하는 스피커 기기로 사용한다. 사용자는 마스터 기기의 사용자 인터페이스(user interface)를 통하여 가상 음원 위치를 자유롭게 조정할 수 있다. 입체 음향을 생성하기 위해 다수의 스피커 기기에서 여러 신호가 동시에 재생되어야 하며, 각 신호는 모노 채널로 구성된 독립 파일 형태이며, 모든 스피커 기기는 모든 파일을 저장하고 있다. 앞에서 설명하였듯이, 만일 객체 신호가 제공되면 각 객체 신호가 하나의 독립 파일이 되고, 스테레오 또는 5.1 채널 신호가 제공되면 각 모노 채널 신호가 독립 파일이 된다.

그림 1은 본 논문에서 제안하는 입체 음향 시스템의 전체 구조를 나타낸다. 먼저, 사용자는 각 스마트폰에서 초기화 프로그램을 실행하여 스피커 기기 또는 마스터 기기로 설정하고, 블루투스를 통하여 모든 스피커 기기를 마스터 기기에 접속한다. 또한, 사용자는 마스터 기기에 스피커 기기의 배치 위치를 입력하여 초기화 세팅을 완료한다. 다음으로 음향 재생 단계가 진행되며, 사용자는 원하는 입체 음향 효과를 마스터 기기에 입력하고, 마스터 기기는 입력된 정보에 따라 각 스피커 기기에서 재생할 신호의 패닝 이득과 레벨을 계산하고 각 스피커 기기로 전송한다. 각 스피커 기기는 전송된 패닝 이득과 레벨을 내부에 저장된 음악 신호들에 적용하여 재생 신호를 생성하고 출력한다. 음악 재생 중에 사용자가 마스터 기기에 새로운 음향 효과를 입력하면 새로운 정보가 계산되고 해당 정보는 실시간으로 스피커 기기로 전송되어 재생 과정에 즉시 적용된다. 즉, 음향효과의 변경이 실시간으로 이루어지며, 이 기능을 통하여 움직이는 입체 음향 효과를 재현할 수 있다.

그림 1.제안하는 시스템의 전체 동작 구조 Fig. 1. Overall structure of the proposed system

2. 음원의 가상 위치 조정

제안하는 시스템에서 각 신호별로 가상 위치를 설정하여 재생하여야 하며, 이는 진폭 패닝 기법을 사용하여 구현한다[5]. 2차원 스테레오 진폭 패닝은 식 (1)과 같이 모노 신호 X에 패닝 이득 xL와 xR 을 각각 곱하여 스테레오 신호 XL와 XR을 생성하는 기법이다[6,7].

이때, 패닝 이득에 따라 청취자가 느끼는 음원의 위치가 결정되며, 패닝 이득과 위치 관계를 구하는 대표적인 방법으로 사인 법칙과 탄젠트 법칙이 있다. 탄젠트 법칙은 사인 법칙에 비하여 청취자가 가상 음원 방향으로 머리를 돌렸을 때 좀 더 정확한 결과를 제공한다[8]. 따라서 본 논문에서는 식 (2)로 표현되는 탄젠트 법칙을 사용한다.

여기서 φ0 는 그림 2와 같이 청취자를 중심으로 두 스피커 사이 각도의 1/2을 나타내고, φ는 청취자가 인지하는 가상 음원 위치를 나타낸다.

그림 2.스테레오 진폭 패닝 구조 Fig. 2. Stereo amplitude panning

그림 3은 제안하는 시스템에서 각 음원을 2차원 가상 위치에 정위시키는 방법을 설명한다. 3개의 스피커 기기가 그림과 같이 반원 위에 있고 3개의 신호 음원 A, B, C를 가지고 있다고 가정한다. 각 신호가 객체인지 아니면 기존 스테레오 또는 5.1 채널의 채널 신호인지는 구분하지 않으며, 객체 또는 채널에 관계없이 각 모노 신호별로 위치를 제어하여 최종 입체 음향을 제공하는 것을 목표로 한다.

그림 3.제안한 시스템에서의 스테레오 패닝 적용 방법; (a) 단일 음원, (b) 다 음원 Fig. 3. Stereo panning method in the proposed system; (a) Single sound source, and (b) Multiple sound sources

그림 3(a)는 가장 간단한 경우로서, 단일 음원 A에 대한 동작만을 나타낸 그림이다. 먼저, 사용자가 원하는 A의 가상 위치 Apos를 마스터 기기에 입력하면, 마스터 기기는 Apos 양측에 인접한 스피커 기기 두 개를 선택하고 스피커 기기 위치와 Apos 정보를 식 (2)에 적용하여 패닝 이득 aL와 aR을 구하고 해당 두 스피커 기기에 전달한다. 각 스피커 기기는 저장된 A 신호에 각각 aL와 aR를 적용하여 그림 3(a)와 같이 aLA와 aRA 을 각각 재생하면 A는 가상 위치 Apos에 정위된다. 이 때, 가장 오른쪽 스피커 기기에서는 신호가 출력되지 않으며, 모든 신호의 패닝 이득이 0인 경우로 생각할 수 있다.

이 과정을 여러 음원에 확장 적용하면 여러 음원에 대한 동시 위치 조정이 가능하다. 그림 3(b)와 같이 음원 A, B, C의 가상 위치 Apos, Bpos, cpos가 각각 설정되면 마스터 기기는 각 음원 위치 양측에 인접한 스피커 기기 쌍을 선택하고 식 (2)에 따라 각 스피커에 대한 패닝 이득 aL, aR, bL, bR, cL, cR 을 모두 구하고 해당 스피커 기기로 전달한다. 각 스피커 기기는 전송된 패닝 이득에 따라 재생할 음원을 생성하고 출력한다. 예로, 그림 3(b)에서 가운데 스피커 기기는 A에 대하여 오른쪽 스피커, B와 C에 대하여 왼쪽 스피커 역할을 하며, aRA + bLB + cLC 을 출력한다. 즉, 스피커 기기는 인접한 가상 음원의 개수에 따라 동시 재생하는 음원의 수가 달라진다.

이상의 동작을 정리하면, N 개의 음원 신호 Xn, n = 1, 2, … N, 를 사용할 때, m 번째 스피커 기기의 출력 신호 Ym은 식 (3)으로 표현된다.

패닝 이득 xmn는 각 Xn 별로 독립적으로 구하여진다. Xn의 가상 위치 양측에 인접한 두 개의 스피커 기기를 선택하고 선택된 두 개 스피커 기기를 위한 패닝 이득을 구하고, 나머지 스피커 기기에 대한 패닝 이득은 0으로 한다.

마지막으로, 각 음원 방향에 추가하여 신호 레벨을 통하여 거리를 제어한다. 신호 레벨은 음원의 인지 거리를 결정하는 요소 중 하나로서, 레벨을 변화시키면 음원 거리가 변하는 효과를 얻을 수 있다[9]. 사용자가 입력한 신호 레벨에 따라 각 Xn별 패닝 이득 xmn에 공통 레벨을 추가로 적용하면 신호별 거리 조정이 가능하다. 이상의 방법을 사용하면 2차원 반원으로 배열된 스피커 기기를 사용한 입체 음향 시스템을 구현할 수 있다.

만일 스피커 기기가 3차원 공간에 위치하면, 각 음원을 3 차원 가상 위치에 정위시키기 위해 VBAP(vector based amplitude panning) 방법을 사용한다[8]. 그림 4와 같이 3개의 스피커가 구(sphere) 표면에 위치할 때, S1, S2, S3 는 각 스피커 위치의 3차원 단위 벡터이고, V는 가상 음원 위치의 단위 벡터이다. 이 때, 각 스피커 음원에 대한 패닝 이득 s = [s1 s2 s3]는 식 (4)로 주어지며, 여기서 S123 = [S1 S2 S3]T 이다.

그림 4.3차원 진폭 패닝 구조[8] Fig. 4. Configuration of 3-dimensional amplitude panning[8]

따라서 각 신호별로 가상 위치에 인접한 3개의 스피커 기기를 선택하고 식 (4)에 따라 패닝 이득을 구하여 3개 스피커 기기에 전송하고, 각 스피커 기기는 식 (3)에 따라 재생 신호를 출력하면 3차원 가상 위치를 구현할 수 있다.

3. 스피커 기기 제어

제안하는 입체 음향 시스템은 마스터 기기를 통하여 모든 스피커 기기를 제어하므로 마스터 기기와 스피커 기기간의 통신이 필요하다. 마스터 기기와 스피커 기기 간의 통신은 스마트폰에서 기본으로 제공하는 블루투스 통신을 사용하며, 마스터 기기는 서버 역할을 수행하고 스피커 기기는 클라이언트 역할을 수행한다. 사용자는 스피커 기기에서 초기화 프로그램을 수행하여 각 스피커 기기의 인식 번호를 설정하고, 이 번호는 마스터 기기에서 스피커 위치 설정과 패닝 이득 전송을 위해 사용된다. 스피커 기기의 번호 설정이 완료되면 마스터 기기는 각 번호의 스피커 기기를 블루투스에 접속한다.

사용자가 마스터 기기에 입력한 입체 효과 정보는 실시간으로 스피커 기기로 전송된다. 마스터 기기는 설정된 위치 정보와 신호 음량 정보에 따라 각 스피커 기기에 전달할 패닝 이득과 레벨을 구하고, 이 정보는 목표 스피커 기기의 인식 번호와 결합하여 문자열 형태로 변환되어 모든 스피커 기기에 전송된다. 문자열을 전송받은 스피커 기기는 자신의 인식 번호에 맞는 문자열을 선택하고 패닝 이득과 레벨 값을 획득하고, 획득된 정보는 재생되는 음원에 적용된다. 스피커 기기로 전송하는 정보는 그림 5와 같이 byte 단위로 전송한다. 인식 번호와 음량 레벨은 각각 1 byte, 한 음원에 대한 패닝 이득은 2 byte로 표현하고, 총 6개의 음원에 대한 패닝 이득을 순차적으로 전송한다.

그림 5.스피커 기기에 전송하는 비트열의 구조 Fig. 5. Structure of transmitting bit-stream

이와 같은 방법은 간단한 문자열 형태로 정보를 주고받기 때문에 많은 데이터 전송이 필요하지 않다. 또한, 음원 재생 중에 사용자가 새로운 음원 위치를 입력하면 새로운 패닝 이득과 레벨이 실시간으로 계산되고 스피커 기기로 전송된다. 스피커 기기는 주기적으로 전송된 데이터를 분석하며, 변경된 정보를 실시간으로 재생 음원에 적용한다. 이 기능을 통하여 음원 재생 중에 음원의 위치를 실시간으로 변경할 수 있으며, 고정된 스피커 배치 구조에서 음원이 움직이는 입체 효과를 제공할 수 있다.

 

Ⅲ. 제안하는 시스템 구현

제안하는 입체 음향 시스템을 실제 상용 스마트폰을 사용하여 구현하였다. 총 7대의 스마트폰을 사용하였으며, 1 대의 스마트폰은 마스터 기기로 사용하고 나머지 6대는 스피커 기기로 사용한다. 음악을 구성하는 보컬과 악기 신호에 해당하는 6개의 객체 신호를 사용한다. 모든 스마트폰은 안드로이드 OS 기반으로 동작하고 삼성 갤럭시 S3와 갤럭시 노트2 모델을 사용하여 구현하였으며, 모든 응용 프로그램 코드는 eclipse 기반으로 개발하였다. 현재는 2차원 반원형태로 스피커 기기들을 배치하는 것을 구현하였으며, 3차원의 임의의 배치에 대한 것은 구현 중이다.

그림 6은 구현한 시스템을 구동 중인 스마트폰의 실제 화면들을 보여준다. 그림 6(a)는 초기화 프로그램을 실행하여 각 스마트폰의 역할을 마스터 기기 또는 스피커 기기로 선택하는 초기 화면이다. 중앙에 위치한 Master 버튼을 선택하면 마스터 기기로 선택되고, 상∙하단에 위치한 Speaker 버튼을 선택하면 스피커 기기로 선택된다. Speaker 버튼에는 1∼6까지의 번호가 존재하는데, 이 번호는 마스터 기기에서 스피커 기기를 구별하는 인식 번호로 사용된다. 그림 6(b)는 블루투스 기기 선택 화면을 나타내며, 스피커 기기는 그림과 같이 마스터 기기의 블루투스를 검색하여 접속한다. 그림 6(c)는 마스터 기기의 설정 화면을 나타낸다. 화면 아래에 반원 막대가 존재하며, 이 막대를 조작하여 음원 또는 스피커 기기의 위치를 세팅하거나 음원의 크기를 설정한다. 즉, 화면 중간에 스피커 기기에 해당하는 인식 번호 버튼이 있으며, 스피커 번호 버튼을 선택하고 연이어 반원 막대의 포인터를 움직여 위치를 설정하면 스피커 기기 위치가 마스터 기기에 세팅된다. 동일한 방식으로 화면 위에 표시된 6개의 음원 중 하나를 선택하고 반원 막대의 포인터를 움직이면 해당 음원의 가상 위치가 설정된다. 또한, 음원을 선택 후에 Volume 버튼을 선택하고 반원 막대의 포인터를 움직이면 해당 음원의 음량이 조절된다.

그림 6.개발한 시스템의 스마트폰 응용 프로그램의 화면 구성; (a) 마스터 또는 스피커 선택 화면, (b) 블루투스 기기 선택 화면, (c) 마스터 기기 조정 화면, (d) 전체 시스템의 동작 화면, (e) 마스터 기기의 추가 기능 선택 화면 Fig. 6. Screen of smartphone applications in the developed system; (a) Screen for selection between master and speaker, (b) Screen for bluetooth device selection, (c) Master control screen, (d) Operation of the entire system, and (e) Screen for extra feature in master

마지막으로 Start 버튼을 누르면 세팅된 정보가 각 스피커 기기로 전송되고, 음원 재생이 시작된다. 그림 6(d)는 실제 마스터 기기와 6대의 스피커 기기를 사용하여 음원을 재생 중인 상황을 보여준다. 음원 재생 중에 마스터 기기에서 음원의 가상 위치 또는 레벨을 변경하면 변경된 정보는 즉시 스피커 기기로 전송되고, 재생의 끊어짐 없이 변경 사항이 적용된 음원 재생이 이루어진다.

그림 6(e)는 마스터 기기에서 기본 기능 이외에 추가적인 기능을 제공하는 화면을 보여준다. 추가적인 기능은 Focus 기능과 Random 기능이다. Focus 기능은 그림 7(a)와 같이 모든 가상 음원 위치를 한 곳으로 설정하는 기능이며, 음원 위치는 그림 6(e)의 Focus 버튼을 누른 후 그림 6(c)의 반원 막대의 포인터를 움직여 설정한다. Random 기능은 그림 7(b)와 같이 모든 가상 음원 위치를 임의 위치로 설정하는 기능이며, 가상 음원의 위치는 그림 6(e)에서 Random 버튼을 누를 때마다 새로운 임의 위치로 설정된다. Focus 기능과 Random 기능을 조합하여 사용하면 사용자는 보다 다이내믹한 입체 음향 효과를 경험할 수 있다.

그림 7.추가 구현 기능, (a) Focus 기능, (b) Random 기능 Fig. 7. Extra functions, (a) Focus function, and (b) Random function

개발한 시스템을 동작시키고 실제 음악을 청취한 결과, 사용자가 마스터 기기를 조정함에 따라 각 음원의 패닝 이득과 레벨이 조절되어 지정한 위치에 가상 음원이 생성되고 원하는 입체 음향 효과를 뚜렷이 느낄 수 있었다. 또한, 실시간 음원 위치 조정을 통하여 입체감이 움직이는 효과를 확인하였으며, 이러한 이동 효과로 인해 각각의 음원들이 움직이면서 가변적인 입체 음향 효과를 제공하는 것을 확인할 수 있었다. 이와 같은 가변 입체감은 기존 입체 음향 시스템으로는 제공할 수 없는 기능이며, 제안한 입체 음향 시스템을 통하여 새로운 입체 음향 효과를 경험할 수 있었다.

 

Ⅳ. 결 론

본 논문에서는 여러 대의 스마트폰을 이용한 입체 음향 시스템을 제안하고, 상용 스마트폰을 이용하여 시스템을 구현하였다. 제안한 방법은 여러 대의 스마트폰 중에서 한 개의 마스터 기기를 선택하고, 나머지 기기를 스피커 기기로 설정하고, 마스터 기기를 통하여 사용자가 원하는 입체 효과를 입력한다. 마스터 기기는 각각의 음원을 진폭 패닝기법을 통하여 사용자가 원하는 위치로 정위시키기 위한 패닝 이득을 구하여 스피커 기기로 전송하고, 스피커 기기는 전송된 패닝 이득과 레벨을 신호에 적용하여 출력한다. 또한, 음악 재생 중에 음향 효과의 변경이 실시간으로 가능하도록 하여 움직이는 가변 입체 음향 효과를 재현한다. 제안한 시스템을 구동시키기 위한 모든 응용 프로그램을 제작하고 이를 상용 스마트폰에 적용하여 제안한 입체 음향 시스템을 제작하였다. 시스템을 구동하여 음악을 청취한 결과, 원하는 입체 효과를 확인하였으며, 특히 이동 입체감이 정상적으로 재현되는 것을 확인하였다. 본 시스템을 통하여 기존 입체 음향 시스템이 제공하지 못하는 새로운 입체감을 경험할 수 있으며, 스마트폰을 이용하여 쉽고 재미 있게 새로운 음향 효과를 제작할 수 있다.

References

  1. S. Y. Yang, D. H. Kim and J. H. Jeong, "Development of three-dimensional sound effect system for virtual reality," Journal of Broadcast Engineering, Vol. 13, No. 5, pp. 574-585, Sep. 2008 https://doi.org/10.5909/JBE.2008.13.5.574
  2. S. W. Jeon, Y. C. Park, S. P. Lee and D. H. Youn, "Amplitude panning algorithm for virtual sound source rendering in the multichannel loudspeaker system," Journal of the Acoustical Society of Korea, Vol. 30, No. 4, pp. 197-209, May. 2011 https://doi.org/10.7776/ASK.2011.30.4.197
  3. K. S. Koo and H. T. Cha, "Enhancement of the 3D sound's performance using perceptual characteristics and loudness," Journal of Broadcast Engineering, Vol. 16, No. 5, pp. 846-860, Sep. 2011 https://doi.org/10.5909/JEB.2011.16.5.846
  4. http://global.samsungtomorrow.com/?p=30090
  5. Y. G. Kim and H. G. Kim, "MPEG surround based multi-channel audio panning using channel level difference parameters," Journal of Korea Information and Communications Society Fall Conference, pp. 225-228, Nov. 2008
  6. D. I. Hyun, Y. C. Park and D. H. Youn, "Enhanced amplitude panning for virtual source imaging," Journal of the Institute of Electronics Engineers of Korea, Vol. 50, No. 3, pp. 139-145, Mar. 2013 https://doi.org/10.5573/ieek.2013.50.3.139
  7. S. Y. Jeon, Y. C. Park, S. P. Lee and D. H. Youn, "A study on multiple vector base panning algorithm using angle dependent channel gain control method," Journal of Korea Information and Communications Society Summer Conference, pp. 1091-1092, Jun. 2010
  8. V. Pulkki, "Virtual sound source positioning using vector base amplitude panning," Journal of the Audio Engineering Society, Vol. 45, No. 6, pp. 456-466, Jun. 1997
  9. P. Zahorik, "Auditory display of sound source distance," Proceedings of the 2002 International Conference on Auditory Display, pp. 326-332, Jul. 2002