• 제목/요약/키워드: 사운드 생성

검색결과 67건 처리시간 0.026초

스크린드 군집화 기반의 사운드 합성을 이용한 효율적인 거품 사운드 생성 (Efficient Foam Sound Generation with Screened Clustering Based Sound Synthesis)

  • 신영찬;김종현
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제66차 하계학술대회논문집 30권2호
    • /
    • pp.553-556
    • /
    • 2022
  • 본 논문에서는 거품 입자를 활용하여 시뮬레이션 장면에 맞는 소리를 효율적으로 합성할 수 있는 기법을 제안한다. 물리 기반 시뮬레이션 환경에서 소리를 표현하는 대표적인 방법은 생성과 합성이다. 사운드 생성의 경우 시뮬레이션 장면마다 물리 기반 접근법을 사용하여 소리를 생성할 수 있는데 계산 시간과 재질 표현의 어려움으로 다양한 시뮬레이션 장면에 대한 소리를 만들어 내기에는 쉽지 않다. 사운드 합성의 경우 소리 데이터를 미리 구축해야 하는 사전 준비가 필요하지만, 한 번 구축하면 비슷한 장면에서는 같은 소리 데이터를 활용할 수 있는 점이 있다. 따라서 본 논문에서는 거품 시뮬레이션의 소리 합성을 위해 소리 데이터를 구축하고 거품 입자의 효율적인 군집화를 통해 계산 시간을 줄이면서 소리의 사실감은 개선할 수 있는 사운드 합성 기법을 제안한다.

  • PDF

사운드 실감성 증진을 위한 사운드 감지 알고리즘 기반 촉각진동자극 생성 (Vibration Stimulus Generation using Sound Detection Algorithm for Improved Sound Experience)

  • 지동주;오성진;전경구;성미영
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.158-162
    • /
    • 2009
  • 적절한 촉각자극은 사운드 효과의 실감성을 증진시킬 수 있다. 예를 들어, 게임이나 영화 등에서 총소리와 함께 발생하는 진동자극은 감상자의 몰입감을 향상시킬 수 있다. 이러한 맥락에서 음향만을 담고 있는 기존 사운드 파일에 촉각자극정보를 부가하여 사운드 플레이와 함께 햅틱장치를 통해 진동자극을 준다면 좀 더 사실감 있는 사운드 체험을 할 수 있을 것이다. 본 논문에서는 사운드 파일을 분석하여 그에 따른 촉각자극정보를 생성하는 방법을 제안한다. 촉각자극정보란 사운드 파일 내에서 특정 소리가 발생하는 시간위치와 발생시켜야 하는 촉각자극패턴이다. 수작업으로 이러한 촉각자극정보를 생성하는 것은 많은 수고를 필요로 한다. 본 논문은 이러한 수작업을 대체할 수 있도록, 사운드 파일에서 특정 소리의 발생시점을 검색할 수 있는 사운드 감지 알고리즘과 촉각자극정보 생성방식을 제안한다. 사운드 감지 알고리즘은 검색하고자 하는 사운드의 주파수 특성을 이용하여 유사한 특성을 가지는 시점들을 찾아낸다. 개발한 알고리즘을 실험한 결과, 5가지 서로 다른 사운드에 대해 98% 이상의 감지 성공률을 얻을 수 있었다. 연구 결과를 종합하여 GUI기반의 진동패턴 생성 유틸리티를 개발하였다. 이 유틸리티를 이용하면 사운드 파일에서 특정 소리의 발생 부분을 자동으로 검색하고, 그 시점마다 원하는 진동정보를 손쉽게 생성할 수 있다.

  • PDF

가상현실 환경에서의 3 차원 사운드 생성을 위한 거리 변화에 따른 구조적 머리전달함수 모델 (A Range Dependent Structural HRTF Model for 3D Sound Generation in Virtual Environments)

  • 이영한;이길호;김홍국
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.632-637
    • /
    • 2006
  • 본 논문에서는 가상현실 환경에서 방위각, 고도, 거리 등의 위치 정보를 인지할 수 있는 3 차원 사운드를 생성하기 위한 구조적 머리전달함수(Head-Related Transfer Function, HRTF) 모델을 제안하고 이를 구현한다. 이를 위해 우선 기존에 연구된 방위각과 고도에 관한 head model 과 pinna model 을 근간으로 거리의 변화를 고려하도록 하는 HRTF 모델을 제안한다. 제안된 거리 변화에 따른 HRTF 모델은 거리 차이에 따른 음압의 변화 모델과 근거리에서 사람의 머리에 의해 생기는 shadowing 모델로 구성된다. 본 논문에서는 제안한 모델로 부터 mono 사운드를 방위각, 고도, 거리를 인지할 수 있는 stereo 사운드로 변환하여 생성하는 3 차원 사운드 생성기를 구현하였고, 일반인을 대상으로 거리에 대한 청취 실험을 통하여 제안한 모델의 성능을 측정하였다. 그리고 제안된 모델을 가상현실의 실감모델인 MP3 에 구현하여 그 효과를 입증하였다.

  • PDF

피아노 연주곡의 wave sound에서의 피치추출 및 악보생성 (Pitch extraction and generating a piano score from a wave sound of the piano music)

  • 최제헌;김규년
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1999년도 학술발표대회 논문집 제18권 1호
    • /
    • pp.251-254
    • /
    • 1999
  • 본 논문에서는 피아노 음으로 구성된 간단한 웨이브 (Wave) 형식의 연주곡으로부터 각 음들의 음높이인 피치(pitch)를 추출하는 방법과 연주곡의 악보를 생성하는 방법에 대해 연구한다. 본 연구의 최종 목적은 위의 방법을 사용하여 클래식 악기로 연주된 CD-DA방식의 음악을 같은 음질이 보장되는 MIDI [1,3,7,8] 데이터로 변환하는데 있다. 이번 연구에서는 하나의 악기(피아노)로 연주된 음악으로 고정시줬으며, 잡음이 없는 깨끗한 웨이브 사운드로 제한하였다. 웨이브 사운드 형식으로 된 간단한 피아노 연주곡을 입력 데이타로 사용하였다. 이 웨이브사운드에서 Autocorrelation[4,5,6]방법을 사용하여 각 음들의 피치를 추출하였다 또한, 웨이브 사운드로부터 추출한 음의 피치, 음의 지속시간 등의 정보를 사용하여 연주곡에 대한 악보를 생성하는 방법에 대해 연구하였다. 본 논문에서는 웨이브 사운드 데이터에서 악보로의 변환까지를 이루고 있지만, 향후 실제 클래식 악기와 흡사한 MIDI 음원모듈이 제공될 경우 CD-DA방식의 원음과 같은 음질의 MIDI 음악을 생성하는 것도 가능할 것이다.

  • PDF

소니피케이션(sonification) 구현을 위한 뇌파 데이타 기반 객관적 사운드 모델 연구 (A Study on the generation of objective sound model for sonification using brain wave data set)

  • 전성환;조인재;서정근
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2016년도 춘계학술발표대회
    • /
    • pp.795-798
    • /
    • 2016
  • 소니피케이션은 다양한 데이터를 사운드로 변환시키는 과정으로 본 연구에서는 뇌파 신호를 사운드로 생성하는 객관적인 워크플로우를 제시하고자 하였다. 현재까지의 뇌파 소니피케이션은 사운드로의 변환이 인위적이고 임의적으로 진행되어 객관적인 논리를 제시하지 못하고 있는 실정이다. 이에 본 연구에서는 뇌파데이터의 정량적 분석을 통해 파라미터 추출, 사운드 맵핑, 사운드 모델 구축에 대한 논리적 근거를 제시하였으며 이를 통해 뇌파데이터의 객관적인 소니피케이션 과정을 구현하였다. 파라미터 추출을 위해 15Hz High pass filtering이 가장 적절한 방법으로 확인되었으며 뇌파 데이터의 최대값 빈도 분석과 음악코드의 비율 분석을 실제로 맵핑시켜 사운드 모델을 구축하여 사운드 생성을 구현하였다. 결론적으로, 본 연구에서는 뇌파데이터의 소니피케이션 과정에 대한 객관적이고 논리적인 워크플로우를 제시하였으며 이러한 워크플로우가 다양한 분야에서 적용될 수 있을 것으로 예상된다.

Reduced Raytracing Approach for Handling Sound Map with Multiple Sound Sources, Wind Advection and Temperature

  • Jong-Hyun Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권9호
    • /
    • pp.55-62
    • /
    • 2023
  • 본 논문에서는 기하학 기반의 사운드 생성 기법을 활용하여 1)다중 음원, 2)바람의 이류와 3)온도에 따른 상호작용을 효율적으로 처리할 수 있는 방법을 제시한다. 최근에 절감된 광선추적법(Reduced raytracing) 기반으로 사운드(Sound) 위치를 업데이트하고 많은 레이(Ray)의 재귀적인 반사/굴절 없이 사운드 전파와 회절을 효율적으로 계산하는 방법이 제안되었지만, 이 접근법은 사운드의 전파 특징만을 고려했지 다중 음원, 바람의 이류와 온도에 따른 상호작용은 고려하지 못했다. 이러한 한계는 정적인 사운드만 생성하기 때문에, 다양한 가상환경에서 사운드를 통한 장면 제작을 어렵게 만든다. 본 논문에서는 여러 개의 사운드가 배치된 상황에서 사운드 맵을 효율적으로 구성할 수 있는 방법과 이것을 통해 효율적으로 에이전트의 움직임을 제어할 수 있는 방법을 제시한다. 뿐만 아니라 바람의 이류와 온도를 고려하여 사운드 전파를 제어를 할 수 있는 방법을 제안한다. 본 논문에서 제안하는 방법은 사운드를 기반으로 콘테츠 몰입을 개선시킬 수 있는 게임뿐만 아니라 메타버스 환경 디자인, 군중 시뮬레이션 등 다양한 분야에서 활용이 가능하다.

사운드 데이터를 이용한 실시간 3차원 지형 생성 (Realtime 3D Terrain Generation with Sound Data)

  • 김원섭;장규식;김태용
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.184-189
    • /
    • 2008
  • 본 연구는 기존에 저장되어 있는 응원이나 입력되는 사운드 데이터를 사용하여 게임 플레이상에 지형을 생성함으로서 사운드의 적극적인 황용을 도모하고 렌더링되는 화면과 입출력되는 오디오 간의 동기화를 통해 사용자들에게 공감각적인 상호작용을 제공한다. 사용자가 직접 사운드를 발생시키거나 원하는 음원을 입력하면 그 입력받은 사운드 진폭 데이터를 푸리에 변환하여 주파수 데이터로 변환하고 취득한 데이터로 분석 및 재가공하여 시간에 따라 변화하는 3차원 지형을 만든다. 지형이 생성될 때는 여러 가지 보간 처리를 통하여 에이전트들과 오브젝트들이 활동 가능하도록 지형을 보정하며, 확장 역시 용이하도록 디자인한다.

  • PDF

효율적이고 사실적인 거품 사운드 생성을 위한 입자 기반 사운드 매칭과 합성 (Particle-Based Sound Matching and Synthesis for Efficient and Realistic Foam Sound Generation)

  • 신영찬;김종현
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제67차 동계학술대회논문집 31권1호
    • /
    • pp.357-360
    • /
    • 2023
  • 본 논문에서는 거품 입자의 물리적 속성을 활용하여 가상 시뮬레이션 장면에 맞는 거품 사운드를 합성하고 사운드의 물리적 현상을 기반으로 사운드의 크기를 효율적으로 제어할 수 있는 기법을 제안한다. 현실에서는 사운드의 근원지와 청중의 위치 관계에 따라 사운드 크기의 차이가 나타타는 것을 쉽게 관찰할 수 있다. 본 논문에서는 이 문제를 효율적으로 풀어내기 위해 복잡한 3차원 유체의 움직임을 분석하는 게 아닌, 2차원으로 투영된 입자의 유동을 분석하여 사운드를 합성하고 제어하는 방식을 소개한다. 우리의 방법은 거품 사운드의 크기를 효율적으로 조절할 수 있도록 스크린 공간에서 계산된 거품 입자의 속도와 위치를 활용하여 청중의 위치 관계 및 사운드의 방향성을 확인하고, 이를 통해 거품 사운드를 사실적으로 합성하였다.

  • PDF

옷감 시뮬레이션의 절차적 사운드 합성을 위한 새로운 사운드의 에너지와 반전 매핑 (Novel Sound Energy and Reversal Mapping for Procedural Sound Synthesis in Cloth Simulation)

  • 김동희;문성혁;신영찬;김종현
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제66차 하계학술대회논문집 30권2호
    • /
    • pp.587-590
    • /
    • 2022
  • 본 논문에서는 물리기반 옷감 시뮬레이션에 적합한 소리를 효율적으로 생성하기 위한 데이터 기반 합성 기법을 제안한다. 시뮬레이션에서 소리를 표현하는 방법은 크게 생성과 합성이 있지만, 합성은 실시간 애플리케이션에서 활용이 가능하기 때문에 인터랙티브한 환경에서 자주 활용되고 있다. 하지만, 데이터에 의존하기 때문에 원하는 장면에 부합하는 사운드를 합성하기는 어려우며, 기존 방법은 한 방향으로만 사운드 데이터를 검색하기 때문에 불연속으로 인한 끊김 현상이 발생한다. 본 논문에서는 양방향 사운드 합성 기법을 제시하며, 이를 통해 불연속적으로 합성되는 사운드 결과를 효율적으로 개선될 수 있음을 보여준다.

  • PDF

효과음 자막 생성을 위한 딥러닝 기반의 다중 사운드 분류 (A Multiclass Sound Classification Model based on Deep Learning for Subtitles Production of Sound Effect)

  • 정현영;김규미;김현희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.397-400
    • /
    • 2020
  • 본 논문은 영화에 나오는 효과음을 자막으로 생성해주는 자동자막생성을 제안하며, 그의 첫 단계로써 다중 사운드 분류 모델을 제안하였다. 고양이, 강아지, 사람의 음성을 분류하기 위해 사운드 데이터의 특정벡터를 추출한 뒤, 4가지의 기계학습에 적용한 결과 최적모델로 딥러닝이 선정되었다. 전처리 과정 중 주성분 분석의 유무에 따라 정확도는 81.3%와 33.3%로 확연한 차이가 있었으며, 이는 복잡한 특징을 가지는 사운드를 분류하는데 있어 주성분 분석과 넓고 깊은 형태의 신경망이 보다 개선된 분류성과를 가져온 것으로 생각된다.