• Title/Summary/Keyword: 사운드시스템

Search Result 166, Processing Time 0.029 seconds

Design of a Sound Classification System for Context-Aware Mobile Computing (상황 인식 모바일 컴퓨팅을 위한 사운드 분류 시스템 설계)

  • Kim, Joo-Hee;Lee, Seok-Jun;Kim, In-Cheol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1305-1308
    • /
    • 2013
  • 본 논문에서는 스마트폰 사용자의 실시간 상황 인식을 위한 효과적인 사운드 분류 시스템을 제안한다. 이 시스템에서는 PCM 형태의 사운드 입력 데이터에 대한 전처리를 통해 고요한 사운드와 화이트 노이즈를 학습 및 분류 단계 이전에 미리 여과함으로써, 계산 자원의 불필요한 소모를 막을 수 있다. 또한 에너지 레벨이 낮아 신호의 패턴을 파악하기 어려운 사운드 데이터는 증폭함으로써, 이들에 대한 분류 성능을 향상시킬 수 있다. 또, 제안하는 사운드 분류 시스템에서는 HMM 분류 모델의 효율적인 학습과 적용을 위해 k-평균 군집화를 이용하여 특징 벡터들에 대한 차원 축소와 이산화를 수행하고, 그 결과를 모아 일정한 길이의 시계열 데이터를 구성하였다. 대학 연구동내 다양한 일상생활 상황들에서 수집한 8가지 유형의 사운드 데이터 집합을 이용하여 성능 분석 실험을 수행하였고, 이를 통해 본 논문에서 제안하는 사운드 분류 시스템의 높은 성능을 확인할 수 있었다.

Design of Sound Synthesis System using Audio Compression Method (오디오 압축 방식을 적용한 사운드 합성 시스템의 설계)

  • 장호근;김태훈;곽종태;박주성
    • The Journal of the Acoustical Society of Korea
    • /
    • v.17 no.3
    • /
    • pp.27-36
    • /
    • 1998
  • 현재 상용화된 사운드 합성 기기에서 널리 쓰이고 있는 PCM 방식에서의 문제점은 고음질의 음을 얻기 위해서 많은 메모리 용량을 필요로 하는 것이다. 이 논문에서는 이 문 제를 해결하기 위해 MPEG 오디오 압축 방식을 적용하여 샘플된 음을 압축하고, 실시간으 로 이를 복호화 해서 음을 합성해내는 사운드 합성 시스템을 설계하였다. 사운드 합성 시스 템은 마이크로프로세서, 음원 DSP, MPEG 오디오 복호화기로 구성되며, 44.1Khz의 샘플링 주파수로 32개의 음을 동시에 합성할 수 있도록 설계되었다. 설계 과정에서 각각의 기능 요 소를 C언어로 기술하여 사운드 합성 시스템에 대한 소프트웨어 모델을 작성하였다. 이것을 통해 미리 전체 시스템의 동작을 시뮬레이션하고, 압축 방식을 적용함으로써 발생될 수 있 는 여러 가지 문제점에 대한 해결 방안을 제시하였다. 시뮬레이터로 시스템의 동작을 검증 한 후, DSP와 MPEG 복호화기를 포함하는 사운드 합성 시스템을 VHDL로 설계하여 시뮬 레이션을 통해 하드웨어가 정상적으로 동작함을 확인하였다. MPEG 오디오 압축 방식을 이 용함으로써 메모리 용량 측면에서는 약8:1의 감소 효과를 얻을 수 있다.

  • PDF

Design and Implementation of a Sound Classification System for Context-Aware Mobile Computing (상황 인식 모바일 컴퓨팅을 위한 사운드 분류 시스템의 설계 및 구현)

  • Kim, Joo-Hee;Lee, Seok-Jun;Kim, In-Cheol
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.3 no.2
    • /
    • pp.81-86
    • /
    • 2014
  • In this paper, we present an effective sound classification system for recognizing the real-time context of a smartphone user. Our system avoids unnecessary consumption of limited computational resource by filtering both silence and white noise out of input sound data in the pre-processing step. It also improves the classification performance on low energy-level sounds by amplifying them as pre-processing. Moreover, for efficient learning and application of HMM classification models, our system executes the dimension reduction and discretization on the feature vectors through k-means clustering. We collected a large amount of 8 different type sound data from daily life in a university research building and then conducted experiments using them. Through these experiments, our system showed high classification performance.

A Program for Korean Animation Sound Libraries (국내용 애니메이션 사운드 라이브러리 구축 방안)

  • Rhim, Young-Kyu
    • Cartoon and Animation Studies
    • /
    • s.15
    • /
    • pp.221-235
    • /
    • 2009
  • Most of the sounds used in animated films are artificially made. A large number of the sounds used are either actual sound recordings or diversely processed artificial sounds made with professional sound equipments such as synthesizers. One animation episode contains numerous amounts of sounds, resulting in significant sound production costs. These sounds have full potential to be reused in different films or animations, but in reality we fail to do so. This thesis discusses ways these sound sources can be acknowledged as added new values to the present market situation as a usable 'digital content'. The iTunes Music Store is an American Apple company product that is acknowledged as the most successful digital content distribution model at the time being. Its system's sound library has potential for application in the Korean sound industry. In result, this system allows the sound creator to connect directly to the online store and become the initiative content supplier. At the same time, the user can receive a needed content easily at a low price. The most important part in the construction of this system is the search engine, which allows users to search for data in short periods of time. The search engine will have to be made in a new manner that takes into consideration the characteristics of the Korean language. This thesis presents a device incorporating the Wiki System to allow users to search and build their own data bases to share with other users. Using this system as a base, the Korean animation sound library will provide development and growth in the sound source industry as a new digital sound content.

  • PDF

Sound Detection System of Machines in Thermal Power Plant. (화력발전 설비의 사운드 모니터링 시스템)

  • 이성상;정의필;손창호
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2003.06a
    • /
    • pp.157-160
    • /
    • 2003
  • 발전소에서 운전중인 기계들의 안전운전과 예지 보전을 위하여 발전설비의 고장 감지 및 진단과 상태 모니터링은 중대한 역할을 담당하고 있다. 이 연구에서는 설비의 안전하고 신뢰적인 운전을 위한 기계의 작동상태를 사운드 정보로 획득하고 분석하는 시스템을 제안하였다. 사운드 정보의 사용은 적은 양의 채널의 사용으로 많은 기계 및 설비의 이상 유무의 판별을 가능케 하며, 이를 획득하기 위하여 3개의 마이크로폰, 다채널 A/D변환기, 다채널 I/O Sound Card(Soundtrack DSP24) 및 PC로 시스템을 구성하였다. 소프트웨어 개발언어로서 Microsoft Visual C++ 및 MATLAB을 이용하였다. 화력 발전소에 운전중인 주요기계들의 사운드 정보를 취득하여 취득한 기계별 사운드 정보를 이용하여 주파수 특성을 파악하고, 이를 이용하여 기기의 운전 상태진단을 가능하게 한다.

  • PDF

Design and Implementation of K Virtual Machine Sound API for Embedded Systems (임베디드 시스템을 위한 K 가상 머신 사운드 API 설계 및 구현)

  • Jeon, Shang-Ho;Lee, Cheol-Hoon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10a
    • /
    • pp.404-408
    • /
    • 2006
  • 최근 임베디드 디바이스에 여러 가지 장점을 제공하는 자바기술은 필수적인 요소가 되었다. 임베디드 디바이스에 적용되는 자바기술은 J2ME 플랫폼이며, 이는 K 가상 머신(K Virtual Machine)의 핵심인 CLDC(Connected Limited Device Configuration)와 그래픽 유저 인터페이스, 네트워크 API, 사운드 API 등을 명세하고 있는 MIDP(Mobile Information Device Profile)로 구성되어 있다. 이 중 그래픽 유저 인터페이스와 네트워크, 사운드 부분은 구현 시 시스템에 의존적인 부분을 따로 구현해야 하는데, 이는 네이티브(native)함수로 구현할 수 있다. 본 논문에서는 J2ME 플랫폼에서 정의된 사운드 API 의 기능들을 분석하여 임베디드 시스템에 적합한 사운드 API 의 네이티브 함수를 구현하였다.

  • PDF

Home monitoring system based on sound event detection for the hard-of-hearing (청각장애인을 위한 사운드 이벤트 검출 기반 홈 모니터링 시스템)

  • Kim, Gee Yeun;Shin, Seung-Su;Kim, Hyoung-Gook
    • The Journal of the Acoustical Society of Korea
    • /
    • v.38 no.4
    • /
    • pp.427-432
    • /
    • 2019
  • In this paper, we propose a home monitoring system using sound event detection based on a bidirectional gated recurrent neural network for the hard-of-hearing. First, in the proposed system, packet loss concealment is used to recover a lost signal captured through wireless sensor networks, and reliable channels are selected using multi-channel cross correlation coefficient for effective sound event detection. The detected sound event is converted into the text and haptic signal through a harmonic/percussive sound source separation method to be provided to hearing impaired people. Experimental results show that the performance of the proposed sound event detection method is superior to the conventional methods and the sound can be expressed into detailed haptic signal using the source separation.

Conversion of Image into Sound Based on HSI Histogram (HSI 히스토그램에 기초한 이미지-사운드 변환)

  • Kim, Sung-Il
    • The Journal of the Acoustical Society of Korea
    • /
    • v.30 no.3
    • /
    • pp.142-148
    • /
    • 2011
  • The final aim of the present study is to develop the intelligent robot, emulating human synesthetic skills which make it possible to associate a color image with a specific sound. This can be done on the basis of the mutual conversion between color image and sound. As a first step of the final goal, this study focused on a basic system using a conversion of color image into sound. This study describes a proposed method to convert color image into sound, based on the likelihood in the physical frequency information between light and sound. The method of converting color image into sound was implemented by using HSI histograms through RGB-to-HSI color model conversion, which was done by Microsoft Visual C++ (ver. 6.0). Two different color images were used on the simulation experiments, and the results revealed that the hue, saturation and intensity elements of each input color image were converted into fundamental frequency, harmonic and octave elements of a sound, respectively. Through the proposed system, the converted sound elements were then synthesized to automatically generate a sound source with wav file format, using Csound.

Study on Analysis of Queen Bee Sound Patterns (여왕벌 사운드 패턴 분석에 대한 연구)

  • Kim Joon Ho;Han Wook
    • The Journal of the Convergence on Culture Technology
    • /
    • v.9 no.5
    • /
    • pp.867-874
    • /
    • 2023
  • Recently, many problems are occurring in the bee ecosystem due to rapid climate change. The decline in the bee population and changes in the flowering period are having a huge impact on the harvest of bee-keepers. Since it is impossible to continuously observe the beehives in the hive with the naked eye, most people rely on knowledge based on experience about the state of the hive.Therefore, interest is focused on smart beekeeping incorporating IoT technology. In particular, with regard to swarming, which is one of the most important parts of beekeeping, we know empirically that the swarming time can be determined by the sound of the queen bee, but there is no way to systematically analyze this with data.You may think that it can be done by simply recording the sound of the queen bee and analyzing it, but it does not solve various problems such as various noise issues around the hive and the inability to continuously record.In this study, we developed a system that records queen bee sounds in a real-time cloud system and analyzes sound patterns.After receiving real-time analog sound from the hive through multiple channels and converting it to digital, a sound pattern that was continuously output in the queen bee sound frequency band was discovered. By accessing the cloud system, you can monitor sounds around the hive, temperature/humidity inside the hive, weight, and internal movement data.The system developed in this study made it possible to analyze the sound patterns of the queen bee and learn about the situation inside the hive. Through this, it will be possible to predict the swarming period of bees or provide information to control the swarming period.

Sound-driven Vibration System using Digital Signal Processor (DSP를 이용한 사운드 기반 진동 시스템)

  • Cho, Dong-Hyun;Oh, Sung-Jin;You, Yong-Hee;Sung, Mee-Young;Jun, Kyung-Koo
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.553-558
    • /
    • 2008
  • In this paper, we develop a vibration system which can generate diverse vibration effects in realtime by analyzing signals from the sound output of PC. This system is able to detect the occurrences of particular sounds in order to generate corresponding pre-programmed vibration patterns. It contributes to the improvement of the reality and the immersiveness of games and virtual reality applications. In addition, its advantage is to easily add vibration features to applications which were originally developed without consideration for vibration. Our system consists of an external DSP board for signal processing and a vibration pad which can be put on wrists. It is superior to other sound-driven vibration devices because its DSP board can detect more diverse sounds, has higher performance and does not interfere with PC. Also the wrist-wearable vibration pad is able to generate more realistic vibration than other mouse or joystick type devices.

  • PDF