• Title/Summary/Keyword: 소리 생성

Search Result 88, Processing Time 0.036 seconds

Cross-talk Canceler User Interface for Two-speaker 3D Sound Reproduction (2스피커 입체음향 재생용 크로스톡 제거기 유저 인터페이스)

  • 김현석;김풍민;서상원;김기흥
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1998.11a
    • /
    • pp.163-167
    • /
    • 1998
  • 스테레오로 생성된 음향을 헤드폰을 사용하면 좌,우의 소리는 각각 좌,우의 귀로 상호 혼선 없이 전달된다. 그러나 2개의 스피커를 사용한다면 좌,우의 소리가 혼합되어 들린다. 이러한. 혼합현상을 크로스톡이라 하며, 이 경우 본래의 소리는 변질되어 들린다. 이러한 현상을 방지차기 위해 스피커로 재생하기 전 신호를 크로스톡 제거기를 통해 한번 더 처리하는 방법을 사용한다. 여기에 사용되는 크로스톡 제거기는 2개의 스피커와 청취자간의 상대 위치, 그리고 스피커와 청취자가 있는 방의 음향특성에 의해서 적절히 변화되어야 한다. 본 연구에서는 방의 음향특성이 무향실과 같다고 가정하고 2개의 스피커와 청취자간의 상대적인 위치가 주어졌을 때 효과적으로 크로스톡 제거기률 생성해주는 알고리듬을 제시하였다. 제안된 방법은 머리전달함수를 기반으로 하여 스피커가 청취자로부터 표준반경에 위치하였을 때의 크로스톡 제거기률 데이터 베이스화 하여 일반적인 거리에 위치하였을 경우에도 실시간으로 확장 적용할 수 있다.

  • PDF

Scream Sound Detection Based on Universal Background Model Under Various Sound Environments (다양한 소리 환경에서 UBM 기반의 비명 소리 검출)

  • Chung, Yong-Joo
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.12 no.3
    • /
    • pp.485-492
    • /
    • 2017
  • GMM has been one of the most popular methods for scream sound detection. In the conventional GMM, the whole training data is divided into scream sound and non-scream sound, and the GMM is trained for each of them in the training process. Motivated by the idea that the process of scream sound detection is very similar to that of speaker recognition, the UBM which has been used quite successfully in speaker recognition, is proposed for use in scream sound detection in this study. We could find that UBM shows better performance than the traditional GMM from the experimental results.

3D Facial Modeling and Expression Synthesis using muscle-based model for MPEG-4 SNHC (MPEG-4 SNHC을 위한 3차원 얼굴 모델링 및 근육 모델을 이용한 표정합성)

  • 김선욱;심연숙;변혜란;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.368-372
    • /
    • 1999
  • 새롭게 표준화된 멀티미디어 동영상 파일 포맷인 MPEG-4에는 자연영상과 소리뿐만 아니라 합성된 그래픽과 소리를 포함하고 있다. 특히 화상회의나 가상환경의 아바타를 구성하기 위한 모델링과 에니메이션을 위한 FDP, FAP에 대한 표준안을 포함하고 있다. 본 논문은 MPEG-4에서 정의한 FDP와 FAP를 이용하여 화상회의나 가상환경의 아바타로 자연스럽고 현실감 있게 사용할 수 있는 얼굴 모델 생성을 위해서 보다 정교한 일반모델을 사용하고, 이에 근육 모델을 사용하여 보다 정밀한 표정 생성을 위해서 임의의 위치에 근육을 생성 할 수 있도록 근육 편집기를 작성하여, 표정 에니메이션을 수행할 수 있도록 에니메이션 편집 프로그램을 구현하였다.

  • PDF

Anomaly Classification of Railway Point Machine Using Sound Information and DNN (소리정보와 DNN을 이용한 선로전환기의 비정상 상황 분류)

  • Noh, Byeongjoon;Lee, Jonguk;Park, Daihee;Chung, Yonghwa;Kim, Heeyoung;Yoon, SukHan
    • Annual Conference of KIPS
    • /
    • 2016.10a
    • /
    • pp.611-614
    • /
    • 2016
  • 최근 철도 산업의 비중이 증가함에 따라 열차의 안정적인 주행이 그 어느 때보다 중요한 이슈로 부각되고있다. 특히, 열차의 진로 변경을 위한 핵심 요소인 선로전환기의 결함은 열차의 사고와 직결되는 장비 중 하나로써, 그 이상 여부를 사전에 인지하여 선로전환기의 안정성을 확보하기 위한 유지보수의 지능화 시스템이 필요하다. 본 논문에서는 선로전환기의 작동 시 발생하는 소리정보를 활용하여 선로전환기의 비정상 상황을 분류하는 시스템을 제안한다. 제안하는 시스템은 먼저, 선로전환기의 상황별 소리를 수집하고, 다양한 소리정보를 추출하여 특징 벡터를 생성한다. 다음으로, 딥러닝 모델 중 하나인 DNN(Deep Neural Network)을 이용하여 선로전환기의 비정상 상황을 분류한다. 실제 선로전환기의 전환 시 발생하는 소리 데이터를 기반으로 DNN의 파라미터에 따른 다양한 실험을 수행한 결과, 약 93.10%의 정확도를 갖는 안정적인 DNN 모델을 설계하였다.

CMS의 현황과 발전방향

  • 서인석
    • Proceedings of the Korea Database Society Conference
    • /
    • 2001.11a
    • /
    • pp.134-149
    • /
    • 2001
  • CMS(Contents Management Solution)는 컨텐츠를 관리하는 시스템을 의미. 시장조사기관 Ovum은 CMS에 대하여 'e-Business에 포함되는 모든 컨텐츠를 생성, 보관, 관리하는 일련의 작업(Task)과 과정(Process)'이라고 정의. 일반적으로는 '기업 내에 존재하는 다양한 포맷의 컨텐츠인 문서, 이미지, 동영상, 소리 등을 제작, 출판, 관리하는 솔루션으로 보통 컨텐츠 생성, 출판, 배포, 보관 등으로 정리되는 컨텐츠 라이프스타일 전체를 관리하는 것'으로 규정. (중략)

  • PDF

Recognition of Overlapped Sound and Influence Analysis Based on Wideband Spectrogram and Deep Neural Networks (광역 스펙트로그램과 심층신경망에 기반한 중첩된 소리의 인식과 영향 분석)

  • Kim, Young Eon;Park, Gooman
    • Journal of Broadcast Engineering
    • /
    • v.23 no.3
    • /
    • pp.421-430
    • /
    • 2018
  • Many voice recognition systems use methods such as MFCC, HMM to acknowledge human voice. This recognition method is designed to analyze only a targeted sound which normally appears between a human and a device one. However, the recognition capability is limited when there is a group sound formed with diversity in wider frequency range such as dog barking and indoor sounds. The frequency of overlapped sound resides in a wide range, up to 20KHz, which is higher than a voice. This paper proposes the new recognition method which provides wider frequency range by conjugating the Wideband Sound Spectrogram and the Keras Sequential Model based on DNN. The wideband sound spectrogram is adopted to analyze and verify diverse sounds from wide frequency range as it is designed to extract features and also classify as explained. The KSM is employed for the pattern recognition using extracted features from the WSS to improve sound recognition quality. The experiment verified that the proposed WSS and KSM excellently classified the targeted sound among noisy environment; overlapped sounds such as dog barking and indoor sounds. Furthermore, the paper shows a stage by stage analyzation and comparison of the factors' influences on the recognition and its characteristics according to various levels of noise.

A Study on Audio-Visual Interactive Art interacting with Sound -Focused on 21C Boogie Woogie (사운드에 반응하는 시청각적인 인터랙티브 아트에 관한 연구)

  • Son, Jin-Seok;Yang, Jee-Hyun;Kim, Kyu-Jung
    • Cartoon and Animation Studies
    • /
    • s.35
    • /
    • pp.329-346
    • /
    • 2014
  • Art is the product from the combination of politics, economy, and social and cultural aspects. Recent development of digital media has affected on the expansion of visual expression in art. Digital media allow artists to use sound and physical interaction as well as image as an plastic element for making a work of art. Also, digital media help artists create an interactive, synaesthetic and visual perceptive environment by combining viewers' physical interaction with the reconstruction of image, sound, light, and among other plastic elements. This research was focused on the analysis of the relationship between images in art work and the viewer and data visualization using sound from the perspective of visual perception. This research also aimed to develop an interactive art by visualizing physical data with sound generating from outer stimulus or the viewer. Physical data generating from outer sound can be analyzed in various aspects. For example, Sound data can be analyzed and sampled within pitch, volume, frequency, and etc. This researcher implemented a new form of media art through the visual experiment of LED light triggered by sound frequency generating from viewers' voice or outer physical stimulus. Also, this researcher explored the possibility of various visual image expression generating from the viewer's reaction to illusionary characteristics of light(LED), which can be transformed within external physical data in real time. As the result, this researcher used a motif from Piet Mondrian's Broadway Boogie Woogie in order to implement a visual perceptive interactive work reacting with sound. Mondrian tried to approach at the essence of visual object by eliminating unnecessary representation elements and simplifying them in painting and making them into abstraction consisting of color, vertical and horizontal lines. This researcher utilized Modrian's simplified visual composition as a representation metaphor in oder to transform external sound stimulus into the element of light(LED), and implemented an environment inducing viewers' participation, which is a dynamic composition maximizing a synaesthetic expression, differing from Modrian's static composition.

A Method of Arrangement of Voice and Sound : For User Interface of Domestic Appliance (음성과 소리의 할당 방법 : 가전제품 UI 를 중심으로)

  • Hong, Ji-Young;Chae, Haeng-Suk;Lee, Seung-Yong;Park, Young-Hyun;Kim, Jun-Hee;Ryu, Hyung-Su;Kim, Jong-Wan;Han, Kwang-Hee
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02b
    • /
    • pp.478-483
    • /
    • 2007
  • 본 연구는 가전제품 사용자 인터페이스에서 음성 신호와 청각 신호의 최적 할당 방법을 기술하였다. 가정에서 수시로 접하는 가전제품에서 음성 유저 인터페이스(Voice User Interface, 이하 VUI) 는 음성을 매개로 일어나는 인간과 기계 간 인터페이스를 뜻한다. 음성 유저 인터페이스의 단독적 적용보다는 소리 신호와 함께 사용하여 사용자들의 인터페이스를 향상시킬 수 있다. 본 연구에서는 주부 사용자들을 대상으로 F.G.I, 실험, Depth Interview 를 수행하여 가전제품의 음성 생성 및 표현 인터페이스에서 음성과 소리 신호의 배치에 대한 사용자들의 니즈 조사 및 실험 결과를 기반으로 최적의 할당 방법을 제시하였다.

  • PDF

Multimodal Cough Detection Model Using Audio and Acceleration Data (소리와 가속도 데이터를 이용한 멀티모달 기침 감지 모델)

  • Kang, Jae-Sik;Back, Moon-Ki;Choi, Hyung-Tak;Won, Yoon-Seung;Lee, Kyu-Chul
    • Annual Conference of KIPS
    • /
    • 2018.10a
    • /
    • pp.746-748
    • /
    • 2018
  • 전 세계적으로 인플루엔자에 의해 매년 29~64만의 사망자가 발생하며 사회, 경제적 피해를 일으키고 있다. 기침에 의해 생성된 비말은 인플루엔자의 주요 전파 방법으로, 기침 감지 기술을 통해 확산 방지가 가능하다. 이전의 기침 감지에 대한 연구는 기침 소리와 전통적인 기계학습기법을 사용하였다. 본 논문은 기침 소리와 더불어 기침 시 발생하는 신체의 움직임 정보를 동시에 학습하는 멀티모달 딥러닝 기반의 기침 감지 모델을 제안한다. 도출된 모델과 기존의 모델과의 성능 비교를 통해 제안한 모델이 이전의 기침 감지 모델보다 정확한 기침 인식이 가능함을 보였다. 본 논문이 제안하는 모델은 스마트 워치와 같은 웨어러블 기기에 적용되면 인플루엔자의 확산 방지에 크게 기여할 수 있을 것이다.

Vibration Stimulus Generation using Sound Detection Algorithm for Improved Sound Experience (사운드 실감성 증진을 위한 사운드 감지 알고리즘 기반 촉각진동자극 생성)

  • Ji, Dong-Ju;Oh, Sung-Jin;Jun, Kyung-Koo;Sung, Mee-Young
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.158-162
    • /
    • 2009
  • Sound effects coming with appropriate tactile stimuli can strengthen its reality. For example, gunfire in games and movies, if it is accompanied by vibrating effects, can enhance the impressiveness. On a similar principle, adding the vibration information to existing sound data file and playing sound while generating vibration effects through haptic interfaces can augment the sound experience. In this paper, we propose a method to generate vibration information by analyzing the sound. The vibration information consists of vibration patterns and the timing within a sound file. Adding the vibration information is labor-intensive if it is done manually. We propose a sound detection algorithm to search the moments when specific sounds occur in a sound file and a method to create vibration effects at those moments. The sound detection algorithm compares the frequency characteristic of specific sounds and finds the moments which have similar frequency characteristic within a sound file. The detection ratio of the algorithm was 98% for five different kinds of gunfire. We also develop a GUI based vibrating pattern editor to easily perform the sound search and vibration generation.

  • PDF