• 제목/요약/키워드: Multiple Audio Features

검색결과 15건 처리시간 0.024초

다중 오디오 특징을 이용한 유해 동영상의 판별 (Classification of Phornographic Video with using the Features of Multiple Audio)

  • 김정수;정명범;성보경;권진만;구광효;고일주
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.522-525
    • /
    • 2009
  • 본 논문에서는 인터넷의 역기능으로 현대 사회에 큰 문제를 야기 시키는 음란성 유해 동영상을 내용기반으로 판별하기 위한 방법을 제안하였다. 유해 동영상에서 오디오 데이터를 이용하여 특징을 추출하였다. 사용된 오디오 특징은 주파수 스펙트럼, 자기상관, MFCC이다. 음란성의 내용이 될 수 있는 소리의 특징을 추출하였고 동영상 전체 오디오에서 해당 소리의 특징과 일치하는지를 측정하여 유해성을 판별하였다. 제안한 방법의 실험은 각 특징마다 유해 판별 측정 결과와 다중 특징을 이용한 측정 결과를 비교 수행하였다. 하나의 오디오 특징만을 추출하여 사용하였을 때 보다 다중 특징의 사용이 좋은 결과를 얻을 수 있었다.

  • PDF

CSpeech(Version 3.1)

  • Sik, Choe-Hong
    • 대한음성언어의학회:학술대회논문집
    • /
    • 대한음성언어의학회 1995년도 제4회 학술대회 심포지움 및 워크샵
    • /
    • pp.141-153
    • /
    • 1995
  • CSpeech is a software package that implements an audio waveform/speech analysis workstation on an IBM Personal Computer or hardware compatible computer. Features include digitizing audio waveforms on single or multiple channels, displaying the digitized waveforms, playing back audio waveforms from selected intervals of sing1e channels, saving and retrieving waveforms from binary format disk files, and analysing audio waveforms for their temporal and spectral properties. The distinguishing characteristics of CSpeech are its support for multiple channels, minimal restrictions on sample rate and waveform duration support fur a variety of hardware configurations, fast graphics display, and its user- extensible menu- based command structure.

  • PDF

Compression history detection for MP3 audio

  • Yan, Diqun;Wang, Rangding;Zhou, Jinglei;Jin, Chao;Wang, Zhifeng
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권2호
    • /
    • pp.662-675
    • /
    • 2018
  • Compression history detection plays an important role in digital multimedia forensics. Most existing works, however, mainly focus on digital image and video. Additionally, the existed audio compression detection algorithms aim to detect the trace of double compression. In real forgery scenario, multiple compression is more likely to happen. In this paper, we proposed a detection algorithm to reveal the compression history for MP3 audio. The statistics of the scale factor and Huffman table index which are the parameters of MP3 codec have been extracted as the detecting features. The experimental results have shown that the proposed method can effectively identify whether the testing audio has been previously treated with single/double/triple compression.

Intra-Class Random Erasing (ICRE) augmentation for audio classification

  • Kumar, Teerath;Park, Jinbae;Bae, Sung-Ho
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 추계학술대회
    • /
    • pp.244-247
    • /
    • 2020
  • Data augmentation has been helpful in improving the performance in deep learning, when we have a limited data and random erasing is one of the augmentations that have shown impressive performance in deep learning in multiple domains. But the main issue is that sometime it loses good features when randomly selected region is erased by some random values, that does not improve performance as it should. We target that problem in way that good features should not be lost and also want random erasing at the same time. For that purpose, we introduce new augmentation technique named Intra-Class Random Erasing (ICRE) that focuses on data to learn robust features of the same class samples by randomly exchanging randomly selected region. We perform multiple experiments by using different models including resnet18, VGG16 over variety of the datasets including ESC10, UrbanSound8K. Our approach has shown effectiveness over others methods including random erasing.

  • PDF

실시간 처리를 위한 멀티채널 오디오 코덱의 구현 (The Implementation of Multi-Channel Audio Codec for Real-Time operation)

  • 홍진우
    • The Journal of the Acoustical Society of Korea
    • /
    • 제14권2E호
    • /
    • pp.91-97
    • /
    • 1995
  • 본 논문은 저비트율을 갖는 고품질의 HDTV용 멀티채녈 오디오 코덱을 구현에 대해 기술한다. 이 코덱은 저주파수 효과 채널을 포함한 최대 3/2 스테레오 채널 구성, 최대 채널 구성보다 낮은 채널 구성과의 호환성, 기존 2채널 스테레오 시스템과의 호환성(MPEG-1 오디오), 그리고 다중 대화 채널 등을 제공하는 특징을 갖는다. 구현한 멀티채널 오디오 코덱의 인코더는 3개의 DSP(TI의 TMS320C40)로 구성되었고, 최대 48KHz 샘플링율과 16비트의 부호화를 갖는 5.1 채널의 아날로그 및 AES/EBU, IEC 958등의 포맷을 갖는 스테레오 2채널의 디지털 오디오를 이력으로 받아 지각 심리음향 모델을 사용하여 압축한후 384Kbps의 빛 스트림으로 전송하는 특징을 가지며, 디코더는 2개의 DSP로 구성되어 있고, 384Kbps로 입력되는 비트 스트림을 받아 최대 5.1 채널의 아날로그 및 2개의 2채널 스테레오의 디지털 오디오 신호로 출력시키는 특징을 갖는다. DSP를 이용한 다중처리는 DMA를 통한 통신포트를 이용한 DSP들간의 고속 데이터 전송에 의해 이루어진다. 끝으로, 멀티 채널 오디오 코덱의 구현을 통하여 나타난 실시간 처리는 위해 고려해야할 기술적 사항을 제안한다.

  • PDF

DNN 학습을 이용한 퍼스널 비디오 시퀀스의 멀티 모달 기반 이벤트 분류 방법 (A Personal Video Event Classification Method based on Multi-Modalities by DNN-Learning)

  • 이유진;낭종호
    • 정보과학회 논문지
    • /
    • 제43권11호
    • /
    • pp.1281-1297
    • /
    • 2016
  • 최근 스마트 기기의 보급으로 자유롭게 비디오 컨텐츠를 생성하고 이를 빠르고 편리하게 공유할 수 있는 네트워크 환경이 갖추어지면서, 퍼스널 비디오가 급증하고 있다. 그러나, 퍼스널 비디오는 비디오라는 특성 상 멀티 모달리티로 구성되어 있으면서 데이터가 시간의 흐름에 따라 변화하기 때문에 이벤트 분류를 할 때 이에 대한 고려가 필요하다. 본 논문에서는 비디오 내의 멀티 모달리티들로부터 고수준의 특징을 추출하여 시간 순으로 재배열한 것을 바탕으로 모달리티 사이의 연관관계를 Deep Neural Network(DNN)으로 학습하여 퍼스널 비디오 이벤트를 분류하는 방법을 제안한다. 제안하는 방법은 비디오에 내포된 이미지와 오디오를 시간적으로 동기화하여 추출한 후 GoogLeNet과 Multi-Layer Perceptron(MLP)을 이용하여 각각 고수준 정보를 추출한다. 그리고 이들을 비디오에 표현된 시간순으로 재 배열하여 비디오 한 편당 하나의 특징으로 재 생성하고 이를 바탕으로 학습한 DNN을 이용하여 퍼스널 비디오 이벤트를 분류한다.

채팅과 오디오의 다중 시구간 정보를 이용한 영상의 하이라이트 예측 (Video Highlight Prediction Using Multiple Time-Interval Information of Chat and Audio)

  • 김은율;이계민
    • 방송공학회논문지
    • /
    • 제24권4호
    • /
    • pp.553-563
    • /
    • 2019
  • 최근 개인방송 플랫폼을 통해 업로드 되는 콘텐츠가 증가함에 따라 시청자의 편의를 위해 하이라이트 영상을 제공하는 서비스에 대한 수요가 증가하고 있다. 이에 본 논문에서는 영상의 하이라이트 위치를 자동으로 예측하는 모델을 제안한다. 제안하는 모델은 채팅과 오디오 정보를 이용하며 양방향 LSTM을 사용해 영상의 흐름을 이해한다. 또한 콘텐츠의 종류에 따라 단기적 흐름과 함께 중장기적 흐름을 파악하는 다중 시구간 모델도 함께 제안한다. 제안한 모델은 개인방송 플랫폼을 통해 중계된 e스포츠와 야구경기 영상들을 이용하여 평가하였으며, 다중 시구간 정보를 활용하는 것이 하이라이트 예측에 유용함을 보였다.

CAN을 활용한 스마트폰 기반 차량 편의장치 제어 서비스 개발 (Developing Smartphone-based Control Service of Vehicle's Convenience Features using CAN)

  • 전병찬;차시호;조상엽
    • 디지털산업정보학회논문지
    • /
    • 제8권1호
    • /
    • pp.9-15
    • /
    • 2012
  • Multiple convenience features have been getting installed in recently released cars. However, the control of them has many uncomfortable matters yet. To resolve them, it is needed to study how to use easier the convenience features and control them remotely. Currently, wide range of convergence services are being released in various industries by using smartphone and smartphones with its state-of-the-art functions also are being released. In this paper, we design and implement smartphone-based applications for controling the vehicle's convenience features to control the vehicle convenience features with smartphone. To do this, we configure CAN (Controller Area Network) communication between the vehicle's various convenience features, and establish MCU (Micro Controller Unit) to control each feature. We also connect between the MCU and smartphones to make them available for the remote control. We can control lights, turn signals, audio, windows, air conditioner, and so on with the implemented smartphone-based control service of vehicle's convenience features using CAN remotely.

오디오와 이미지의 다중 시구간 정보와 GAN을 이용한 영상의 하이라이트 예측 알고리즘 (Video Highlight Prediction Using GAN and Multiple Time-Interval Information of Audio and Image)

  • 이한솔;이계민
    • 방송공학회논문지
    • /
    • 제25권2호
    • /
    • pp.143-150
    • /
    • 2020
  • 최근 다양한 매체를 통해 폭발적인 양의 콘텐츠가 업로드 되고 있으며 그 가운데 게임과 스포츠 영상은 상당한 비율을 차지한다. 방송사에서는 시청자 편의를 위해 경기 영상 중 흥미를 끄는 장면을 모아 하이라이트 영상을 만들어 제공한다. 그러나 이는 시간과 비용이 많이 소요되는 문제가 있다. 본 논문에서는 게임과 스포츠 경기에서 자동으로 하이라이트를 예측하는 모델을 제안한다. 기존의 방법들이 이미지 정보만을 주로 이용하는데 반해 우리는 오디오와 이미지 정보를 함께 사용하며, 영상의 단기적 전후관계와 중장기적 흐름을 동시에 파악하는 방법을 제시한다. 또한 더 좋은 특징벡터를 찾아내기 위해 GAN을 결합한 모델을 설명한다. 제안하는 모델들은 e스포츠 경기 영상과 야구 경기 영상을 이용하여 평가한다.

Animal Sounds Classification Scheme Based on Multi-Feature Network with Mixed Datasets

  • Kim, Chung-Il;Cho, Yongjang;Jung, Seungwon;Rew, Jehyeok;Hwang, Eenjun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권8호
    • /
    • pp.3384-3398
    • /
    • 2020
  • In recent years, as the environment has become an important issue in dealing with food, energy, and urban development, diverse environment-related applications such as environmental monitoring and ecosystem management have emerged. In such applications, automatic classification of animals using video or sound is very useful in terms of cost and convenience. So far, many works have been done for animal sounds classification using artificial intelligence techniques such as a convolutional neural network. However, most of them have dealt only with the sound of a specific class of animals such as bird sounds or insect sounds. Due to this, they are not suitable for classifying various types of animal sounds. In this paper, we propose a sound classification scheme based on a multi-feature network for classifying sounds of multiple species of animals. To do that, we first collected multiple animal sound datasets and grouped them into classes. Then, we extracted their audio features by generating mixed records and used those features for training. To evaluate the effectiveness of our scheme, we constructed an animal sound classification model and performed various experiments. We report some of the results.