• 제목/요약/키워드: Music Engineering

검색결과 611건 처리시간 0.033초

다양한 연령층이 좋아하는 음악특성 분석 (Analysis of Musical Characteristic Which is Liked by Variable Age Group)

  • 윤상훈;견두헌;배명진
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2008년도 하계종합학술대회
    • /
    • pp.989-990
    • /
    • 2008
  • Most of all popular music is made by genre and specification of music according to age group. Generally Young people of $10{\sim}20$ ages like dance and techno, But old people over 40 age like trot. In this paper, we analyzed characteristic of music which people preferred by an age group. Without relevance with age, we could confirm the factor of music which popular in all age group by analyzing. The common factor of music all of age group liked are slow word, fast beat, repeated and simple melody, and characteristic of frequency in affluent middle tone.

  • PDF

국악 악기 가야금과 피리의 신호 분석에 관한 연구 (A Study on Signal Analysis of Korean Traditional Music Instrument, Kayakeum and Piri)

  • 이상민;이종석;이광형
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1999년도 학술발표대회 논문집 제18권 1호
    • /
    • pp.247-250
    • /
    • 1999
  • Like any other music, Korean traditional music make a beautiful compound melody of many music instruments. In this paper, we separate melody especially played by two instruments, that is Kayakeum, Piri(Korean pipe) analysing each audio signal. Kayakeum, Piri have a unique frequency component for each sound height. Therefore each melody of them can be expressed into each sheet of notation separately and MIDI codes. We expect that this paper will benefit all the people studying and instructing Korean music.

  • PDF

표적 구분을 위한 ISAR 영상 기법에 대한 연구 (A Study on ISAR Imaging Algorithm for Radar Target Recognition)

  • 박종일;김경태
    • 한국전자파학회논문지
    • /
    • 제19권3호
    • /
    • pp.294-303
    • /
    • 2008
  • ISAR(Inverse Synthetic Aperture Radar) 영상은 표적에 대한 RCS(Radar Cross Section)를 2차원 공간에 표현하며, 표적구분에 이용될 수 있다. 2차원 IFFT(Inverse fast Fourier Transform)를 이용하여 쉽고 빠르게 ISAR 영상을 만들 수 있다. 하지만 IFFT를 이용하여 만든 ISAR 영상은 측정된 주파수 대역 폭과 각도 영역이 작아질 경우 해상도가 떨어지게 된다. 이를 해결하기 위해 AR(Auto Regressive), MUSIC(Multiple SIgnal Classification), Modified MUSIC과 같은 고해상도 스펙트럼 예측 기법을 이용하여 주파수 대역 폭과 각도 영역이 작아도 높은 해상도의 ISAR 영상을 만들 수 있다. 본 논문에서는 IFFT, AR, MUSIC, Modified MUSIC 기법을 적용하여 만든 ISAR 영상을 이용하여 표적 구분에 이용하고, 표적 구분에 적절한 ISAR 영상을 얻기 위한 고해상도 기법을 연구한다. 그리고 표적 구분 결과를 보여준다.

텍스트 마이닝 기반의 음악치료 관리 모델에 관한 연구 (A Study on the Music Therapy Management Model Based on Text Mining)

  • 박성현;김재웅;김동현;조한진
    • 한국융합학회논문지
    • /
    • 제10권8호
    • /
    • pp.15-20
    • /
    • 2019
  • 음악치료는 장애아동 및 정신치료에 많은 효과를 보이고 있다. 오늘날의 음악치료 시스템은 구체적인 치료 시스템이 구축되어 있지 않은 상황으로, 음악 치료사들이 정확한 치료를 하기 위해 다양한 음악치료 사례들과 치료 이력 데이터들을 분석하고, 해당 환자 또는 내담자에게 가장 적합한 치료를 시행해야 하지만, 현실은 여러 가지 요인들로 인해 많은 어려움이 따르고 있다. 이를 해결하고자 본 논문에서는 기존 치료 데이터와 텍스트 마이닝 기술을 융합한 음악치료 지식관리 모델을 제안한다. 제안 모델을 활용하면 유사한 사례검색 및 환자에 관련된 구체적이고 확실한 데이터들을 기반으로 환자 또는 내담자로 하여금 정확하고 효과적인 치료가 가능하다. 이를 통해서 음악치료의 본래 목적과 그 효과를 최대로 이끌어 내는 효과를 기대할 수 있고 나아가 많은 환자들의 치료에 도움이 될 것으로 기대된다.

A Music Recommendation Method Using Emotional States by Contextual Information

  • Kim, Dong-Joo;Lim, Kwon-Mook
    • 한국컴퓨터정보학회논문지
    • /
    • 제20권10호
    • /
    • pp.69-76
    • /
    • 2015
  • User's selection of music is largely influenced by private tastes as well as emotional states, and it is the unconsciousness projection of user's emotion. Therefore, we think user's emotional states to be music itself. In this paper, we try to grasp user's emotional states from music selected by users at a specific context, and we analyze the correlation between its context and user's emotional state. To get emotional states out of music, the proposed method extracts emotional words as the representative of music from lyrics of user-selected music through morphological analysis, and learns weights of linear classifier for each emotional features of extracted words. Regularities learned by classifier are utilized to calculate predictive weights of virtual music using weights of music chosen by other users in context similar to active user's context. Finally, we propose a method to recommend some pieces of music relative to user's contexts and emotional states. Experimental results shows that the proposed method is more accurate than the traditional collaborative filtering method.

스마트폰을 위한 악기 변환 기반의 음악 합주 애플리케이션 개발 (Musical Instrument Conversion based Music Ensemble Application Development for Smartphone)

  • 장원;조효진;신성현;박호종
    • 방송공학회논문지
    • /
    • 제22권2호
    • /
    • pp.173-181
    • /
    • 2017
  • 본 논문에서는 스마트폰을 위한 악기 변환 기반의 음악 합주 애플리케이션을 제안한다. 기존 스마트폰 애플리케이션의 가상 악기를 사용하여 음악을 합주하려면 모든 악기의 연주 방법을 알아야 한다. 또한, 스마트폰의 한 화면에 특정 가상 악기 전체를 표현할 수 없는 경우에는 해당 악기를 자연스럽게 연주하기 어려운 문제가 있다. 이를 해결하기 위하여 본 논문에서는 어쿠스틱 기타를 연주하여 사운드를 녹음하고, 녹음된 사운드를 각각 다른 악기 사운드로 변환하여 원하는 악기 사운드를 얻고, 각 악기에 따른 효과를 적용하고, 최종적으로 모든 사운드를 합성하여 합주 사운드를 생성하는 음악 합주 애플리케이션을 제안한다. 제안한 애플리케이션을 사용하면 어쿠스틱 기타 한 대만을 연주하여 혼자서 합주 음악을 생성할 수 있다.

이동위성 관제용 위성 위치 탐지 알고리즘의 통계적 성능 분석 (The Statistical Performance Analysis of Satellite Tracking Algorithm for Mobile TT&C)

  • 이윤수;이병섭;정원찬
    • 한국전자파학회논문지
    • /
    • 제18권12호
    • /
    • pp.1352-1358
    • /
    • 2007
  • 본 논문에서는 차세대 이동위성 관제 시스템에서 위성 방향을 탐지하는 알고리즘으로 제안된 MUSIC(Multiple Source Classification) 알고리즘의 통계적 특성에 대하여 서술하였다. 이동위성 관제 시스템에서 MUSIC 알고리즘을 위성 방향 탐지 알고리즘으로 채택할 경우, 이동 위성 관제 시스템 성능이 MUSIC의 위성 방향 탐지 성능에 종속될 수밖에 없다. 따라서 본 논문에서는 여러 가지 데이터 길이와 신호대 잡음비에 따른 MUSIC 알고리즘에 사용되는 파라미터의 통계적 특성을 조사하고 이러한 파라미터가 궁극적으로 위성 방향 탐지에 미치는 영향을 분석하였다.

색과 음악 자극에 의한 시청각 감성지표에 관한 연구 (A Study on Visual and Auditory Emotion under Color and Music Stimuli)

  • 김남균;김지훈;유충기
    • 대한의용생체공학회:의공학회지
    • /
    • 제19권5호
    • /
    • pp.539-546
    • /
    • 1998
  • 본 연구에서는 시각과 청각자극을 대표하는 색과 음악자극 하에서 인감의 감성을 정량적으로 평가하고 색감성과 음악감성 사이의 상관성을 조사하였다. 감성의 정량화를 위하여 7점 척도 20항목의 설문지를 통한 의미 미분법과 요인분석을 사용하여 피험자의 주관적 평가를 수행하였고, 뇌전도, 심전도, 피부 전도도, 호흡률 등의 생체신호를 측정, 분석하였다. 피험사의 주관적 평가로부터 각 자극에 대한 대표 감성어휘를 도출하였으며, 생체신호의 분석을 통하여 본 논문에서 제안한 정규화된 변수 값으로 색자극콰 음악자극에 대한 감성을 정량적으로 평가하여 지표화할 수 있었다. 또한 색자극과 음악자극 사이의 상관성을 Kendall의 상관계수로 분석한 결과 0.461에서 0.810의 상관성이 있음을 확인하였다. 본 연구에서 사용한 감성어휘 추출방법이나 감성지표 개발 방법은 감성제품 개발이나 색치료, 음악치료 등에 이용될 수 있다.

  • PDF

음악 스트리밍 서비스에서 음원과 메타데이터 노출 분석력 및 방지 방안 (Analysis and Prevention of Contents Exposure in Music Streaming)

  • 정우식;남현규;이영석
    • KNOM Review
    • /
    • 제21권2호
    • /
    • pp.10-17
    • /
    • 2018
  • 스마트기기의 대중화와 무선 인터넷의 발달로 음원 콘텐츠의 소비방식이 다운로드가 아닌 스트리밍으로 변화하고 있다. 그러나 취약한 스트리밍 콘텐츠 보호 방식으로 인해 음원 데이터와 메타데이터가 외부로 노출될 수 있다. 본 논문에서는 국내외 19개의 음원 스트리밍 서비스를 대상으로 네트워크 트래픽 상에서 노출되는 음원과 음원의 메타데이터를 분석하고 이에 대한 방지방안을 제안한다. 분석결과 19개의 서비스에서 모두 음원의 메타데이터의 노출이 있었다. 이러한 음원과 메타데이터의 노출을 막고자 인증서 고정 방법 등의 음원 및 메타데이터 보호방법을 제안한다.

Attention-based CNN-BiGRU for Bengali Music Emotion Classification

  • Subhasish Ghosh;Omar Faruk Riad
    • International Journal of Computer Science & Network Security
    • /
    • 제23권9호
    • /
    • pp.47-54
    • /
    • 2023
  • For Bengali music emotion classification, deep learning models, particularly CNN and RNN are frequently used. But previous researches had the flaws of low accuracy and overfitting problem. In this research, attention-based Conv1D and BiGRU model is designed for music emotion classification and comparative experimentation shows that the proposed model is classifying emotions more accurate. We have proposed a Conv1D and Bi-GRU with the attention-based model for emotion classification of our Bengali music dataset. The model integrates attention-based. Wav preprocessing makes use of MFCCs. To reduce the dimensionality of the feature space, contextual features were extracted from two Conv1D layers. In order to solve the overfitting problems, dropouts are utilized. Two bidirectional GRUs networks are used to update previous and future emotion representation of the output from the Conv1D layers. Two BiGRU layers are conntected to an attention mechanism to give various MFCC feature vectors more attention. Moreover, the attention mechanism has increased the accuracy of the proposed classification model. The vector is finally classified into four emotion classes: Angry, Happy, Relax, Sad; using a dense, fully connected layer with softmax activation. The proposed Conv1D+BiGRU+Attention model is efficient at classifying emotions in the Bengali music dataset than baseline methods. For our Bengali music dataset, the performance of our proposed model is 95%.