• Title/Summary/Keyword: 자동 음악 생성

Search Result 33, Processing Time 0.041 seconds

The Techniques of Automatic Sound Generation for 3-D Animation (3차원 애니메이션을 위한 음향자동생성기술 동향)

  • Kim, Hyeong-Gyo;Lee, Ui-Taek
    • Electronics and Telecommunications Trends
    • /
    • v.11 no.4 s.42
    • /
    • pp.27-36
    • /
    • 1996
  • 음악은 컴퓨터 음악, 인간-컴퓨터 상호작용, 데이터 청각화 그리고 최근 들어 컴퓨터 애니메이션이나 가상환경등에서 중요한 부분을 차지해왔다. 지금까지 음향의 모델링이나 함성 등 음향 자체에 대한 요소 기술들에 관해서는 많은 연구가 진행되었으나 앞으로 컴퓨터 애니메이션, 가상환경 등과 같이 영상의 동작과 음향이 서로 밀접하게 연관된 분야에서는 음향을 동작과 통합 처리할 수 있는 기술이 필수적이다. 따라서 본 고에서는 컴퓨터 애니메이션이나 가상환경 등에서 영상 내 물체의 움직임, 그와 동기된 음향의 자동생성 기술의 원리, 그 요소 기술들, 그리고 앞으로의 전망 등을 기술한다.

Music classification system through emotion recognition based on regression model of music signal and electroencephalogram features (음악신호와 뇌파 특징의 회귀 모델 기반 감정 인식을 통한 음악 분류 시스템)

  • Lee, Ju-Hwan;Kim, Jin-Young;Jeong, Dong-Ki;Kim, Hyoung-Gook
    • The Journal of the Acoustical Society of Korea
    • /
    • v.41 no.2
    • /
    • pp.115-121
    • /
    • 2022
  • In this paper, we propose a music classification system according to user emotions using Electroencephalogram (EEG) features that appear when listening to music. In the proposed system, the relationship between the emotional EEG features extracted from EEG signals and the auditory features extracted from music signals is learned through a deep regression neural network. The proposed system based on the regression model automatically generates EEG features mapped to the auditory characteristics of the input music, and automatically classifies music by applying these features to an attention-based deep neural network. The experimental results suggest the music classification accuracy of the proposed automatic music classification framework.

Chord-based stepwise Korean Trot music generation technique using RNN-GAN (RNN-GAN을 이용한 코드 기반의 단계적 트로트 음악 생성 기법)

  • Hwang, Seo-Rim;Park, Young-Cheol
    • The Journal of the Acoustical Society of Korea
    • /
    • v.39 no.6
    • /
    • pp.622-628
    • /
    • 2020
  • This paper proposes a music generation technique that automatically generates trot music using a Generative Adversarial Network (GAN) model composed of a Recurrent Neural Network (RNN). The proposed method uses a method of creating a chord as a skeleton of the music, creating a melody and bass in stages based on the chord progression made, and attaching it to the corresponding chord to complete the structured piece. Also, a new chorus chord progression is created from the verse chord progression by applying the characteristics of a trot song that repeats the structure divided into an individual section, such as intro, verse, and chorus. And it extends the length of the created trot. The quality of the generated music was specified using subjective evaluation and objective evaluation methods. It was confirmed that the generated music has similar characteristics to the existing trot.

Automatic Generation of Music Accompaniment Using Reinforcement Learning (강화 학습을 통한 자동 반주 생성)

  • Kim, Na-Ri;Kwon, Ji-Yong;Yoo, Min-Joon;Lee, In-Kwon
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.739-743
    • /
    • 2008
  • In this paper, we introduce a method for automatically generating accompaniment music, according to user's input melody. The initial accompaniment chord is generated by analyzing user's input melody. Then next chords are generated continuously based on markov chain probability table in which transition probabilities of each chord are defined. The probability table is learned according to reinforcement learning mechanism using sample data of existing music. Also during playing accompaniment, the probability table is learned and refined using reward values obtained in each status to improve the behavior of playing the chord in real-time. The similarity between user's input melody and each chord is calculated using pitch class histogram. Using our method, accompaniment chords harmonized with user's melody can be generated automatically in real-time.

  • PDF

Automatic Video Generation Based on Image Mood Classification (이미지 분위기 분류에 기반한 동영상 자동 생성)

  • Cho, Dong-Hee;Nam, Yong-Wook;Lee, Hyun-Chang;Kim, Yong-Hyuk
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.11a
    • /
    • pp.67-68
    • /
    • 2019
  • 머신러닝을 활용한 이미지 분류는 단순 사물을 넘어서 사람의 감성과 같은 추상적이고 주관적인 개념에도 적용되고 있다. 이 중에서도 합성곱 신경망을 통한 이미지의 감정 분류 연구가 더욱 활성화되고 있다. 그럼에도 다양한 멀티미디어들을 머신러닝 알고리즘으로 분석하고 이를 의미있는 결과로 재생성하기는 매우 복잡하고 까다롭다. 본 연구에서는 기존 연구를 개선시켜 음악 데이터를 다층퍼셉트론 모델을 통해 분류된 이미지와 결합한 동영상을 파이썬의 다양한 라이브러리를 통해 자동으로 생성하였다. 이를 통해 특정 분위기로 분류된 이미지들과 이에 어울리는 음악을 매칭시켜 유의미한 새로운 멀티미디어를 자동으로 생성할 수 있었다.

  • PDF

Music-Driven Choreography Generation and Real-time Motion Assessment (음악에 어울리는 춤 자동 생성 및 실시간 춤 모션 판정)

  • So-Hyun Park;Yu-Jin Jeong;Kuen-Young Park;Ji-Woo Kang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.544-545
    • /
    • 2023
  • 최근 화제인 가상 아이돌의 춤 제작에 많은 자원 및 비용이 발생한다. 만일 춤을 자동으로 생성해 3D 모델에 피팅하면 이러한 비용을 줄일 수 있으며, 다양하고 복잡한 춤의 구현도 가능할 것이다. 또한, 댄스 게임을 통해 춤을 배우고 즐기는 사람들이 많지만, 경험할 수 있는 춤이 한정적이며, 모션 인식 정확도가 낮다는 단점이 있다. 따라서 본 논문에서는 트랜스포머 구조의 인공지능 모델을 통해 음악에 어울리는 3D 춤 모션을 자동으로 생성하고, 3D 자세 추정 모델을 사용해 사용자의 모션을 추정한 후, 두 모션의 유사도를 랜드마크 3D 좌표로 계산하여 판정하고자 한다. 이는 1 인 댄스 룸 또는 댄스 게임에 활용되어 발전 가능하다.

Implementation of Musical Note Generation System using Rhythm Information (리듬정보를 이용한 악보생성 시스템 구현)

  • 소두석;최재원;이종혁
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.7 no.6
    • /
    • pp.1210-1216
    • /
    • 2003
  • Traditional indexing mechanism are based on the song's metadata such as the title and the composer and so on. However, these system have a major limitation that users have to know the metadata of the songs they want to retrieve. In order to solve these limitation, we proposed a rhythm extraction system that allows users to retrieve music information efficiently from a large music database using the rhythm that is defined as the parts of the music.

Automatic Music Video Generation using the multi-level temporal segment matching (다중레벨(Multi-Level) 분할 매칭을 이용한 뮤직비디오 자동 생성)

  • Yoon Jong-Chul;Lee In-Kwon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06a
    • /
    • pp.94-96
    • /
    • 2006
  • 뮤직 비디오란 주어진 음악과 비디오가 동기화 된 형태의 창작물을 뜻한다. 기존의 뮤직비디오 제작방식에서는 만들어진 음악을 위해 영상 촬영에 전문적인 촬영 기술을 요구하였다. 본 논문에선 보다 쉬운 뮤직비디오 생성을 위하여 비디오와 음악의 특성을 분석하여 자동적인 뮤직비디오 생성시스템을 소개한다. 두 개체의 연속성을 보장하는 비교를 위해 우리는 각각의 객체의 흐름을 분석하고, 흐름의 유사성을 기준으로 분할하는 기법을 제시한다. 분할된 영상과 음악의 특성 비교를 통한 최적화된 매칭기법 을 비롯하여 보다 다양한 조각 생성을 위한 다중 레벨(multi-level)분할 기반의 매칭 기법을 소개한다. 본 논문의 기술을 사용하여, 일반인이 홈비디오 등을 사용하여 손쉽게 뮤직비디오를 제작할 수 있다.

  • PDF

Automatic Music Summarization Method by using the Bit Error Rate of the Audio Fingerprint and a System thereof (오디오 핑거프린트의 비트에러율을 이용한 자동 음악 요약 기법 및 시스템)

  • Kim, Minseong;Park, Mansoo;Kim, Hoirin
    • Journal of Korea Multimedia Society
    • /
    • v.16 no.4
    • /
    • pp.453-463
    • /
    • 2013
  • In this paper, we present an effective method and a system for the music summarization which automatically extract the chorus portion of a piece of music. A music summary technology is very useful for browsing a song or generating a sample music for an online music service. To develop the solution, conventional automatic music summarization methods use a 2-dimensional similarity matrix, statistical models, or clustering techniques. But our proposed method extracts the music summary by calculating BER(Bit Error Rate) between audio fingerprint blocks which are extracted from a song. But we could directly use an enormous audio fingerprint database which was already saved for a music retrieval solution. This shows the possibility of developing a various of new algorithms and solutions using the audio fingerprint database. In addition, experiments show that the proposed method captures the chorus of a song more effectively than a conventional method.

MIDI chord composition through chord generation program and automatic accompaniment program (조화로운 코드생성 프로그램과 자동반주 프로그램을 통한 미디 코드작곡)

  • 조재영;강희조;김윤호
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2004.05b
    • /
    • pp.203-207
    • /
    • 2004
  • This treatise presents that a possibility of non-musician's composition. In fart, as a development of music composition program(used by IAVA) helps to compose music easily, but non-musician still feels hard to compose some musics and perform some musics even though the band-in-a-box is already existed(which is an auto accompaniment program). This treatise shows non-musicians' special music composition way. Select a cord and put the cord to special program which ratted ‘the cord composition program’, and then the cord composition program creates the rest cords. After this progress, non-musicians overwrite their own melodies in accordance with created cords. Finally, they can perform their own musics with the sound of master-keyboard and other sound sources using by the band-in-a-box program.

  • PDF