• 제목/요약/키워드: 샘플링 전략

검색결과 28건 처리시간 0.023초

wav2vec2.0을 활용한 한국어 음성 감정 분류를 위한 데이터 샘플링 전략 (Data Sampling Strategy for Korean Speech Emotion Classification using wav2vec2.0)

  • 신미르;신유현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.493-494
    • /
    • 2023
  • 음성 기반의 감정 분석은 인간의 감정을 정확하게 파악하는 데 중요한 연구 분야로 자리잡고 있다. 최근에는 wav2vec2.0과 같은 트랜스포머 기반의 모델이 음성 인식 분야에서 뛰어난 성능을 보이며 주목받고 있다. 본 연구에서는 wav2vec2.0 모델을 활용하여 한국어 감성 발화 데이터에 대한 감정 분류를 위한 데이터 샘플링 전략을 제안한다. 실험을 통해 한국어 음성 감성분석을 위해 학습 데이터를 활용할 때 감정별로 샘플링하여 데이터의 개수를 유사하게 하는 것이 성능 향상에 도움이 되며, 긴 음성 데이터부터 이용하는 것이 성능 향상에 도움이 됨을 보인다.

Random Forest 기법을 이용한 산사태 취약성 평가 시 훈련 데이터 선택이 결과 정확도에 미치는 영향 (Study on the Effect of Training Data Sampling Strategy on the Accuracy of the Landslide Susceptibility Analysis Using Random Forest Method)

  • 강경희;박혁진
    • 자원환경지질
    • /
    • 제52권2호
    • /
    • pp.199-212
    • /
    • 2019
  • 머신러닝 기법을 활용한 분석에서 훈련 데이터의 샘플링 전략은 예측 정확도 뿐 만 아니라 일반화 능력에도 많은 영향을 미친다. 특히, 산사태 취약성 분석의 경우, 산사태 발생부에 대한 정보에 비해 산사태 미발생부에 대한 정보가 과도하게 많은 데이터 불균형 현상이 발생하며, 이에 따라 분석 모델의 훈련 데이터 설계 시 데이터 샘플링 과정이 필수적이다. 그러나 기존의 연구들은 대부분 산사태 미발생부 선택 시 발생부 데이터와 1:1의 비율을 갖도록 무작위로 선택하는 방법을 적용하였을 뿐, 특정한 선택 기준에 따라 분석을 수행하지 않았다. 따라서 본 연구에서는 훈련 데이터의 샘플링 전략이 모델의 예측 성능에 미치는 결과를 확인하기 위하여 산사태 발생부와 미발생부의 샘플링 전략기준에 따라 서로 다른 6개의 시나리오를 만들어 Random Forest 모델의 훈련에 사용하였다. 또한 Random Forest의 결과 중 하나인 변수 중요도를 각 산사태 유발인자들에 가중치로 곱하여 줌으로써 산사태 취약지수 값을 산정하였으며, 취약지수 값을 이용해 산사태 취약성도를 제작하고 각 결과 지도의 정확도를 비교 분석하였다. 분석 결과, 훈련데이터의 샘플링 방법에 상관없이 두 지역의 산사태 취약성 분석 결과는 모두 70~80%의 정확도를 보였다. 이를 통해 Random Forest 기법의 산사태 취약성 분석기법으로서의 적용 가능성을 확인하였으며, Random Forest 모델이 제공하는 입력변수의 중요도를 산사태 유발인자 가중치로 활용할 수 있음을 확인하였다. 또한 훈련 시나리오 간의 정확도를 비교한 결과, 특정한 기준에 의해 훈련 데이터를 설계하는 것이 기존의 랜덤 선택 방법보다 높은 예측 정확도를 기대할 수 있음을 확인하였다.

대규모 분류 체계에서 계층적 샘플링을 활용한 문서의 분류 (Classification using Hierarchical Sampling in Large Classification System)

  • 홍성모;장헌석;강인호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2017년도 제29회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.51-55
    • /
    • 2017
  • 대규모 분류체계를 사용하는 경우, 기존 방법의 딥 러닝으로는 분류 정확도가 현저히 떨어진다. 이를 해결하기 위해 계층 구조를 활용한 네거티브 샘플링 방법을 제안한다. 학습 문서가 속한 카테고리의 상위 카테고리와 일정부분 겹치는 범위에서 네거티브 샘플을 선택하면, 하나의 큰 문제를 다수개의 하위 문제로 쪼개서 해결하는 학습 효과가 있다. 소규모 분류 체계와 대규모 분류체계 각각에서 샘플링 전략을 차용하였을 때를 비교한 결과, 대규모에서 효과가 좋았으며 그 때의 정확도가 150배 이상 차이가 나는 것을 보였다.

  • PDF

대규모 분류 체계에서 계층적 샘플링을 활용한 문서의 분류 (Classification using Hierarchical Sampling in Large Classification System)

  • 홍성모;장헌석;강인호
    • 한국어정보학회:학술대회논문집
    • /
    • 한국어정보학회 2017년도 제29회 한글및한국어정보처리학술대회
    • /
    • pp.51-55
    • /
    • 2017
  • 대규모 분류체계를 사용하는 경우, 기존 방법의 딥 러닝으로는 분류 정확도가 현저히 떨어진다. 이를 해결하기 위해 계층 구조를 활용한 네거티브 샘플링 방법을 제안한다. 학습 문서가 속한 카테고리의 상위 카테고리와 일정부분 겹치는 범위에서 네거티브 샘플을 선택하면, 하나의 큰 문제를 다수개의 하위 문제로 쪼개서 해결하는 학습 효과가 있다. 소규모 분류 체계와 대규모 분류체계 각각에서 샘플링 전략을 차용하였을 때를 비교한 결과, 대규모에서 효과가 좋았으며 그 때의 정확도가 150배 이상 차이가 나는 것을 보였다.

  • PDF

기계학습 알고리즘의 컴퓨팅시간 단축을 위한 새로운 통계적 샘플링 기법 (A New Statistical Sampling Method for Reducing Computing time of Machine Learning Algorithms)

  • 전성해
    • 한국지능시스템학회논문지
    • /
    • 제21권2호
    • /
    • pp.171-177
    • /
    • 2011
  • 기계학습에서 모형의 정확도와 컴퓨팅시간은 중요하게 다루어지는 부분이다. 일반적으로 모형을 구축하는 데 사용되는 컴퓨팅시간은 분석에 사용되는 데이터의 크기에 비례하여 커진다. 따라서 컴퓨팅시간 단축을 위하여 분석에 사용되는 데이터의 크기를 줄이는 샘플링전략이 필요하다. 하지만 학습데이터의 크기가 작게 되면 구축된 모형의 정확도도 함께 떨어지게 된다. 본 논문에서는 이와 같은 문제를 해결하기 위하여 전체데이터를 분석하지 않아도 전체를 분석할 때와 비슷한 모형성능을 유지할 수 있는 새로운 통계적 샘플링방법을 제안한다. 주어진 데이터의 구조에 따라 최선의 통계적 샘플링기법을 선택할 수 있는 기준을 제시한다. 군집, 층화, 계통추출에 의한 통계적 샘플링기법을 사용하여 정확도를 최대한 유지하면서 컴퓨팅시간을 단축할 수 있는 방법을 보인다. 제안방법의 성능을 평가하기 위하여 객관적인 기계학습 데이터를 이용하여 전체데이터와 샘플데이터 간의 정확도와 컴퓨팅시간을 비교하였다.

클래스 불균형 문제를 해결하기 위한 개선된 집중 샘플링 (Improved Focused Sampling for Class Imbalance Problem)

  • 김만선;양형정;김수형;챠위핑
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.287-294
    • /
    • 2007
  • 실세계의 문제에서 많은 기계학습의 알고리즘들은 데이터의 클래스 불균형 문제에 어려움을 겪는다. 이러한 클래스 불균형 문제를 해결하기 위하여 데이터의 비율을 변경하거나 좀 더 나은 샘플링 전략으로 극복하려는 연구들이 제안되었다. 그러나 데이터의 비율을 변경하는 연구에서는 전체 데이터 분포의 특성을 고려하지 못하고, 샘플링 전략을 제안하는 연구에서는 여러 가지 제한 조건을 고려해야만 한다. 본 논문에서는 위의 두가지 방법의 장점을 모두 포함하는 개선된 집중 샘플링 방법을 제안한다. 제안된 방법에서는 클래스 불균형 문제를 해결하기 위해 학습에 유용한 데이터들을 샘플링하는데 스코어링에 기반한 데이터 분할 방법을 이용한다. 즉, 입력 데이터들에 대해 SOM(Self Organizing Map)의 학습 결과로 얻은 BMU(Best Matching Unit)와의 거리를 계산하고, 이 거리론 스코어라 한다. 측정된 스코어는 오름차순으로 정렬되며, 이 과정에서 입력 데이터의 분포가 재 표현되고, 재 표현된 분포는 전체 데이터의 특성을 대표하게 된다. 그 결과로 얻은 데이터들 중에서 유용하지 못한 데이터들에 대해 제거하는 과정을 수행하여 새로운 학습 데이터 셋을 얻는다. 새로운 학습 데이터 생성 과정에서는 재 표현된 분포의 결과를 두 구간(upper, lower)으로 분할하는데, 두 추간 사이의 데이터들은 유용하지 못한 패턴들로 간주되어 학습에 이용되지 않는다. 본 논문에서 제안한 방법은 클래스 불균형의 비율 감수 훈련 데이터의 크기 감소, 과적합의 방지 등 몇 가지 장점을 보인다. 제안한 방법으로 샘플링된 데이터에 kNN 을 적용하여, 분류 실험한 결과 심한 불균형이 있는 ecoli 데이터의 분류 성능이 최대 2.27배 향상되었다.

데이터 불균형 해소를 위한 유전알고리즘 기반 최적의 오버샘플링 비율 (Optimal Ratio of Data Oversampling Based on a Genetic Algorithm for Overcoming Data Imbalance)

  • 신승수;조휘연;김용혁
    • 한국융합학회논문지
    • /
    • 제12권1호
    • /
    • pp.49-55
    • /
    • 2021
  • 최근에는 데이터베이스의 발달로 금융, 보안, 네트워크 등에서 생성된 많은 데이터가 저장 가능하며, 기계학습 기반 분류기를 통해 분석이 이루어지고 있다. 이 때 주로 야기되는 문제는 데이터 불균형으로, 학습 시 다수 범주의 데이터들로 과적합이 되어 분류 정확도가 떨어지는 경우가 발생한다. 이를 해결하기 위해 소수 범주의 데이터 수를 증가시키는 오버샘플링 전략이 주로 사용되며, 데이터 분포에 적합한 기법과 인자들을 다양하게 조절하는 과정이 필요하다. 이러한 과정의 개선을 위해 본 연구에서는 스모트와 생성적 적대 신경망 등 다양한 기법 기반의 오버샘플링 조합과 비율을 유전알고리즘을 통해 탐색하고 최적화 하는 전략을 제안한다. 제안된 전략과 단일 오버샘플링 기법으로 신용카드 사기 탐지 데이터를 샘플링 한 뒤, 각각의 데이터들로 학습한 분류기의 성능을 비교한다. 그 결과 유전알고리즘으로 기법별 비율을 탐색하여 최적화 한 전략의 성능이 기존 전략들 보다 우수했다.

도시홍수 예측을 위한 레이더 적정 관측주기 분석 (Adequate Radar Scan-Interval for Accurate Urban Flood Prediction)

  • 황석환;조효섭;이동률
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2015년도 학술발표회
    • /
    • pp.78-78
    • /
    • 2015
  • 조기에 홍수 위험을 예측하고, 빠르게 이동 또는 진화하는 강수 사상을 추적하기 위해서는 높은 시간 해상도의 실시간 강우 생산이 필요하다. 레이더는 순간 강우강도를 측정하기 때문에, 긴 시간 간격의 관측 주기는 빠르게 움직이는 폭풍의 레이더 QPE에 상당한 샘플링 오차가 발생하기 쉽다. 따라서 본 연구에서는 레이더 관측주기에 따른 강우량의 정량적 차이에 대한 검증을 실시하였다. 본 검토는 2013-2014년 한국건설기술연구원(KICT) X-Band 이중편파레이더로 관측된 사상을 대상으로 하였다. 최소 관측주기(관측전략에 따른 최소 관측주기)를 토대로 샘플링을 하여 긴관측주기 자료를 생산하였다. 비교결과, 약 5분 관측주기에서도 5 % 이상의 차이를 보이는 경우가 상당수 있었다. 이 결과를 토대로 보면 도시홍수 관측을 위해서는 대략 1-2분 정도의 관측주기를 유지해야 하는 것으로 나타났다.

  • PDF

아남산업의 통계적 기법 활용과 전망

  • 정목용
    • Communications for Statistical Applications and Methods
    • /
    • 제2권1호
    • /
    • pp.248-254
    • /
    • 1995
  • 샘플링 등 전통적인 관리기법이 백만분의 일 단위의 불량에서는 전수검사가 되어버리는 등의 문제점을 해결하기 위해서는 보다 적극적인 예방품질을 확보하지 않은면 안되는 시점에서 검사, 재작업, 스크랩을 절감하려는 SPC 프로그램을 1980년대 후반부터 미국의 반도체업계에서 구체화시키기 시작했다. 아남산업은 1987년부터 고객(주로 미국)의 요구에 따라 SPC를 도입하여 지난 7년간 통계적 기법을 활용한 공정관리를 하고 있는 중이다. 현재 SPC팀은 품질관리실 소속으로 통계적 기법의 현장활용 및 고객 요구사항의 대응을 위한 SPC 전략수립과 SPC 전산화에 대한 업무를 진행하고 있다. 지난 7년간 아남산업(주)의 통계적 기법의 적용현황과 문제점 그리고 향후전망에 대해 기술하고 제조업체의 품질시스템 중 통계적 기법의 활용에 대해 조명해 보기로 하겠다.

  • PDF

강우레이더 관측주기에 따른 강수량 오차 분석 (Analysis of Rainfall Estimation Errors on Measurement with Rainfall Radar Observation Intervals)

  • 황석환;조효섭;이건행;현명숙
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2018년도 학술발표회
    • /
    • pp.97-97
    • /
    • 2018
  • 기후변화로 악화되는 수문기상 환경에서 돌발홍수 예보, 짧은 지속기간(5분)의 확률강우량 생산 등을 위해서는 짧은 관측 주기의 강수량 생산 고려 필요하다. 지상강수량은 1분 간격으로 생산(기상청)하고 있으나 공간적으로 보다 정밀한 레이더 강수량은 기상청 10분, 국토교통부 2.5분 간격으로 생산하고 있는 현실이다. 연속으로 누적하여 강수량을 측정하는 강수량계와는 달리 레이더의 관측방식은 순간 관측 방식으로 회전 속도 혹은 주기에 따라 강수량이 달라질 수 있다. 특히 홍수예보를 위한 강수관측이 주목적인 국토교통부 강우레이더의 경우 최근의 돌발홍수 발생 빈도가 높아짐에 따라 초단시간(2분 이내) 강수량 생산의 필요성도 대두되고 있다. 따라서 본 연구에서는 관측 주기에 따른 관측 강수량 오차(불확실도) 분석을 실시하였다. 이를 위해 샘플링 방법을 이용하여 10분까지의 레이더 관측주기에 따른 1시간 누적강수량을 산정하고, 이를 이용하여 관측 주기에 따른 지상강수량계(AWS)와의 상관계수(correlation coefficient) 및 정규화오차 정확도(1-NE)를 분석하였다. 분석결과 샘플링 주기의 증가에 따라 오차가 증가하는 것으로 나타나, 강수량 추정의 정확도가 중요한 홍수예보를 위해서는 짧은 주기의 관측(짧은 주기의 강우량 생산)이 정확도 확보 측면에서 유리할 것으로 사료된다.

  • PDF