• 제목/요약/키워드: 원본 학습 데이터

검색결과 86건 처리시간 0.024초

SVD에 기반한 모델 경량화를 통한 문서 그라운딩된 응답 생성 (Lightweight Language Models based on SVD for Document-Grounded Response Generation)

  • 이검;서대룡;전동현;강인호;나승훈
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.638-643
    • /
    • 2023
  • 문서 기반 대화 시스템은 크게 질문으로부터 문서를 검색하는 과정과 응답 텍스트를 생성하는 과정으로 나뉜다. 이러한 대화 시스템의 응답 생성 과정에 디코더 기반 LLM을 사용하기 위해서 사전 학습된 LLM을 미세 조정한다면 많은 메모리, 연산 자원이 소모된다. 본 연구에서는 SVD에 기반한 LLM의 경량화를 시도한다. 사전 학습된 polyglot-ko 모델의 행렬을 SVD로 분해한 뒤, full-fine-tuning 해보고, LoRA를 붙여서 미세 조정 해본 뒤, 원본 모델을 미세 조정한 것과 점수를 비교하고, 정성평가를 수행하여 경량화된 모델의 응답 생성 성능을 평가한다. 문서 기반 대화를 위한 한국어 대화 데이터셋인 KoDoc2Dial에 대하여 평가한다.

  • PDF

기계학습 분석을 위한 차원 확장과 차원 축소가 적용된 지진 카탈로그 (Application of Dimensional Expansion and Reduction to Earthquake Catalog for Machine Learning Analysis)

  • 장진수;소병달
    • 지질공학
    • /
    • 제32권3호
    • /
    • pp.377-388
    • /
    • 2022
  • 최근, 다수의 연구가 지수적으로 증가하는 지진 자료를 효율적이고 정확하게 처리하기 위해 기계학습을 활용하고 있다. 본 연구는 지진의 발생 시간, 위치, 규모의 정보를 확장하여 기계학습에 적용 가능한 자료를 제작한 후, 주성분 분석을 통해 추출한 자료의 주요 성분으로 자료의 차원을 축소하였다. 차원이 확장된 자료는 36,699개의 지진 사건을 포함하는 Global Centroid Moment Tensor 카탈로그로부터 얻은 지진 정보의 통계량으로 구성되었다. 표준화와 최대-최소화 스케일링을 활용하여 자료 전처리를 수행하였으며, 스케일링이 완료된 자료에 주성분 분석을 적용하여 자료의 주요 특징을 추출하였다. 스케일링은 상이한 단위로 인한 특징 값의 차이를 현저히 감소시켰으며, 그 중 표준화는 다른 전처리에 비해서 각 특징의 중앙값을 더 균등하게 변환하였다. 주성분 분석이 스케일링이 적용되지 않은 자료로부터 추출한 여섯 개의 주성분은 원본 자료의 정보를 99% 설명하였다. 표준화와 최대-최소 스케일링이 적용된 자료로부터 추출한 열여섯 개의 주성분은 원본 자료의 정보의 98%를 재구성하였다. 이는 특징 값의 분포가 균등한 자료의 정보를 보존하기 위해서는 더 많은 주성분이 필요함을 지시한다. 본 연구는 지진 데이터와 지진 거동과의 관계를 분석하는 효율적이고 정확한 기계 학습 모형을 훈련시키기 위한 데이터 처리 방법을 제안하였다.

Performance Comparison of Neural Network and Gradient Boosting Machine for Dropout Prediction of University Students

  • Hyeon Gyu Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권8호
    • /
    • pp.49-58
    • /
    • 2023
  • 학생들의 중도 탈락은 대학의 재정적 손실 뿐 아니라, 학생 개개인 및 사회적으로도 부정적인 영향을 끼친다. 이러한 문제를 해결하기 위해 기계 학습을 이용하여 대학생들의 중도 탈락 여부를 예측하고자 하는 다양한 시도가 이루어지고 있다. 본 논문에서는 대학생들의 중도 탈락 여부를 예측하기 위해 DNN(Deep Neural Network)과 LGBM(Light Gradient Boosting Machine)을 이용한 모델을 구현하고 성능을 비교하였다. 학습 데이터로는 서울 소재 중소규모 4년제 대학인 A 대학의 20,050명의 학생을 대상으로 수집된 학적 및 성적 데이터를 학습에 이용하였다. 원본 데이터의 140여개의 속성 중 중도 탈락 여부를 나타내는 속성과의 상관계수가 0.1 이상인 속성들만 추출하여 학습하였다. 두 모델의 성능 실험 결과, DNN과 LGBM의 F1-스코어는 0.798과 0.826이었으며, LGBM이 DNN에 비해 2.5% 나은 예측 성능을 보였다.

Reference 기반 AI 모델의 효과적인 해석에 관한 연구 (A Study on Effective Interpretation of AI Model based on Reference)

  • 이현우;한태현;박영지;이태진
    • 정보보호학회논문지
    • /
    • 제33권3호
    • /
    • pp.411-425
    • /
    • 2023
  • 오늘날 AI(Artificial Intelligence) 기술은 다양한 분야에서 활용 목적에 맞게 분류, 회기 작업을 수행하며 광범위하게 활용되고 있으며, 연구 또한 활발하게 진행 중인 분야이다. 특히 보안 분야에서는 예기치 않는 위협을 탐지해야 하며, 모델 훈련과정에 알려진 위협 정보를 추가하지 않아도 위협을 탐지할 수 있는 비 지도학습 기반의 이상 탐지 기법이 유망한 방법이다. 하지만 AI 판단에 대한 해석 가능성을 제공하는 선행 연구 대부분은 지도학습을 대상으로 설계되었기에 학습 방법이 근본적으로 다른 비 지도학습 모델에 적용하기는 어려우며, Vision 중심의 AI 매커니즘 해석연구들은 이미지로 표현되지 않는 보안 분야에 적용하기에 적합하지 않다. 따라서 본 논문에서는 침해공격의 원본인 최적화 Reference를 탐색하고 이와 비교함으로써 탐지된 이상에 대한 해석 가능성을 제공하는 기법을 활용한다. 본 논문에서는 산출된 Reference를 기반으로 실존 데이터에서 가장 가까운 데이터를 탐색하는 로직을 추가 제안함으로써 실존 데이터를 기반으로 이상 징후에 대한 더욱 직관적인 해석을 제공하고 보안 분야에서의 효과적인 이상 탐지모델 활용을 도모하고자 한다.

심층 생성모델 기반 합성인구 생성 성능 향상을 위한 개체 임베딩 분석연구 (Entity Embeddings for Enhancing Feasible and Diverse Population Synthesis in a Deep Generative Models)

  • 권동현;오태호;유승모;강희찬
    • 한국ITS학회 논문지
    • /
    • 제22권6호
    • /
    • pp.17-31
    • /
    • 2023
  • 활동기반 모델은 현대의 복잡한 개인의 통행행태를 반영한 정교한 기반의 수요예측이 가능하지만, 분석 대상지의 상세한 인구정보가 필수적으로 요구된다. 최근 다양한 심층생성 모델을 활용한 합성인구 생성 기법이 개발되었고, 설문조사를 통해 수집된 샘플 데이터에 존재하지 않는 실제 인구와 유사한 인구 특성을 모사한 데이터를 생성해내는 방법론이 제시되었다. 이는 이산형으로 이루어진 샘플 데이터를 연속형 데이터로 변환하여 분포 영역을 정의한 뒤 생성된 표본 데이터의 거리를 정교하게 계산하여, 불가능한 인구 특성 조합을 억제하는 방식으로 데이터의 확률 분포를 학습한다. 하지만 데이터 변환 과정에 활용되는 개체 임베딩이 잘 학습되지 않으면 의도와 다르게 왜곡된 연속형 분포 영역이 정의될 수 있고, 원본 데이터 표현의 오류로 인한 잘못된 합성인구를 생성할 가능성이 존재한다. 따라서 본 연구에서는 정확도 높은 임베딩을 추출하여 간접적으로 합성인구 생성 성능을 증가시키고자 한다. 결과적으로 합성인구의 다양성과 정확성 측면에서 기존 대비 약 28.87% 성능이 향상하였다.

문항 응답 데이터에서 문항간 연관규칙의 질적 향상을 위한 도구 개발 (A Measure for Improvement in Quality of Association Rules in the Item Response Dataset)

  • 곽은영;김현철
    • 컴퓨터교육학회논문지
    • /
    • 제10권3호
    • /
    • pp.1-8
    • /
    • 2007
  • 본 논문은 연관규칙 마이닝을 이용하여 성취도 평가 결과인 문항 응답 데이터를 대상으로 의미있는 문항간 관련성을 찾아낼 수 있는 도구를 개발하는데 연구의 목적이 있다. 제안된 도구는 의미없는 데이터들을 제거하여 보다 더 흥미(interestingness)있는 연관규칙을 생성하도록 하며, 이러한 결과는 교수-학습 방법이나 문제은행의 질을 향상시키는데 필요한 많은 정보를 제공할 수 있을 것이다. 이를 위하여 임의의 문항 응답 실험 데이터 집합을 생성하고 정보이론(Information Theory) 기반의 surprisal 이라는 도구를 개발하여 의미 없는 데이트를 제거한 후, 연관규칙을 추출하였다. 실험 데이터는 특정 문항간 관계가 의도적으로 빈발 생성되도록 만들어지며, 추출된 연관규칙이 그러한 문항간 관계를 적절히 반영하고 있는지의 여부를 평가하고, 원본 데이터와 지지도(support) 기반으로 추출된 연관규칙과 비교함으로써 surprisal 도구의 타당성을 증명하였다.

  • PDF

YOLOv5를 이용한 객체 이중 탐지 방법 (Object Double Detection Method using YOLOv5)

  • 도건우;김민영;장시웅
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.54-57
    • /
    • 2022
  • 대한민국은 산불의 위험으로부터 취약한 환경을 가지고 있으며, 이로 인해 매년 큰 피해가 발생하고 있다. 이를 예방하기 위해 많은 인력을 활용하고 있으나 효과가 미흡한 실정이다. 만약 인공지능 기술을 통해 산불을 조기 발견해 진화된다면 재산 및 인명피해를 막을 수 있다. 본 논문에서는 산불의 피해를 최소화하기 위한 오브젝트 디텍션 모델을 제작하는 과정에서 발생하는 데이터 수집과 가공 과정을 최소화하는 목표로 한 객체 이중 탐지 방법을 연구했다. YOLOv5에서 한정된 이미지를 학습한 단일 모델을 통해 일차적으로 원본 이미지를 탐지하고, 원본 이미지에서 탐지된 객체를 Crop을 통해 잘라낸다. 이렇게 잘린 이미지를 재탐지하는 객체 이중 탐지 방법을 통해 오 탐지 객체 탐지율의 개선 가능성을 확인했다.

  • PDF

폴립 가중치 영상 생성을 통한 캡슐내시경 영상의 학습 성능 비교 연구 (A Study on the Comparison of Learning Performance in Capsule Endoscopy by Generating of PSR-Weigted Image)

  • 임창남;박예슬;이정원
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권6호
    • /
    • pp.251-256
    • /
    • 2019
  • 캡슐 내시경은 식도부터 항문까지 소화기관 전체를 한 번에 촬영할 수 있는 의료기기로, 한 번의 검사에서 평균 8~12시간의 길이와 5만장 이상의 프레임으로 구성된 영상을 생성한다. 그러나 생성된 영상에 대한 분석은 전문가에 의해 수작업으로 진행되고 있어서, 질병 영상 진단을 돕기 위한 영상 분석 자동화에 대한 수요가 증가하고 있다. 그 중에서도 본 연구에서는 위장관 내에서 발견될 수 있는 융기성 병변인 폴립 영상 자동 검출에 초점을 맞추었다. 본 연구에서는 멀티 스케일 분석을 통해 폴립 의심 영역을 추출하고, 이것을 원본 영상과 합성하여 폴립 학습을 강화시킬 수 있는 가중치 영상을 생성하는 기법을 제안한다. 수집한 452장의 데이터에 대해 머신 러닝 기법중 하나인 SVM과 RF로 실험한 결과, 원본 영상을 이용한 폴립 검출의 F1점수는 89.3%였지만, 생성된 가중치 영상을 통해 학습한 결과 F1점수가 93.1%로 향상된 것을 확인하였다.

특징 선택을 이용한 소프트웨어 재사용의 성공 및 실패 요인 분류 정확도 향상 (Improvement of Classification Accuracy on Success and Failure Factors in Software Reuse using Feature Selection)

  • 김영옥;권기태
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권4호
    • /
    • pp.219-226
    • /
    • 2013
  • 특징 선택은 기계 학습 및 패턴 인식 분야에서 중요한 이슈 중 하나로, 분류 정확도를 향상시키기 위해 원본 데이터가 주어졌을 때 가장 좋은 성능을 보여줄 수 있는 데이터의 부분집합을 찾아내는 방법이다. 즉, 분류기의 분류 목적에 가장 밀접하게 연관되어 있는 특징들만을 추출하여 새로운 데이터를 생성하는 것이다. 본 논문에서는 소프트웨어 재사용의 성공 요인과 실패 요인에 대한 분류 정확도를 향상시키기 위해 특징 부분 집합을 찾는 실험을 하였다. 그리고 기존 연구들과 비교 분석한 결과 본 논문에서 찾은 특징 부분 집합으로 분류했을 때 가장 좋은 분류 정확도를 보임을 확인하였다.

신경망 이미지 부호화 모델과 초해상화 모델의 합동훈련 (Joint Training of Neural Image Compression and Super Resolution Model)

  • 조현동;김영웅;차준영;김동현;임성창;김휘용
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.1191-1194
    • /
    • 2022
  • 인터넷의 발전으로 수많은 이미지와 비디오를 손쉽게 이용할 수 있게 되었다. 이미지와 비디오 데이터의 양이 기하급수적으로 증가함에 따라, JPEG, HEVC, VVC 등 이미지와 비디오를 효율적으로 저장하기 위한 부호화 기술들이 등장했다. 최근에는 인공신경망을 활용한 학습 기반 모델이 발전함에 따라, 이를 활용한 이미지 및 비디오 압축 기술에 관한 연구가 빠르게 진행되고 있다. NNIC (Neural Network based Image Coding)는 이러한 학습 가능한 인공신경망 기반 이미지 부호화 기술을 의미한다. 본 논문에서는 NNIC 모델과 인공신경망 기반의 초해상화(Super Resolution) 모델을 합동훈련하여 기존 NNIC 모델보다 더 높은 성능을 보일 수 있는 방법을 제시한다. 먼저 NNIC 인코더(Encoder)에 이미지를 입력하기 전 다운 스케일링(Down Scaling)으로 쌍삼차보간법을 사용하여 이미지의 화소를 줄인 후 부호화(Encoding)한다. NNIC 디코더(Decoder)를 통해 부호화된 이미지를 복호화(Decoding)하고 업 스케일링으로 초해상화를 통해 복호화된 이미지를 원본 이미지로 복원한다. 이때 NNIC 모델과 초해상화 모델을 합동훈련한다. 결과적으로 낮은 비트량에서 더 높은 성능을 볼 수 있는 가능성을 보았다. 또한 합동훈련을 함으로써 전체 성능의 향상을 보아 학습 시간을 늘리고, 압축 잡음을 위한 초해상화 모델을 사용한다면 기존의 NNIC 보다 나은 성능을 보일 수 있는 가능성을 시사한다.

  • PDF