• Title/Summary/Keyword: 사전 학습 데이터 세트

Search Result 31, Processing Time 0.027 seconds

Korean Instruction Tuning Dataset (언어 번역 모델을 통한 한국어 지시 학습 데이터 세트 구축)

  • Yeongseo Lim;HyeonChang Chu;San Kim;Jin Yea Jang;Minyoung Jung;Saim Shin
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.591-595
    • /
    • 2023
  • 최근 지시 학습을 통해 미세 조정한 자연어 처리 모델들이 큰 성능 향상을 보이고 있다. 하지만 한국어로 학습된 자연어 처리 모델에 대해 지시 학습을 진행할 수 있는 데이터 세트는 공개되어 있지 않아 관련 연구에 큰 어려움을 겪고 있다. 본 논문에서는 T5 기반 한국어 자연어 처리 모델인 Long KE-T5로 영어 데이터 세트를 번역하여 한국어 지시 학습 데이터 세트를 구축한다. 또한 구축한 데이터 세트로 한국어로 사전 학습된 Long KE-T5 모델을 미세 조정한 후 성능을 확인한다.

  • PDF

An Enhanced Deep Learning for Animal Image Based on Small Datasets (적은 데이터 세트를 기반으로 한 동물 이미지의 향상된 딥 러닝)

  • Shin, Seong-Yoon;Shin, Kwang-Seong;Lee, Hyun-Chang
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.01a
    • /
    • pp.247-248
    • /
    • 2020
  • 본 논문은 동물 이미지 분류를 한 작은 데이터 세트를 기반으로 개선 된 딥 러닝 방법을 제안한다. 먼저, 소규모 데이터 세트에 대한 훈련 모델을 구축하기 위한 CNN이 사용되는 반면, 데이터 보강은 훈련 세트의 데이터 샘플을 확장하는 데 사용한다. 둘째, VGG16과 같은 대규모 데이터 세트에서 사전 훈련 된 네트워크를 사용하여 소규모 데이터 세트의 병목 현상 기능을 추출하여 두 개의 NumPy 파일에 새로운 학습 데이터 세트 및 테스트 데이터 세트로 저장한다. 마지막으로 새로운 데이터 세트로 완전히 연결된 네트워크를 학습한다.

  • PDF

Deep Learning for Pet Image Classification (애완동물 분류를 위한 딥러닝)

  • Shin, Kwang-Seong;Shin, Seong-Yoon
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2019.05a
    • /
    • pp.151-152
    • /
    • 2019
  • In this paper, we propose an improved learning method based on a small data set for animal image classification. First, CNN creates a training model for a small data set and uses the data set to expand the data set of the training set Second, a bottleneck of a small data set is extracted using a pre-trained network for a large data set such as VGG16 and stored in two NumPy files as a new training data set and a test data set, finally, learn the fully connected network as a new data set.

  • PDF

Image Classification Method Using Learning (학습을 이용한 영상 분류 방법)

  • Shin, Seong-Yoon;Lee, Hyun-Chang;Shin, Kwang-Seong
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.01a
    • /
    • pp.285-286
    • /
    • 2021
  • 본 논문에서는 변환 학습을 기반으로 한 다중 클래스 이미지 장면 분류 방법을 제안하도록 한다. ImageNet 대형 이미지 데이터 세트에서 사전 훈련 된 네트워크 모델을 사용하여 다중 클래스의 자연 장면 이미지를 분류하였다. 실험에서 최적화 된 ResNet 모델은 Kaggle의 Intel Image Classification 데이터 세트에 분류되어 우수한 결과를 얻었다.

  • PDF

Pediatric RDS classification method employing segmentation-based deep learning network (영역 분할 기반 심층 신경망을 활용한 소아 RDS 판별 방법)

  • Kim, Jiyeong;Kang, Jaeha;Choi, Haechul
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.1181-1183
    • /
    • 2022
  • 신생아 호흡곤란증후군(RDS, Respiratory Distress Syndrome)은 미숙아 사망의 주된 원인 중 하나이며, 이 질병은 빠른 진단과 치료가 필요하다. 소아의 x-ray 영상을 시각적으로 분석하여 RDS 의 판별을 하고 있으나, 이는 전문의의 주관적인 판단에 의지하기 때문에 상당한 시간적 비용과 인력이 소모된다. 이에 따라, 본 논문에서는 전문의의 진단을 보조하기 위해 심층 신경망을 활용한 소아 RDS/nonRDS 판별 방법을 제안한다. 소아 전신 X-ray 영상에 폐 영역 분할을 적용한 데이터 세트와 증강방법으로 추가한 데이터 세트를 구축하며, RDS 판별 성능을 높이기 위해 ImageNet 으로 사전학습된 DenseNet 판별 모델에 대해 구축된 데이터 세트로 추가 미세조정 학습을 수행한다. 추론 시 입력 X-ray 영상에 대해 MSRF-Net 으로 분할된 폐 영역을 얻고 이를 DenseNet 판별 모델에 적용하여 RDS 를 진단한다. 실험결과, 데이터 증강과 폐 영역을 분할을 적용한 판별 방법이 소아전신 X-ray 데이터 세트만을 사용하는 것과 비교하여 3.9%의 성능향상을 보였다.

  • PDF

Design of Facility Crack Detection Model using Transfer Learning (전이학습을 활용한 시설물 균열 탐지 모델 설계)

  • Kim, Jun-Yeong;Park, Jun;Park, Sung Wook;Lee, Han-Sung;Jung, Se-Hoon;Sim, Cun-Bo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.827-829
    • /
    • 2021
  • 현대사회의 시설물 중 다수가 콘크리트를 사용하여 건설되었고, 재료적 성질로 인해 균열, 박락, 백태 등의 손상이 발생하고 있고 시설물 관리가 요구되고 있다. 하지만, 현재 시설물 관리는 사람의 육안 점검을 정기적으로 수행하고 있으나, 높은 시설물이나 맨눈으로 확인할 수 없는 시설물의 경우 관리가 어렵다. 이에 본 논문에서는 다양한 영상장비를 활용해 시설물의 이미지에서 균열을 분류하는 알고리즘을 제안한다. 균열 분류 알고리즘은 산업 이상 감지 데이터 세트인 MVTec AD 데이터 세트를 사전 학습하고 L2 auto-encoder를 사용하여 균열을 분류한다. MVTec AD 데이터 세트를 사전학습시킴으로써 균열, 박락, 백태 등의 특징을 학습시킬 수 있을 것으로 기대한다.

Optimizing Language Models through Dataset-Specific Post-Training: A Focus on Financial Sentiment Analysis (데이터 세트별 Post-Training을 통한 언어 모델 최적화 연구: 금융 감성 분석을 중심으로)

  • Hui Do Jung;Jae Heon Kim;Beakcheol Jang
    • Journal of Internet Computing and Services
    • /
    • v.25 no.1
    • /
    • pp.57-67
    • /
    • 2024
  • This research investigates training methods for large language models to accurately identify sentiments and comprehend information about increasing and decreasing fluctuations in the financial domain. The main goal is to identify suitable datasets that enable these models to effectively understand expressions related to financial increases and decreases. For this purpose, we selected sentences from Wall Street Journal that included relevant financial terms and sentences generated by GPT-3.5-turbo-1106 for post-training. We assessed the impact of these datasets on language model performance using Financial PhraseBank, a benchmark dataset for financial sentiment analysis. Our findings demonstrate that post-training FinBERT, a model specialized in finance, outperformed the similarly post-trained BERT, a general domain model. Moreover, post-training with actual financial news proved to be more effective than using generated sentences, though in scenarios requiring higher generalization, models trained on generated sentences performed better. This suggests that aligning the model's domain with the domain of the area intended for improvement and choosing the right dataset are crucial for enhancing a language model's understanding and sentiment prediction accuracy. These results offer a methodology for optimizing language model performance in financial sentiment analysis tasks and suggest future research directions for more nuanced language understanding and sentiment analysis in finance. This research provides valuable insights not only for the financial sector but also for language model training across various domains.

KE-T5-Based Text Emotion Classification in Korean Conversations (KE-T5 기반 한국어 대화 문장 감정 분류)

  • Lim, Yeongbeom;Kim, San;Jang, Jin Yea;Shin, Saim;Jung, Minyoung
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.496-497
    • /
    • 2021
  • 감정 분류는 사람의 사고방식이나 행동양식을 구분하기 위한 중요한 열쇠로, 지난 수십 년간 감정 분석과 관련된 다양한 연구가 진행되었다. 감정 분류의 품질과 정확도를 높이기 위한 방법 중 하나로 단일 레이블링 대신 다중 레이블링된 데이터 세트를 감정 분석에 활용하는 연구가 제안되었고, 본 논문에서는 T5 모델을 한국어와 영어 코퍼스로 학습한 KE-T5 모델을 기반으로 한국어 발화 데이터를 단일 레이블링한 경우와 다중 레이블링한 경우의 감정 분류 성능을 비교한 결과 다중 레이블 데이터 세트가 단일 레이블 데이터 세트보다 23.3% 더 높은 정확도를 보임을 확인했다.

  • PDF

Image captioning and video captioning using Transformer (Transformer를 사용한 이미지 캡셔닝 및 비디오 캡셔닝)

  • Gi-Duk Kim;Geun-Hoo Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.303-305
    • /
    • 2023
  • 본 논문에서는 트랜스포머를 사용한 이미지 캡셔닝 방법과 비디오 캡셔닝 방법을 제안한다. 트랜스포머의 입력으로 사전 학습된 이미지 클래스 분류모델을 거쳐 추출된 특징을 트랜스포머의 입력으로 넣고 인코더-디코더를 통해 이미지와 비디오의 캡션을 출력한다. 이미지 캡셔닝의 경우 한글 데이터 세트를 학습하여 한글 캡션을 출력하도록 학습하였으며 비디오 캡셔닝의 경우 MSVD 데이터 세트를 학습하여 학습 후 출력 캡션의 성능을 다른 비디오 캡셔닝 모델의 성능과 비교하였다. 비디오 캡셔닝에서 성능향상을 위해 트랜스포머의 디코더를 변형한 GPT-2를 사용하였을 때 BLEU-1 점수가 트랜스포머의 경우 0.62, GPT-2의 경우 0.80으로 성능이 향상됨을 확인하였다

  • PDF

FinBERT Fine-Tuning for Sentiment Analysis: Exploring the Effectiveness of Datasets and Hyperparameters (감성 분석을 위한 FinBERT 미세 조정: 데이터 세트와 하이퍼파라미터의 효과성 탐구)

  • Jae Heon Kim;Hui Do Jung;Beakcheol Jang
    • Journal of Internet Computing and Services
    • /
    • v.24 no.4
    • /
    • pp.127-135
    • /
    • 2023
  • This research paper explores the application of FinBERT, a variational BERT-based model pre-trained on financial domain, for sentiment analysis in the financial domain while focusing on the process of identifying suitable training data and hyperparameters. Our goal is to offer a comprehensive guide on effectively utilizing the FinBERT model for accurate sentiment analysis by employing various datasets and fine-tuning hyperparameters. We outline the architecture and workflow of the proposed approach for fine-tuning the FinBERT model in this study, emphasizing the performance of various datasets and hyperparameters for sentiment analysis tasks. Additionally, we verify the reliability of GPT-3 as a suitable annotator by using it for sentiment labeling tasks. Our results show that the fine-tuned FinBERT model excels across a range of datasets and that the optimal combination is a learning rate of 5e-5 and a batch size of 64, which perform consistently well across all datasets. Furthermore, based on the significant performance improvement of the FinBERT model with our Twitter data in general domain compared to our news data in general domain, we also express uncertainty about the model being further pre-trained only on financial news data. We simplify the complex process of determining the optimal approach to the FinBERT model and provide guidelines for selecting additional training datasets and hyperparameters within the fine-tuning process of financial sentiment analysis models.