• 제목/요약/키워드: 분류조정

검색결과 490건 처리시간 0.025초

프라이버시 보호를 위한 오프사이트 튜닝 기반 언어모델 미세 조정 방법론 (Privacy-Preserving Language Model Fine-Tuning Using Offsite Tuning)

  • 정진명;김남규
    • 지능정보연구
    • /
    • 제29권4호
    • /
    • pp.165-184
    • /
    • 2023
  • 최근 구글의 BERT, OpenAI의 GPT 등, 언어모델(Language Model)을 사용한 비정형 텍스트 데이터에 대한 딥러닝(Deep Learning) 분석이 다양한 응용에서 괄목할 성과를 나타내고 있다. 대부분의 언어모델은 사전학습 데이터로부터 범용적인 언어정보를 학습하고, 이후 미세 조정(Fine-Tuning) 과정을 통해 다운스트림 태스크(Downstream Task)에 맞추어 갱신되는 방식으로 사용되고 있다. 하지만 최근 이러한 언어모델을 사용하는 과정에서 프라이버시가 침해될 수 있다는 우려가 제기되고 있다. 즉 데이터 소유자가 언어모델의 미세 조정을 수행하기 위해 다량의 데이터를 모델 소유자에게 제공하는 과정에서 데이터의 프라이버시가 침해될 수 있으며, 반대로 모델 소유자가 모델 전체를 데이터 소유자에게 공개하면 모델의 구조 및 가중치가 공개되어 모델의 프라이버시가 침해될 수 있다는 것이다. 이러한 상황에서 프라이버시를 보호하며 언어모델의 미세 조정을 수행하기 위해 최근 오프사이트 튜닝(Offsite Tuning)의 개념이 제안되었으나, 해당 연구는 제안 방법론을 텍스트 분류 모델에 적용하는 구체적인 방안을 제시하지 못했다는 한계를 갖는다. 이에 본 연구에서는 한글 문서에 대한 다중 분류 미세 조정 수행 시, 모델과 데이터의 프라이버시를 보호하기 위해 분류기를 추가한 오프사이트 튜닝을 적용하는 구체적인 방법을 제시한다. 제안 방법론의 성능을 평가하기 위해 AIHub에서 제공하는 ICT, 전기, 전자, 기계, 그리고 의학 총 5개의 대분야로 구성된 약 20만건의 한글 데이터에 대해 실험을 수행한 결과, 제안하는 플러그인 모델이 제로 샷 모델 및 오프사이트 모델에 비해 분류 정확도 측면에서 우수한 성능을 나타냄을 확인하였다.

저성능 자원에서 멀티 에이전트 운영을 위한 의도 분류 모델 경량화 (Compressing intent classification model for multi-agent in low-resource devices)

  • 윤용선;강진범
    • 지능정보연구
    • /
    • 제28권3호
    • /
    • pp.45-55
    • /
    • 2022
  • 최근 자연어 처리 분야에서 대규모 사전학습 언어모델(Large-scale pretrained language model, LPLM)이 발전함에 따라 이를 미세조정(Fine-tuning)한 의도 분류 모델의 성능도 개선되었다. 하지만 실시간 응답을 요하는 대화 시스템에서 대규모 모델을 미세조정하는 방법은 많은 운영 비용을 필요로 한다. 이를 해결하기 위해 본 연구는 저성능 자원에서도 멀티에이전트 운영이 가능한 의도 분류 모델 경량화 방법을 제안한다. 제안 방법은 경량화된 문장 인코더를 학습하는 과제 독립적(Task-agnostic) 단계와 경량화된 문장 인코더에 어답터(Adapter)를 부착하여 의도 분류 모델을 학습하는 과제 특화적(Task-specific) 단계로 구성된다. 다양한 도메인의 의도 분류 데이터셋으로 진행한 실험을 통해 제안 방법의 효과성을 입증하였다.

운송 컨테이너 영상의 식별자 인식을 위한 개선된 퍼지 ART 알고리즘 (An Enhanced Fuzzy ART Algorithm for The Identifier Recognition from Shipping Container Image)

  • 류재욱;김태경;김광백
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2002년도 추계학술대회 및 정기총회
    • /
    • pp.365-369
    • /
    • 2002
  • 퍼지 ART 알고리즘에서 경계 변수는 패턴들을 클러스터링하는데 있어서 반지름 값이 되며 임의의 패턴과 저장된 패턴과의 불일치(mismatch) 허용도를 결정한다. 이 경계 변수가 크면 입력 벡터와 기대 벡터 사이에 약간의 차이가 있어도 새로운 카테고리(category)로 분류하게 핀다. 반대로 경계 변수가 작으면 입력 벡터와 기대 벡터 사이에 많은 차이가 있더라도 유사성이 인정되어 입력 벡터들을 대략적으로 분류한다. 따라서 영상 인식에 적용하기 위해서는 경험적으로 경계 변수를 설정해야 단점이 있다. 그리고 연결 가중치를 조정하는 과정에서 저장된 패턴들의 정보들이 손실되는 경우가 발생하여 인식율을 저하시킨다. 된 논문에서는 퍼지 ART 알고리즘의 문제점을 개선하기 위하여 퍼지 논리 접속 연산자를 이용하여 경계 변수를 동적으로 조정하고 저장 패턴들과 학습 패턴간의 실제적인 왜곡 정도를 충분히 고려하여 승자 노드로 선택된 빈도수를 가중치 조정에 적용한 개선된 퍼지 ART 알고리즘을 제안하였다. 제안된 방법의 성능을 확인하기 위해서 실제 운송 컨테이너 영상들을 대상으로 실험한 결과, 기존의 ART2 알고리즘이나 퍼지 ART 알고리즘보다 클러스터의 수가 적게 생성되었고 인식 성능도 기존의 방법들보다 우수한 성능이 있음을 확인하였다.

퍼지 제어 시스템을 이용한 학습률 자동 조정 방법에 의한 개선된 역전파 알고리즘 (Enhanced Backpropagation Algorithm by Auto-Tuning Method of Learning Rate using Fuzzy Control System)

  • 김광백;박충식
    • 한국정보통신학회논문지
    • /
    • 제8권2호
    • /
    • pp.464-470
    • /
    • 2004
  • 본 논문에서는 역전파 알고리즘의 성능 개선을 위해 퍼지 제어 시스템을 적용하여 학습률을 자동으로 조정하는 개선된 역전파 알고리즘을 제안한다. 제안된 방법은 목표값과 출력값의 차이에 대한 절대값이 $\varepsilon$ 보다 적거나 같으면 정확성으로 분류하고 크면 부정확성으로 분류한다. 정확성과 부정확성의 개수를 퍼지 제어 시스템에 적용하여 학습률을 동적으로 조정한다. 제안된 방법을 XOR 문제와 숫자 패턴 분류에 적용하여 실험한 결과, 기존의 역전파 알고리즘, 모멘텀 방식, Jacob의 delta-bar-delta 방식보다 성능이 개선됨을 확인하였다.

조정 가능한 비열비를 갖는 FDLBM에 의한 자려발생 음의 시뮬레이션 (Self-Sustained Tone Simulations using the Finite Difference Lattice Boltzmann Method with Flexible Specific Heat Ratio)

  • 오세경;안수환;김정환;강호근
    • 동력기계공학회지
    • /
    • 제11권1호
    • /
    • pp.82-91
    • /
    • 2007
  • 기존의 2차원 FDLB 모델(D2Q21)에서 비열비 ${\gamma}$는 공간의 차원수(D)에 의존한다. 즉, 2차원 공간의 계산에서는 ${\gamma}=(D+2)/D=2.0$밖에 취할 수 없으며, 공기와 같은 실체기체를 전산모사 하기에는 여러 어려움이 있다. 이러한 이유 때문에 문헌[1]의 LBM에서 제안된 조정 가능한 비열비 모델을 2차원 FDLB모델에 적용하여 자려발생 에지톤(edgetone)의 수치계산이 수행되었다. wedge의 선단각도가 ${\alpha}=23^{\circ}$(Case I) 및 $20^{\circ}$(Case II)를 갖는 2가지 모델이 설정되었으며, 노즐출구에서 wedge선단까지의 거리 w/d는 $3d{\sim}12d$사이에서 주어졌다. edgetone은 노즐로부터 나온 분류와 edge의 상호작용으로 이난 음압(sound pressure)의 차에 의해서 소음이 발생하며, 이 음압은 다시 상류의 분류에 영향을 미쳐 분류의 변동을 가져온다. w/d가 ??9d이하인 경우, 피드백(feedback) 메커니즘에 기인한 주기적인 운동이 발생하지만, w/d가 큰 ??9d이상인 경우에는 분류의 불안정성 때문에 규칙적인 분류의 운동은 보이질 않으며, 이는 기존의 연구결과들과 잘 일치함을 보였다. 본 연구에서 적용된 모델을 이용하여 공기와 같은 2원자 기체의 비열비 ??${\gamma}=1.4$를 갖는 유체에 있어서 공력 소음의 수치예측이 가능하다는 것을 확인하였다.

  • PDF

사용자 감정 인식과 공감적 대화 생성: ChatGPT와 소형 언어 모델 비교 (Empathetic Dialogue Generation based on User Emotion Recognition: A Comparison between ChatGPT and SLM)

  • 허승훈;이정민;조민수;권오욱;황금하
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.570-573
    • /
    • 2024
  • 본 연구는 대형 언어 모델 (LLM) 시대에 공감적 대화 생성을 위한 감정 인식의 필요성을 확인하고 소형 언어 모델 (SLM)을 통한 미세 조정 학습이 고비용 LLM, 특히 ChatGPT의 대안이 될 수 있는지를 탐구한다. 이를 위해 KoBERT 미세 조정 모델과 ChatGPT를 사용하여 사용자 감정을 인식하고, Polyglot-Ko 미세 조정 모델 및 ChatGPT를 활용하여 공감적 응답을 생성하는 비교 실험을 진행하였다. 실험 결과, KoBERT 기반의 감정 분류기는 ChatGPT의 zero-shot 접근 방식보다 뛰어난 성능을 보였으며, 정확한 감정 분류가 공감적 대화의 질을 개선하는 데 기여함을 확인하였다. 이는 공감적 대화 생성을 위해 감정 인식이 여전히 필요하며, SLM의 미세 조정이 고비용 LLM의 실용적 대체 수단이 될 수 있음을 시사한다.

CNN의 깊은 특징과 전이학습을 사용한 보행자 분류 (Pedestrian Classification using CNN's Deep Features and Transfer Learning)

  • 정소영;정민교
    • 인터넷정보학회논문지
    • /
    • 제20권4호
    • /
    • pp.91-102
    • /
    • 2019
  • 자율주행 시스템에서, 카메라에 포착된 영상을 통하여 보행자를 분류하는 기능은 보행자 안전을 위하여 매우 중요하다. 기존에는 HOG(Histogram of Oriented Gradients)나 SIFT(Scale-Invariant Feature Transform) 등으로 보행자의 특징을 추출한 후 SVM(Support Vector Machine)으로 분류하는 기술을 사용했었으나, 보행자 특징을 위와 같이 수동(handcrafted)으로 추출하는 것은 많은 한계점을 가지고 있다. 따라서 본 논문에서는 CNN(Convolutional Neural Network)의 깊은 특징(deep features)과 전이학습(transfer learning)을 사용하여 보행자를 안정적이고 효과적으로 분류하는 방법을 제시한다. 본 논문은 2가지 대표적인 전이학습 기법인 고정특징추출(fixed feature extractor) 기법과 미세조정(fine-tuning) 기법을 모두 사용하여 실험하였고, 특히 미세조정 기법에서는 3가지 다른 크기로 레이어를 전이구간과 비전이구간으로 구분한 후, 비전이구간에 속한 레이어들에 대해서만 가중치를 조정하는 설정(M-Fine: Modified Fine-tuning)을 새롭게 추가하였다. 5가지 CNN모델(VGGNet, DenseNet, Inception V3, Xception, MobileNet)과 INRIA Person데이터 세트로 실험한 결과, HOG나 SIFT 같은 수동적인 특징보다 CNN의 깊은 특징이 더 좋은 성능을 보여주었고, Xception의 정확도(임계치 = 0.5)가 99.61%로 가장 높았다. Xception과 유사한 성능을 내면서도 80% 적은 파라메터를 학습한 MobileNet이 효율성 측면에서는 가장 뛰어났다. 그리고 3가지 전이학습 기법중 미세조정 기법의 성능이 가장 우수하였고, M-Fine 기법의 성능은 미세조정 기법과 대등하거나 조금 낮았지만 고정특징추출 기법보다는 높았다.

한글 텍스트 감정 이진 분류 모델 생성을 위한 미세 조정과 전이학습에 관한 연구 (A Study on Fine-Tuning and Transfer Learning to Construct Binary Sentiment Classification Model in Korean Text)

  • 김종수
    • 한국산업정보학회논문지
    • /
    • 제28권5호
    • /
    • pp.15-30
    • /
    • 2023
  • 근래에 트랜스포머(Transformer) 구조를 기초로 하는 ChatGPT와 같은 생성모델이 크게 주목받고 있다. 트랜스포머는 다양한 신경망 모델에 응용되는데, 구글의 BERT(bidirectional encoder representations from Transformers) 문장생성 모델에도 사용된다. 본 논문에서는, 한글로 작성된 영화 리뷰에 대한 댓글이 긍정적인지 부정적인지를 판단하는 텍스트 이진 분류모델을 생성하기 위해서, 사전 학습되어 공개된 BERT 다국어 문장생성 모델을 미세조정(fine tuning)한 후, 새로운 한국어 학습 데이터셋을 사용하여 전이학습(transfer learning) 시키는 방법을 제안한다. 이를 위해서 104 개 언어, 12개 레이어, 768개 hidden과 12개의 집중(attention) 헤드 수, 110M 개의 파라미터를 사용하여 사전 학습된 BERT-Base 다국어 문장생성 모델을 사용했다. 영화 댓글을 긍정 또는 부정 분류하는 모델로 변경하기 위해, 사전 학습된 BERT-Base 모델의 입력 레이어와 출력 레이어를 미세 조정한 결과, 178M개의 파라미터를 가지는 새로운 모델이 생성되었다. 미세 조정된 모델에 입력되는 단어의 최대 개수 128, batch_size 16, 학습 횟수 5회로 설정하고, 10,000건의 학습 데이터셋과 5,000건의 테스트 데이터셋을 사용하여 전이 학습시킨 결과, 정확도 0.9582, 손실 0.1177, F1 점수 0.81인 문장 감정 이진 분류모델이 생성되었다. 데이터셋을 5배 늘려서 전이 학습시킨 결과, 정확도 0.9562, 손실 0.1202, F1 점수 0.86인 모델을 얻었다.

효과적인 패턴 인식을 위한 개선된 Counterpropagation 알고리즘 (An Enhanced Counterpropagation Algorithm for Effective Pattern Recognition)

  • 김광백
    • 한국정보통신학회논문지
    • /
    • 제12권9호
    • /
    • pp.1682-1688
    • /
    • 2008
  • CP(Counterpropagation) 알고리즘은 Kohonen의 경쟁 네트워크와 Grossberg의 아웃스타(Outstar) 구조의 결합으로 이루어진 것으로 패턴 매칭, 패턴 분류, 통계적인 분석 및 데이터 압축 등 활용분야가 다양하고, 다른 신경망 모델에 비해 학습이 매우 빠르다는 장점이 있다. 그러나 CP 알고리즘은 충분한 경쟁층의 수가 설정되지 않아 경쟁층에서 학습이 불안정하고, 다양한 패턴으로 구성된 경우에는 패턴들을 정확히 분류할 수 없는 경우가 발생한다. 그리고 CP 알고리즘은 출력층에서 연결 강도를 조정할 때, 학습률에 따라 학습 및 인식 성능이 좌우된다. 본 논문에서는 효과적인 패턴인식을 위해 다수 경쟁층을 설정하고, 입력 벡터와 승자 뉴런의 대표 벡터간의 차이와 승자 뉴런의 빈도수를 학습률 조정에 반영하고 학습률을 동적으로 조정하여 경쟁층에서 안정적으로 학습되도록 하고, 출력층의 연결강도를 조정할 때 모멘텀(Momentum) 방법을 적용한다. 제안된 CP 학습 성능을 확인하기 위해서 실제 여권에서 추출된 개별 코드를 대상으로 실험한 결과, 개선된 CP 알고리즘이 기존의 CP 알고리즘보다 학습 성능, 분류의 정확성 및 인식 성능이 개선된 것을 확인하였다.