• 제목/요약/키워드: Zero-Shot

검색결과 42건 처리시간 0.019초

골프 드라이버 샤프트의 가변성이 타구속도, 헤드스피드 및 비거리에 미치는 영향 (Golf driver shaft variability on ball speed, head speed and fly distance)

  • 정철;박우영
    • 한국응용과학기술학회지
    • /
    • 제35권1호
    • /
    • pp.273-283
    • /
    • 2018
  • 이 연구의 목적은 골프드라이버 샤프트의 가변성이 타구속도, 헤드스피드 및 비거리에 미치는 영향을 분석하고자 하였다. 이 연구에 참여한 피검자는 핸디캡이 0인 남자 프로골퍼 10명과 핸디캡이 18인 남자 아마추어 골퍼 10명으로 하였다. 클럽의 종류는 1번 드라이버로 한정하였고, 각기 다른 스팩의 24개 드라이버를 가지고 실시하였다. 종속변인으로는 타구속도, 비거리 및 헤드스피드로 하였다. 연구 결과 다음과 같은 결과를 얻었다. 첫째, CPM에 따라 유의한 차이가 나는 것으로 밝혀졌고, 사후검증 후 230< 이상일 때 타구속도, 비거리 및 헤드스피드에서 최적의 수행력을 보였다. 둘째, 샤프트길이에 따른 타구속도 및 비거리는 유의한 차이가 나는 것으로 나타났고, 사후검증 후 타구속도 및 헤드스피드는 46inch에서 비거리는 45inch에서 최적의 수행력을 보였다. 셋째, 샤프트 무게에 따른 변인 간 차이는 나지 않았고, 사후검증 후 샤프트 무게가 65g일 때 타구속도와 비거리에서 최적의 수행력을 보였고, 50g일 때 헤드스피드에서 최적을 보였다. 또한 프로와 아마추어 간에는 변인에서 유의한 차이가 나는 것으로 나타났다. 결론적으로 최적의 드라이버는 CPM이 230<, 샤프트길이 46inch, 샤프트 무게가 65g 샤프트 일 때 최고의 수행력을 발휘하는 것으로 판명되었다.

프라이버시 보호를 위한 오프사이트 튜닝 기반 언어모델 미세 조정 방법론 (Privacy-Preserving Language Model Fine-Tuning Using Offsite Tuning)

  • 정진명;김남규
    • 지능정보연구
    • /
    • 제29권4호
    • /
    • pp.165-184
    • /
    • 2023
  • 최근 구글의 BERT, OpenAI의 GPT 등, 언어모델(Language Model)을 사용한 비정형 텍스트 데이터에 대한 딥러닝(Deep Learning) 분석이 다양한 응용에서 괄목할 성과를 나타내고 있다. 대부분의 언어모델은 사전학습 데이터로부터 범용적인 언어정보를 학습하고, 이후 미세 조정(Fine-Tuning) 과정을 통해 다운스트림 태스크(Downstream Task)에 맞추어 갱신되는 방식으로 사용되고 있다. 하지만 최근 이러한 언어모델을 사용하는 과정에서 프라이버시가 침해될 수 있다는 우려가 제기되고 있다. 즉 데이터 소유자가 언어모델의 미세 조정을 수행하기 위해 다량의 데이터를 모델 소유자에게 제공하는 과정에서 데이터의 프라이버시가 침해될 수 있으며, 반대로 모델 소유자가 모델 전체를 데이터 소유자에게 공개하면 모델의 구조 및 가중치가 공개되어 모델의 프라이버시가 침해될 수 있다는 것이다. 이러한 상황에서 프라이버시를 보호하며 언어모델의 미세 조정을 수행하기 위해 최근 오프사이트 튜닝(Offsite Tuning)의 개념이 제안되었으나, 해당 연구는 제안 방법론을 텍스트 분류 모델에 적용하는 구체적인 방안을 제시하지 못했다는 한계를 갖는다. 이에 본 연구에서는 한글 문서에 대한 다중 분류 미세 조정 수행 시, 모델과 데이터의 프라이버시를 보호하기 위해 분류기를 추가한 오프사이트 튜닝을 적용하는 구체적인 방법을 제시한다. 제안 방법론의 성능을 평가하기 위해 AIHub에서 제공하는 ICT, 전기, 전자, 기계, 그리고 의학 총 5개의 대분야로 구성된 약 20만건의 한글 데이터에 대해 실험을 수행한 결과, 제안하는 플러그인 모델이 제로 샷 모델 및 오프사이트 모델에 비해 분류 정확도 측면에서 우수한 성능을 나타냄을 확인하였다.