• 제목/요약/키워드: 학습모델

검색결과 5,999건 처리시간 0.035초

3 차원 휴먼 자세 추정을 위한 다시점 준지도 학습 (Multi-view semi-supervised learning for 3D human pose estimation)

  • 김도엽;장주용
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 추계학술대회
    • /
    • pp.134-138
    • /
    • 2021
  • 3 차원 휴먼 자세 추정 모델은 다시점 모델과 단시점 모델로 분류될 수 있다. 일반적으로 다시점 모델은 단시점 모델에 비하여 뛰어난 자세 추정 성능을 보인다. 단시점 모델의 경우 3 차원 자세 추정 성능의 향상은 많은 양의 학습 데이터를 필요로 한다. 하지만 3 차원 자세에 대한 참값을 획득하는 것은 쉬운 일이 아니다. 이러한 문제를 다루기 위해, 우리는 다시점 모델로부터 다시점 휴먼 자세 데이터에 대한 의사 참값을 생성하고, 이를 단시점 모델의 학습에 활용하는 방법을 제안한다. 또한, 우리는 각각의 다시점 영상으로부터 추정된 자세의 일관성을 고려하는 다시점 일관성 손실함수를 제안하여, 이것이 단시점 모델의 효과적인 학습에 도움을 준다는 것을 보인다.

  • PDF

인간 피드백 기반 강화학습 (RLHF)에서 보상 모델의 효과적인 훈련 방법에 관한 연구 (A Study about Efficient Method for Training the Reward Model in RLHF)

  • 김정욱;;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.245-250
    • /
    • 2023
  • RLHF(Reinforcement Learning from Human Feedback, 인간 피드백 기반 강화학습) 방법론이 최근 고성능 언어 모델에 많이 적용되고 있다. 이 방법은 보상 모델과 사람의 피드백을 활용하여 언어 모델로 하여금 사람이 선호할 가능성이 높은 응답을 생성하도록 한다. 하지만 상업용 언어 모델에 적용된 RLHF의 경우 구현 방법에 대하여 정확히 밝히고 있지 않다. 특히 강화학습에서 환경(environment)을 담당하는 보상 모델을 어떻게 설정하는지가 가장 중요하지만 그 부분에 대하여 오픈소스 모델들의 구현은 각각 다른 실정이다. 본 연구에서는 보상 모델을 훈련하는 큰 두 가지 갈래인 '순위 기반 훈련 방법'과 '분류 기반 훈련 방법'에 대하여 어떤 방법이 더 효율적인지 실험한다. 또한 실험 결과 분석을 근거로 효율성의 차이가 나는 이유에 대하여 추정한다.

  • PDF

웹 기반 학습을 위한 학습 시간 예측 모델 (Learning Time Prediction Model for Web-based Instruction)

  • 김창화;장기영
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권10호
    • /
    • pp.983-991
    • /
    • 2003
  • 인터넷 상의 웹기반교육은 시$.$공간을 초월하여 많은 학습자들에게 관련 정보와 지식을 제공하고 있다. 그러나 웹 기반교육에서는 학습자의 학습진행상태를 단지 시험을 통해서만 확인 할 수 있는 문제가 있다. 본 논문은 웹기반교육에서 학습자의 학습 과정에 문제가 있는지를 검사하고, 문제가 있는 학생들을 발견할 수 있는 웹 모니터링 기법을 소개한다. 그 기법에서 본 논문은 이전 학을 단위들에 대한 학습자의 학습시간과 형성평가점수들에 기초하여 다음에 진행할 학습 단위에 대한 학습 시간을 예측할 수 있는 학습 시간 예측 모델을 제안한다. 이 기법은 교수자에게 학습자의 학습진행상태를 제공한다. 이 방법은 만약 학습자가 예측학습시간을 초과하였을 경우에는 자동으로 경고 메시지를 보내어 학습자가 다시 학습 과정에 잘 임하도록 독려하는데 이용될 수 있다. 학습시간 예측모델을 이용한 웹 모니터링에 관한 사례 연구를 통해 측정한 결과, 학습진행상태가 원만하지 않는 학습자의 대부분은 형성평가 점수가 저조하였다. 또한, 그들은 학습진행상태가 원만하지 않는 자신의 학습 습관을 그대로 유지하고 있는 것으로 나타났다.

입력공간 분담에 의한 네트워크들의 앙상블 알고리즘 (Ensemble of Specialized Networks based on Input Space Partition)

  • 신현정;이형주;조성준
    • 한국경영과학회:학술대회논문집
    • /
    • 한국경영과학회 2000년도 추계학술대회 및 정기총회
    • /
    • pp.33-36
    • /
    • 2000
  • 관찰학습(OLA: Observational Learning Algorithm)은 앙상블 네트워크의 각 구성 모델들이 다른 모델들을 관찰함으로써 얻어진 가상 데이터와 초기에 bo otstrap된 실제 데이터를 학습에 함께 이용하는 방법이다. 본 논문에서는, 초기 학습 데이터 셋을 분할하고 분할된 각 데이터 셋에 대하여 앙상블의 구성 모델들을 전문화(specialize)시키는 방법을 적용하여 기존의 관찰학습 알고리즘을 개선시켰다. 제안된 알고리즘은 bagging 및 boosting과의 비교실험에 의하여, 보다 적은 수의 구성 모델로 동일 내지 보다 나은 성능을 나타냄이 실험적으로 검증되었다.

  • PDF

Helmholtz Machine 학습에 기반한 문서 분류 (Text Categorization Using a Helmholtz Machine)

  • 장정호;장병탁;김영택
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (B)
    • /
    • pp.466-468
    • /
    • 2000
  • 이 논문에서는 Helmholtz machine을 사용하여 데이터의 분포 추정을 함으로써 문서 분류기를 학습하는 방법 제안한다. Helmholtz machine 은 생성 모델과 인식 모델로 구성된 그래프 모델로서, 그래프 모델에서의 분포 추정을 보다 가능하게 하기 위한 근사 방법 중의 하나이다. Helmholtz machine에서의 각 입력 노드는 문서를 구성하는 하나의 단어에 대응하는 이진 노드이다. 입력 노드의 개수가 많아지면 그만큼 학습 시간이 증가하기 때문에, 학습 시간을 줄이면서 적정 수준의 성능을 유지하기 위해 자질 선정이 필요하다. 이러한 요구 사항을 충족시키기 위해 정보획득량(information gain)기준을 이용하였으며, 뉴스 그룹 데이터에 대해 그 성능을 측정하고 Naive Bayes를 이용한 것과 비교한다.

  • PDF

Word2Vec 모델을 활용한 한국어 문장 생성 (Generating Korean Sentences Using Word2Vec)

  • 남현규;이영석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2017년도 제29회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.209-212
    • /
    • 2017
  • 고도화된 머신러닝과 딥러닝 기술은 영상처리, 자연어처리 등의 분야에서 많은 문제를 해결하고 있다. 특히 사용자가 입력한 문장을 분석하고 그에 따른 문장을 생성하는 자연어처리 기술은 기계 번역, 자동 요약, 자동 오류 수정 등에 널리 이용되고 있다. 딥러닝 기반의 자연어처리 기술은 학습을 위해 여러 계층의 신경망을 구성하여 단어 간 의존 관계와 문장 구조를 학습한다. 그러나 학습 과정에서의 계산양이 방대하여 모델을 구성하는데 시간과 비용이 많이 필요하다. 그러나 Word2Vec 모델은 신경망과 유사하게 학습하면서도 선형 구조를 가지고 있어 딥러닝 기반 자연어처리 기술에 비해 적은 시간 복잡도로 고차원의 단어 벡터를 계산할 수 있다. 따라서 본 논문에서는 Word2Vec 모델을 활용하여 한국어 문장을 생성하는 방법을 제시하였다. 본 논문에서는 지정된 문장 템플릿에 유사도가 높은 각 단어들을 적용하여 문장을 구성하는 Word2Vec 모델을 설계하였고, 서로 다른 학습 데이터로부터 생성된 문장을 평가하고 제안한 모델의 활용 방안을 제시하였다.

  • PDF

Word2Vec 모델을 활용한 한국어 문장 생성 (Generating Korean Sentences Using Word2Vec)

  • 남현규;이영석
    • 한국어정보학회:학술대회논문집
    • /
    • 한국어정보학회 2017년도 제29회 한글및한국어정보처리학술대회
    • /
    • pp.209-212
    • /
    • 2017
  • 고도화된 머신러닝과 딥러닝 기술은 영상처리, 자연어처리 등의 분야에서 많은 문제를 해결하고 있다. 특히 사용자가 입력한 문장을 분석하고 그에 따른 문장을 생성하는 자연어처리 기술은 기계 번역, 자동 요약, 자동 오류 수정 등에 널리 이용되고 있다. 딥러닝 기반의 자연어처리 기술은 학습을 위해 여러 계층의 신경망을 구성하여 단어 간 의존 관계와 문장 구조를 학습한다. 그러나 학습 과정에서의 계산양이 방대하여 모델을 구성하는데 시간과 비용이 많이 필요하다. 그러나 Word2Vec 모델은 신경망과 유사하게 학습하면서도 선형 구조를 가지고 있어 딥러닝 기반 자연어처리 기술에 비해 적은 시간 복잡도로 고차원의 단어 벡터를 계산할 수 있다. 따라서 본 논문에서는 Word2Vec 모델을 활용하여 한국어 문장을 생성하는 방법을 제시하였다. 본 논문에서는 지정된 문장 템플릿에 유사도가 높은 각 단어들을 적용하여 문장을 구성하는 Word2Vec 모델을 설계하였고, 서로 다른 학습 데이터로부터 생성된 문장을 평가하고 제안한 모델의 활용 방안을 제시하였다.

  • PDF

기계학습 모델 공격연구 동향: 심층신경망을 중심으로

  • 이슬기;김경한;김병익;박순태
    • 정보보호학회지
    • /
    • 제29권6호
    • /
    • pp.67-74
    • /
    • 2019
  • 기계학습 알고리즘을 이용한 다양한 분야에서의 활용사례들이 우리 사회로 점차 확산되어가며, 기계학습을 통해 산출된 모델의 오동작을 유발할 수 있는 공격이 활발히 연구되고 있다. 특히, 한국에서는 딥러닝을 포함해 인공지능을 응용한 융합분야를 국가적 차원에서 추진하고 있으며, 만약 인공지능 모델 자체에서 발생하는 취약점을 보완하지 못하고 사전에 공격을 대비하지 않는다면, 뒤늦은 대응으로 인하여 관련 산업의 활성화가 지연될 수 있는 문제점이 발생할 수도 있다. 본 논문에서는 기계학습 모델에서, 특히 심층 신경망으로 구성되어 있는 모델에서 발생할 수 있는 공격들을 정의하고 연구 동향을 분석, 안전한 기계학습 모델 구성을 위해 필요한 시사점을 제시한다. 구체적으로, 가장 널리 알려진 적대적 사례(adversarial examples) 뿐 아니라, 프라이버시 침해를 유발하는 추론 공격 등이 어떻게 정의되는지 설명한다.

KoBigBird를 활용한 수능 국어 문제풀이 모델 (Korean CSAT Problem Solving with KoBigBird)

  • 박남준;김재광
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 추계학술대회
    • /
    • pp.207-210
    • /
    • 2022
  • 최근 자연어 처리 분야에서 기계학습 독해 관련 연구가 활발하게 이루어지고 있다. 그러나 그 중에서 한국어 기계독해 학습을 통해 문제풀이에 적용한 사례를 찾아보기 힘들었다. 기존 연구에서도 수능 영어와 수능 수학 문제를 인공지능(AI) 모델을 활용하여 문제풀이에 적용했던 사례는 있었지만, 수능 국어에 이를 적용하였던 사례는 존재하지 않았다. 또한, 수능 영어와 수능 수학 문제를 AI 문제풀이를 통해 도출한 결괏값이 각각 12점, 16점으로 객관식이라는 수능의 특수성을 고려했을 때 기대에 못 미치는 결과를 나타냈다. 이에 본 논문은 한국어 기계독해 데이터셋을 트랜스포머(Transformer) 기반 모델에 학습하여 수능 국어 문제 풀이에 적용하였다. 이를 위해 객관식으로 이루어진 수능 문항의 각각의 선택지들을 질문 형태로 변형하여 모델이 답을 도출해낼 수 있도록 데이터셋을 변형하였다. 또한 BERT(Bidirectional Encoder Representations from Transformer)가 가진 입력값 개수의 한계를 극복하기 위해 더 큰 입력값을 처리할 수 있는 트랜스포머 기반 모델 중에서 한국어 기계독해 학습에 적합한 KoBigBird를 사전학습모델로 설정하여 성능을 높였다.

  • PDF

Xception 모델링을 이용한 욕창이미지 크기별 비교분석 (Comparative analysis by pressure ulcer image size using Xception modeling)

  • 서진범;유하나;조영복
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제67차 동계학술대회논문집 31권1호
    • /
    • pp.19-20
    • /
    • 2023
  • 전이학습은 영상 분류를 진행한 모델을 사용하여 다른 종류의 영상 분류에 적용하여 문제를 푸는 것을 의미하며, 모델 설계부터 진행한 학습 모델보다 빠른 속도와 높은 정확도를 달성할 수 있다. 또한, 적은 데이터셋에 대하여 학습을 진행하여 좋은 결과를 도출할 수 있는 장점이 존재한다. 본 논문에서는 전이학습으로 사용되는 모델 중 Xception 모델을 사용하며, 욕창 이미지의 모델 입력 크기를 256, 512, 1024의 크기로 설정하여 학습을 진행 후 욕창 이미지 크기별 성능을 비교분석을 진행하고자 한다.

  • PDF