• Title/Summary/Keyword: 사전조정

Search Result 299, Processing Time 0.025 seconds

딥러닝을 이용한 VTS 주의구역 선박교통류 예측 모델(STENet) 개발

  • Kim, Gwang-Il;Kim, Ju-Seong;Jeong, Cho-Yeong;Lee, Geon-Myeong
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2018.11a
    • /
    • pp.275-277
    • /
    • 2018
  • 선박 및 해상교통관제에 있어서 교통 혼잡구역에 대한 선박교통밀도 예측은 선박충돌사고 예방에 중요하다. 선박 교통밀도 예측정보는 사전에 진입하는 선박들에게 속력조정, 우회항로 이용 등 사전 조치가 가능하다. 본 연구에서는 해상 선박교통상황을 딥러닝 네트워크에 학습한 주의구역 선박교통류 예측 모델(Ship Traffic Extraction Network, STENet)을 제안하여 주의구역의 선박교통류 예측을 수행하고자 한다. STENet 모델 학습을 위해 여수해역 AIS 데이터를 전처리하고, 생성된 입력(해상교통상황)-출력(주의구역 교통밀도) 쌍 데이터를 적용하여 STENet 모델을 학습하였다. 학습된 모델을 이용하여 선박교통류 예측을 한 결과, 중기예측은 표준 절대 오차(mean absolute error)가 0.4-0.5척이 였으며, 장기예측은 0.7-0.8척의 오차로 기존의 Dead Reckoning에 의한 방법보다 50% 이상 교통밀도 예측성능이 향상 되었다.

  • PDF

An Analysis of Skyline Extension Schemes for High Quality Recommendations in Mobile Environments (모바일 환경에서 고품질 추천을 위한 스카이라인 확장 기법 분석)

  • Kim, Jihyun;Kim, Myung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.04a
    • /
    • pp.1065-1067
    • /
    • 2012
  • 의사 결정을 위한 추천 시스템에 유용하게 쓰이는 스카이라인 계산은 데이터간의 비교에 상당한 시간이 소요되기 때문에 추천 서비스를 실시간에 하기 위해서는 스카이라인을 사전에 계산해 두는 것이 일반적이다. 그러나 모바일 환경에서는 사용자의 위치에 따라 스카이라인이 변하기 때문에, 사전에 계산해 놓은 스카이라인을 조정하는 다양한 연구가 진행되고 있다. 본 연구에서는 이동하는 사용자에게 품질 높은 데이터를 추천해 주기 위해 스카이라인을 확장하는 기법들을 제안하고 이들을 분석해 보고자 한다.

VL-KE-T5: A contrastive learning-based pre-trained model using image-language parallel data composed of Korean and English (VL-KE-T5: 한국어와 영어로 구성된 영상-언어 병렬 데이터를 이용한 대조학습 기반 사전학습모델 구축)

  • San Kim;Saim, Shin
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.337-342
    • /
    • 2022
  • 본 논문은 한국어-영어 기반 영상-언어 모델인 VL-KE-T5를 소개한다. VL-KE-T5는 영상-텍스트 쌍으로 구성된 한국어와 영어 데이터 약 2천 3백만개를 이용하여 영상-언어 모델의 임베딩 벡터들을 정렬시킨 사전학습모델이며, 미세조정을 통하여 여러 영상-언어 작업에 활용할 할 수 있다. VL-KE-T5는 텍스트 기반 영상 검색 작업에서 높은 성능을 보였으나, 세세한 속성을 가진 여러 객체들의 나열이나 객체 간 관계를 포함한 텍스트 기반 영상 검색에서는 비교적 낮은 성능을 보였다.

  • PDF

Korean ELECTRA for Natural Language Processing Downstream Tasks (한국어 ELECTRA 모델을 이용한 자연어처리 다운스트림 태스크)

  • Whang, Taesun;Kim, Jungwook;Lee, Saebyeok
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.257-260
    • /
    • 2020
  • 사전 학습을 기반으로 하는 BERT계열의 모델들이 다양한 언어 및 자연어 처리 태스크들에서 뛰어난 성능을 보이고 있지만, masked language model의 경우 입력 문장의 15%만 마스킹을 함으로써 학습 효율이 떨어지고 미세 조정 시 마스킹 토큰이 등장하지 않는 불일치 문제도 존재한다. 이러한 문제를 효과적으로 해결한 ELECTRA는 영어 벤치마크에서 기존의 언어모델들 보다 뛰어난 성능을 보여주었지만 한국어에 대한 관련 연구는 부족한 실정이다. 본 연구에서는 ELECTRA를 한국어 코퍼스에 대해 학습시키고, 다양한 한국어 자연어 이해 태스크들에 대해 실험을 진행한다. 실험을 통해 ELECTRA의 모델 크기별 성능 평가를 진행하였고, 여러 한국어 태스크들에 대해서 평가함으로써 ELECTRA 모델이 기존의 언어 모델들보다 좋은 성능을 보인다는 것을 입증하였다.

  • PDF

Engineering a deep-generative model for lyric writing based upon a style transfer of song writers (심층생성모델 기반 가수 스타일 전이형 작사 모델 구현)

  • Hong, Hye-Jin;Kim, So-Hyeon;Lee, Jee Hang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.741-744
    • /
    • 2021
  • 본 논문은 사전 학습된 심층생성모델을 기반으로 가수 별 가사의 특성을 반영하여 새로운 가사를 생성하는 모델을 소개한다. 베이스 모델로 한국어 사전 학습 모델 KoGPT-2 를 사용하였으며, 총 가수 10 명의 노래 823 곡을 수집하여 미세조정 기법을 바탕으로 학습하였다. 특히, 가수 별로 구분한 가사를 학습 데이터로 구축하여, 가수 별로 독특하게 나타나는 가사 스타일이 전이되도록 하였다. 가수의 이름과 시작 단어를 입력으로 주고 작사를 수행한 실험 결과, (i) 가수 별로 생성되는 가사의 어휘와 스타일이 그 가수의 기존 곡들의 가사와 유사함을 확인하였고, (ii) 작사 결과 가수 별 차이를 확인하였다. 추후 설문을 통해, 개별 가수들의 가사와 생성된 가사의 어휘와 스타일 유사성을 확인하고, 가수 별 차이 또한 확인하고자 한다.

Neural Machine Translation with Dictionary Information (사전 정보를 활용한 신경망 기계 번역)

  • Hyun-Kyun Jeon;Ji-Yoon Kim;Seung-Ho Choi;Bongsu Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.86-90
    • /
    • 2023
  • 최근 생성형 언어 모델이 주목받고 있으며, 이와 관련된 과제 또한 주목받고 있다. 언어 생성과 관련하여 많은 연구가 진행된 분야 중 하나가 '번역'이다. 번역과 관련하여, 최근 인공신경망 기반의 신경망 기계 번역(NMT)가 주로 연구되고 있으며, 뛰어난 성능을 보여주고 있다. 하지만 교착어인 한국어에서 언어유형학 상의 다른 분류에 속한 언어로 번역은 매끄럽게 번역되지 않는다는 한계가 여전하다. 따라서, 본 논문에서는 이러한 문제점을 극복하기 위해 한-영 사전을 통한 번역 품질 향상 방법을 제안한다. 또한 출력과 관련하여 소형 언어모델(sLLM)을 통해 CoT데이터셋을 구축하고 이를 기반으로 조정 학습하여 성능을 평가할 것이다.

  • PDF

Design and Implementation of Garment Resizing Knowledge-base Regarding Body-Shape for 3D Hanbok Animation (3D 한복 애니메이션을 위한 체형별 크기 조정 지식베이스의 설계 및 구현)

  • 오수정;이보란;남양희
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.490-492
    • /
    • 2004
  • 영화, 애니메이션, 게임 등 디지털 문화 컨텐츠에서 의상을 입은 캐릭터들의 사실성이 강조되는데, 기존의 패션 CAD나 의상 애니메이션 소프트웨어들은 디자인에 있어서 여러 단계의 작업을 거쳐야 하고 의상 디자인의 전문성을 요구한다 특히, 최근 우리 문화 원형의 디지털 컨텐츠화로 디지털 한복의 수요가 증가하고 있으며, 한복은 재단이나 착용방식 등에서 양복과는 구성학적 차이점을 지님에도 불구하고 디지털 한복 제작을 위한 전문 시뮬레이션 도구는 전무하다. 따라서, 본 연구에서는 전통적인 한복의 제작에서 사용하는 신체 치수 측정방법과 옷본 및 체형에 따른 사이즈 조정 방법을 지식베이스로 구축하였다. 이를 통해 한복에 대한 사전 지식이 업는 사용자들도 가상 캐릭터에 쉽게 한복을 착용 시킬 수 있는 지식 기반 한복 드레이핑 방법을 제안한다.

  • PDF

Prefix-tuning for Korean Natural language processing (Prefix-tuning에 기반한 한국어 자연언어 처리)

  • Min, Jinwoo;Na, Seung-Hoon;Shin, Dongwook;Kim, Seon-Hoon;Kang, Inho
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.622-624
    • /
    • 2021
  • 현재 BERT와 같은 대용량의 코퍼스로부터 학습된 사전 학습 언어 모델을 자연어 응용 태스크에 적용하기 위해 일반적으로 널리 사용되는 방법은 Fine-tuning으로 각 응용 태스크에 적용 시 모델의 모든 파라미터를 조정하기 때문에 모든 파라미터를 조정하는데 필요한 시간적 비용과 함께 업데이트된 파라미터를 저장하기 위한 별도의 저장공간이 요구된다. 언어 모델이 커지면 커질수록 저장 공간의 비용이 증대됨에 따라 이러한 언어모델을 효율적으로 튜닝 할 수 있는 방법들이 연구되었다. 본 연구에서는 문장의 입력 임베딩에 연속적 태스크 특화 벡터인 prefix를 추가하여 해당 prefix와 관련된 파라미터만 튜닝하는 prefix-tuning을 한국어 네이버 감성 분석 데이터 셋에 적용 후 실험결과를 보인다.

  • PDF

Korean Instruction Tuning Dataset (언어 번역 모델을 통한 한국어 지시 학습 데이터 세트 구축)

  • Yeongseo Lim;HyeonChang Chu;San Kim;Jin Yea Jang;Minyoung Jung;Saim Shin
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.591-595
    • /
    • 2023
  • 최근 지시 학습을 통해 미세 조정한 자연어 처리 모델들이 큰 성능 향상을 보이고 있다. 하지만 한국어로 학습된 자연어 처리 모델에 대해 지시 학습을 진행할 수 있는 데이터 세트는 공개되어 있지 않아 관련 연구에 큰 어려움을 겪고 있다. 본 논문에서는 T5 기반 한국어 자연어 처리 모델인 Long KE-T5로 영어 데이터 세트를 번역하여 한국어 지시 학습 데이터 세트를 구축한다. 또한 구축한 데이터 세트로 한국어로 사전 학습된 Long KE-T5 모델을 미세 조정한 후 성능을 확인한다.

  • PDF

A Study on the Adjustable Autonomy for the Performance Improvement of Cooperating Robots (협조 로봇의 작업 성능 향상을 위한 자율도 조정에 관한 연구)

  • Cho, Hye-Kyung
    • Journal of the Korea Society for Simulation
    • /
    • v.15 no.3
    • /
    • pp.61-67
    • /
    • 2006
  • This paper provides a systematic way of integrating human intelligence and autonomous precision of robots to achieve the highest possible performance of a cooperating robot system. Adjustable autonomy, which deals with the combination of human and robotic skills, has the potential to bridge the gap which leaves many tasks suited to robotics beyond the reach of existing technology. Especially we will show that relevant human assistance or intervention will increase system performance by improving the exception handling capability, simplifying autonomous operation, and boosting speed and reliability. To support the usefulness of our scheme, a series of experiments were conducted with three cooperating robots which work together to dock both ends of a long suspended beam into stanchions.

  • PDF