• 제목/요약/키워드: Auto-encoder model

검색결과 65건 처리시간 0.024초

신경망 기반 비디오 압축을 위한 레이턴트 정보의 방향 이동 및 보상 (Latent Shifting and Compensation for Learned Video Compression)

  • 김영웅;김동현;정세윤;최진수;김휘용
    • 방송공학회논문지
    • /
    • 제27권1호
    • /
    • pp.31-43
    • /
    • 2022
  • 전통적인 비디오 압축은 움직임 예측, 잔차 신호 변환 및 양자화를 통한 하이브리드 압축 방식을 기반으로 지금까지 발전해왔다. 최근 인공 신경망을 통한 기술이 빠르게 발전함에 따라, 인공 신경망 기반의 이미지 압축, 비디오 압축 연구 또한 빠르게 진행되고 있으며, 전통적인 비디오 압축 코덱의 성능과 비교해 높은 경쟁력을 보여주고 있다. 본 논문에서는 이러한 인공 신경망 기반 비디오 압축 모델의 성능을 향상시킬 수 있는 새로운 방법을 제시한다. 기본적으로는 기존 인공 신경망 기반 비디오 압축 모델들이 채택하고 있는 변환 및 복원 신경망과 엔트로피 모델(Entropy model)을 이용한 율-왜곡 최적화(Rate-distortion optimization) 방법을 사용하며, 인코더 측에서 디코더 측으로 압축된 레이턴트 정보(Latent information)를 전송할 때 엔트로피 모델이 추정하기 어려운 정보의 값을 이동시켜 전송할 비트량을 감소시키고, 손실된 정보를 추가로 전송함으로써 손실된 정보에 대한 왜곡을 보정한다. 이러한 방법을 통해 기존의 인공 신경망 기반 비디오 압축 기술인 MFVC(Motion Free Video Compression) 방법을 개선하였으며, 실험 결과를 통해 H.264를 기준으로 계산한 BDBR (Bjøntegaard Delta-Bitrate) 수치(%)로 MFVC(-14%) 보다 두 배 가까운 비트량 감축(-27%)이 가능함을 입증하였다. 제안된 방법은 MFVC 뿐 아니라, 레이턴트 정보와 엔트로피 모델을 사용하는 신경망 기반 이미지 또는 비디오 압축 기술에 광범위하게 적용할 수 있다는 장점이 있다.

언어 모델 기반 페르소나 대화 모델 (Personalized Chit-chat Based on Language Models)

  • 장윤나;오동석;임정우;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.491-494
    • /
    • 2020
  • 최근 언어 모델(Language model)의 기술이 발전함에 따라, 자연어처리 분야의 많은 연구들이 좋은 성능을 내고 있다. 정해진 주제 없이 인간과 잡담을 나눌 수 있는 오픈 도메인 대화 시스템(Open-domain dialogue system) 분야에서 역시 이전보다 더 자연스러운 발화를 생성할 수 있게 되었다. 언어 모델의 발전은 응답 선택(Response selection) 분야에서도 모델이 맥락에 알맞은 답변을 선택하도록 하는 데 기여를 했다. 하지만, 대화 모델이 답변을 생성할 때 일관성 없는 답변을 만들거나, 구체적이지 않고 일반적인 답변만을 하는 문제가 대두되었다. 이를 해결하기 위하여 화자의 개인화된 정보에 기반한 대화인 페르소나(Persona) 대화 데이터 및 태스크가 연구되고 있다. 페르소나 대화 태스크에서는 화자마다 주어진 페르소나가 있고, 대화를 할 때 주어진 페르소나와 일관성이 있는 답변을 선택하거나 생성해야 한다. 이에 우리는 대용량의 코퍼스(Corpus)에 사전 학습(Pre-trained) 된 언어 모델을 활용하여 더 적절한 답변을 선택하는 페르소나 대화 시스템에 대하여 논의한다. 언어 모델 중 자기 회귀(Auto-regressive) 방식으로 모델링을 하는 GPT-2, DialoGPT와 오토인코더(Auto-encoder)를 이용한 BERT, 두 모델이 결합되어 있는 구조인 BART가 실험에 활용되었다. 이와 같이 본 논문에서는 여러 종류의 언어 모델을 페르소나 대화 태스크에 대해 비교 실험을 진행했고, 그 결과 Hits@1 점수에서 BERT가 가장 우수한 성능을 보이는 것을 확인할 수 있었다.

  • PDF

Implementation of Git's Commit Message Complex Classification Model for Software Maintenance

  • Choi, Ji-Hoon;Kim, Joon-Yong;Park, Seong-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권11호
    • /
    • pp.131-138
    • /
    • 2022
  • Git의 커밋 메시지는 프로젝트 생명주기와 밀접한 연관성을 지니고 있으며, 이러한 특성에 의해 프로젝트 운영 활동의 위험요소와 프로젝트 현황 등을 파악하여 비용 절감과 작업효율 개선 등에 큰 기여를 할 수 있다. 이와 관련한 분야 중 커밋 메시지를 소프트웨어 유지관리의 유형으로 분류하는 많은 연구가 있으며 연구 중 최대 정확도는 87%다. 본 논문에서는 커밋 분류 모델을 이용한 솔루션 등의 활용을 목적으로 진행 하였고 기존에 발표된 모델들보다 정확도를 높여 모델의 신뢰성을 높이기 위해 여러 모델을 조합한 복합 분류 모델을 설계하고 구현하였다. 본문은 자동화 레이블링 및 소스 변경 내용을 추출하여 데이터셋을 구성하고 디스틸 버트(DistilBERT) 모델을 이용하여 학습시켰다. 검증결과 기존 연구에서 보고된 최대 87%보다 8%가 향상된 95%의 F1 점수 값을 얻어 신뢰성을 확보하였다. 본 연구 결과를 이용하면 모델의 신뢰성을 높이고 이를 이용해 소프트웨어 및 프로젝트관리 등의 솔루션에 적용이 가능할 것으로 기대된다.

시계열 예측을 위한 스타일 기반 트랜스포머 (Style-Based Transformer for Time Series Forecasting)

  • 김동건;김광수
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권12호
    • /
    • pp.579-586
    • /
    • 2021
  • 시계열 예측은 과거 시점의 정보를 토대로 미래 시점의 정보를 예측하는 것을 말한다. 향후 시점의 정보를 정확하게 예측하는 것은 다양한 분야 전략 수립, 정책 결정 등을 위해 활용되기 때문에 매우 중요하다. 최근에는 트랜스포머 모델이 시계열 예측 모델로서 주로 연구되고 있다. 그러나 기존의 트랜스포머의 모델은 예측 순차를 출력할 때 출력 결과를 다시 입력하는 자가회귀 구조로 되어 있다는 한계점이 있다. 이 한계점은 멀리 떨어진 시점을 예측할 때 정확도가 떨어진다는 문제점을 초래한다. 본 논문에서는 이러한 문제점을 개선하고 더 정확한 시계열 예측을 위해 스타일 변환 기법에 착안한 순차 디코딩 모델을 제안한다. 제안하는 모델은 트랜스포머-인코더에서 과거 정보의 특성을 추출하고, 이를 스타일-기반 디코더에 반영하여 예측 시계열을 생성하는 구조로 되어 있다. 이 구조는 자가회귀 방식의 기존의 트랜스포머의 디코더 구조와 다르게, 예측 순차를 한꺼번에 출력하기 때문에 더 먼 시점의 정보를 좀 더 정확히 예측할 수 있다는 장점이 있다. 서로 다른 데이터 특성을 가지는 다양한 시계열 데이터셋으로 예측 실험을 진행한 결과, 본 논문에서 제시한 모델이 기존의 다른 시계열 예측 모델보다 예측 정확도가 우수하다는 것을 보인다.

전이학습을 활용한 시설물 균열 탐지 모델 설계 (Design of Facility Crack Detection Model using Transfer Learning)

  • 김준영;박준;박성욱;이한성;정세훈;심춘보
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.827-829
    • /
    • 2021
  • 현대사회의 시설물 중 다수가 콘크리트를 사용하여 건설되었고, 재료적 성질로 인해 균열, 박락, 백태 등의 손상이 발생하고 있고 시설물 관리가 요구되고 있다. 하지만, 현재 시설물 관리는 사람의 육안 점검을 정기적으로 수행하고 있으나, 높은 시설물이나 맨눈으로 확인할 수 없는 시설물의 경우 관리가 어렵다. 이에 본 논문에서는 다양한 영상장비를 활용해 시설물의 이미지에서 균열을 분류하는 알고리즘을 제안한다. 균열 분류 알고리즘은 산업 이상 감지 데이터 세트인 MVTec AD 데이터 세트를 사전 학습하고 L2 auto-encoder를 사용하여 균열을 분류한다. MVTec AD 데이터 세트를 사전학습시킴으로써 균열, 박락, 백태 등의 특징을 학습시킬 수 있을 것으로 기대한다.

해외지수와 투자자별 매매 동향에 따른 딥러닝 기반 주가 등락 예측 (Deep Learning-Based Stock Fluctuation Prediction According to Overseas Indices and Trading Trend by Investors)

  • 김태승;이수원
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권9호
    • /
    • pp.367-374
    • /
    • 2021
  • 주가 예측은 경제, 통계, 컴퓨터 공학 등 여러 분야에서 연구되는 주제이며, 특히 최근에는 기본적 지표나 기술적 지표 등 다양한 지표로부터 인공지능 모델을 학습하여 주가의 변동을 예측하는 연구들이 활발해 지고 있다. 본 연구에서는 S&P500 등의 해외지수, 과거 KOSPI 지수, 그리고 KOSPI 투자자별 매매 동향으로부터 KOSPI의 등락을 예측하는 딥러닝 모델을 제안한다. 제안 모델은 주가 등락 예측을 위하여 비지도 학습 방법인 적층 오토인코더를 이용하여 잠재변수를 추출하고, 추출된 잠재변수로부터 시계열 데이터 학습에 적합한 LSTM 모델로 학습하여 당일 시가 대비 종가의 등락을 예측하며, 예측된 값을 기반으로 매수 또는 매도를 결정한다. 본 연구에서 제안하는 모델과 비교 모델들의 수익률 및 예측 정확도를 비교한 결과 제안 모델이 비교 모델들 보다 우수한 성능을 보였다.

주가 예측 모델에서의 분할 예측을 통한 성능향상 탐구 (Exploring performance improvement through split prediction in stock price prediction model)

  • 여태건우;유도희;남정원;오하영
    • 한국정보통신학회논문지
    • /
    • 제26권4호
    • /
    • pp.503-509
    • /
    • 2022
  • 본 논문의 연구 취지는 예측하고자 하는 다음 날과 이전 날의 시가 사이 변동률을 예측값으로 두고 시가를 예측하는 기존 논문들과는 다르게 예측하고자 하는 다음날의 주가 순위를 일정한 간격으로 분할하여 생성된 각 구간마다의 시가 변동률을 예측값으로 하는 모델을 통하여 최종적인 다음날의 시가 변동률을 예측하는 새로운 시계열 데이터 예측 방식을 제안하고자 한다. 예측값의 세분화 정도와 입력 데이터의 종류에 따른 모델의 성능 변화를 분석했으며 연구 결과 예측값의 세분화 정도에 따른 모델의 예측값과 실제값의 차이가 예측값의 세분화 개수가 3일 때 큰 폭으로 감소한다는 사실도 도출해 낼 수 있었다.

소프트 보팅을 이용한 합성곱 오토인코더 기반 스트레스 탐지 (Convolutional Autoencoder based Stress Detection using Soft Voting)

  • 최은빈;김수형
    • 스마트미디어저널
    • /
    • 제12권11호
    • /
    • pp.1-9
    • /
    • 2023
  • 스트레스는 감당하기 어려운 외부 또는 내부 요인으로부터 유발되는 것으로 현대 사회의 주요한 문제 중 하나이다. 높은 스트레스가 장기적으로 지속되면 만성적으로 발전할 수 있으며, 건강 및 생활 전반에 큰 악영향을 초래할 수 있다. 그러나 만성적인 스트레스를 겪는 사람들은 자신이 스트레스를 받고 있는지 알아차리기 어렵기 때문에 사전에 스트레스를 인지하고 관리하는 것이 중요하다. 웨어러블 기기로부터 측정된 생체 신호를 이용하여 스트레스를 탐지한다면, 스트레스를 효율적으로 관리할 수 있을 것이다. 그러나 생체 신호를 이용하는 데에는 두 가지 문제점이 있다. 첫째로 생체 신호에서 수작업 특징을 추출하는 것은 바이어스를 발생시킬 수 있으며, 두 번째는 실험 주체에 따라 분류 모델 성능의 변이가 클 수 있다는 것이다. 본 논문에서는 데이터의 핵심적인 특징을 표현할 수 있는 합성곱 오토인코더를 이용해 바이어스를 줄이고 앙상블 학습 중 하나인 소프트 보팅을 이용해 일반화 능력을 높여 성능의 변이를 줄이는 모델을 제안한다. 모델의 일반화 성능을 확인하기 위하여 LOSO 교차 검증 방법을 이용하여 성능을 평가한다. 본 논문에서 제안한 모델은 WESAD 데이터셋을 이용하여 높은 성능을 보여주었던 기존의 연구들보다 우수한 정확도를 보임을 확인하였다.

  • PDF

다종 위성자료와 인공지능 기법을 이용한 한반도 주변 해역의 고해상도 해수면온도 자료 생산 (Generation of Daily High-resolution Sea Surface Temperature for the Seas around the Korean Peninsula Using Multi-satellite Data and Artificial Intelligence)

  • 정시훈;추민기;임정호;조동진
    • 대한원격탐사학회지
    • /
    • 제38권5_2호
    • /
    • pp.707-723
    • /
    • 2022
  • 위성기반 해수면온도는 광역 모니터링이 가능한 장점이 있지만, 다양한 환경적 그리고 기계적 이유로 인한 시공간적 자료공백이 발생한다. 자료공백으로 인한 활용성의 한계가 있으므로, 공백이 없는 자료 생산이 필수적이다. 따라서 본 연구에서는 한반도 주변 해역에 대해 극궤도와 정지궤도 위성에서 생산되는 해수면온도 자료를 두 단계의 기계학습을 통해 융합하여 4 km의 공간해상도를 가지는 일별 해수면온도 합성장을 만들었다. 첫번째 복원 단계에서는 Data INterpolate Convolutional AutoEncoder (DINCAE) 모델을 이용하여 다종 위성기반 해수면온도 자료를 합성하여 복원하였고, 두번째 보정 단계에서는 복원된 해수면온도 자료를 현장관측자료에 맞춰 Light Gradient Boosting Machine (LGBM) 모델로 학습시켜 최종적인 일별 해수면온도 합성장을 만들었다. 개발된 모델의 검증을 위해 복원 단계에서 무작위 50일의 자료 중 일부분을 제거하여 복원한 뒤 제거된 영역에 대해 검증하였으며, 보정 단계에서는 Leave One Year Out Cross Validation (LOYOCV) 기법을 이용하여 현장자료와의 정확도를 검증하였다. DINCAE 모델의 해수면온도 복원 결과는 상당히 높은 정확도(R2=0.98, bias=0.27℃, RMSE=0.97℃, MAE=0.73℃)를 보였다. 두번째 단계의 LGBM 보정 모델의 정확도 개선은 표층 뜰개 부이와 계류형 부이 현장자료와의 비교에서 모두 상당한 향상(RMSE=∆0.21-0.29℃, rRMSE=∆0.91-1.65%, MAE=∆0.17-0.24℃)을 보여주었다. 특히, 모든 현장 자료를 이용한 보정 모델의 표층 뜰개 부이와의 정확도는 동일한 현장 자료가 동화된 기존 해수면온도 합성장보다 나은 정확도를 보였다. 또한 LGBM 보정 모델은 랜덤포레스트(random forest)를 사용한 선행연구에서 보고된 과적합의 문제를 상당부분 해결하였다. 보정된 해수면온도는 기존의 초고해상도 해수면온도 합성장들과 유사한 수준으로 수온 전선과 와동 등의 중규모 해양현상을 뚜렷하게 모의하였다. 본 연구는 다종위성 자료와 기계학습 기법을 사용해 시공간적 공백 없는 고해상도 해수면온도 합성장 제작 방법을 제시하였다는 점에서 가치가 있다.

돌연변이 연산 기반 효율적 심층 신경망 모델 (A Deep Neural Network Model Based on a Mutation Operator)

  • 전승호;문종섭
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제6권12호
    • /
    • pp.573-580
    • /
    • 2017
  • 심층 신경망은 많은 노드의 층을 쌓아 만든 거대한 신경망이다. 심층 신경망으로 대표되는 딥 러닝은 오늘날 많은 응용 분야에서 괄목할만한 성과를 거두고 있다. 하지만 다년간의 연구를 통해 심층 신경망에 대한 다양한 문제점이 식별되고 있다. 이 중 일반화는 가장 널리 알려진 문제점들 중 하나이며, 최근 연구 결과인 드롭아웃은 이러한 문제를 어느 정도 성공적으로 해결하였다. 드롭아웃은 노이즈와 같은 역할을 하여 신경망이 노이즈에 강건한 데이터 표현형을 학습할 수 있도록 하는데, 오토인코더와 관련된 연구에서 이러한 효과가 입증되었다. 하지만 드롭아웃은 빈번한 난수 연산과 확률연산으로 인해 신경망의 학습 시간이 길어지고, 신경망 각 계층의 데이터 분포가 크게 변화하여 작은 학습율을 사용해야하는 단점이 있다. 본 논문에서는 돌연변이 연산을 사용하여 비교적 적은 횟수의 연산으로 드롭아웃과 동등 이상의 성능을 나타내는 모델을 제시하고, 실험을 통하여 논문에서 제시한 방법이 드롭아웃 방식과 동등한 성능을 보임과 동시에 학습 시간 문제를 개선함을 보인다.