• 제목/요약/키워드: 어텐션 모델

검색결과 82건 처리시간 0.03초

A Research Trend Study on Bio-Signal Processing using Attention Mechanism (어텐션 메카니즘을 이용한 생체신호처리 연구 동향 분석)

  • Yeong-Hyeon Byeon;Keun-Chang Kwak
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.630-632
    • /
    • 2023
  • 어텐션 메커니즘은 딥 뉴럴네트워크에 결합하여 언어 생성 모델에서 성능을 개선하였고, 이러한 성공은 다양한 신호처리 분야에 응용 및 확장되고 있다. 특정 입력 신호 부분에 선택적으로 집중함으로써, 어텐션 모델은 음성 인식, 이미지와 비디오 처리, 그리고 생체인식 등의 분야에서 더 높은 성능을 보여주고 있다. 어텐션 기반 모델은 심전도 신호를 이용한 개인식별 및 부정맥검출, 뇌파도 신호를 이용한 발작유형분류 및 수면 단계 분류, 근전도 신호를 이용한 제스처 인식 등에 사용되고 있다. 어텐션 메커니즘은 딥 뉴럴네트워크의 해석 가능성과 설명 가능성을 향상시키기 위해 사용되기도 한다. 신호 처리 분야에서의 어텐션 모델 연구는 지속적으로 진행 중이며, 다른 분야에서의 잠재력 탐구에 대한 관심이 높아지고 있다. 따라서 본 논문은 어텐션 메카니즘을 이용한 생체신호처리 연구 동향 분석을 수행한다.

Attention-Based Ensemble for Mitigating Side Effects of Data Imbalance Method (데이터 불균형 기법의 부작용 완화를 위한 어텐션 기반 앙상블)

  • Yo-Han Park;Yong-Seok Choi;Wencke Liermann;Kong Joo Lee
    • Annual Conference on Human and Language Technology
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.546-551
    • /
    • 2023
  • 일반적으로 딥러닝 모델은 모든 라벨에 데이터 수가 균형을 이룰 때 가장 좋은 성능을 보인다. 그러나 현실에서는 특정라벨에 대한 데이터가 부족한 경우가 많으며 이로 인해 불균형 데이터 문제가 발생한다. 이에 대한 해결책으로 오버샘플링과 가중치 손실과 같은 데이터 불균형 기법이 연구되었지만 이러한 기법들은 데이터가 적은 라벨의 성능을 개선하는 동시에 데이터가 많은 라벨의 성능을 저하시키는 부작용을 가지고 있다. 본 논문에서는 이 문제를 완화시키고자 어텐션 기반의 앙상블 기법을 제안한다. 어텐션 기반의 앙상블은 데이터 불균형 기법을 적용한 모델과 적용하지 않은 모델의 출력 값을 가중 평균하여 최종 예측을 수행한다. 이때 가중치는 어텐션 메커니즘을 통해 동적으로 조절된다. 그로므로 어텐션 기반의 앙상블 모델은 입력 데이터 특성에 따라 가중치를 조절할 수가 있다. 실험은 에세이 자동 평가 데이터를 대상으로 수행하였다. 실험 결과로는 제안한 모델이 데이터 불균형 기법의 부작용을 완화하고 성능이 개선되었다.

  • PDF

Comparison and Analysis of the Attention Mechanism for Stock Prediction (주가 예측을 위한 어텐션 메커니즘의 비교분석)

  • Yu, Yeonguk;Cheon, Yongsang;Cho, Min-Hee;Kim, Yoon-Joong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.844-847
    • /
    • 2019
  • 주가 예측은 상업적인 매력 때문에 많은 이목이 끌리는 분야이지만, 주가의 불확실성과 변동성 때문에 주가 예측은 어려운 작업이다. 최근에는 주가 예측 모델에 어텐션 메커니즘을 사용하여 주가 예측에 많은 인자들이 사용되어 생기는 성능 하락 문제를 해결하여 좋은 성능을 보여주는 연구가 존재한다. 본 연구에서는 그 모델 중 하나인 Dual-Stage Attention-Based Recurrent Neural Network(DARNN)의 어텐션 메커니즘을 변경해가며 어떤 어텐션 메커니즘이 주가 예측에 적합한지를 알아본다. KOSPI100 지수의 예측실험을 통해 location 스코어함수를 사용한 어텐션 메커니즘이 가장 뛰어난 성능을 보여주는 것을 확인하였고, 이는 기존의 스코어함수를 사용한 DARNN에 비해 약 10% 향상된 성능으로 스코어 함수가 모델의 중요한 영향을 끼치는 것을 확인하였다.

Korean Dependency Parsing using Second-Order TreeCRF (Second-Order TreeCRF를 이용한 한국어 의존 파싱)

  • Min, Jinwoo;Na, Seung-Hoon;Shin, Jong-Hoon;Kim, Young-Kil
    • Annual Conference on Human and Language Technology
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.108-111
    • /
    • 2020
  • 한국어 의존 파싱은 전이 기반 방식과 그래프 기반 방식의 두 갈래로 연구되어 왔으며 현재 가장 높은 성능을 보이고 있는 그래프 기반 파서인 Biaffine 어텐션 모델은 입력 시퀀스를 다층의 LSTM을 통해 인코딩 한 후 각각 별도의 MLP를 적용하여 의존소와 지배소에 대한 표상을 얻고 이를 Biaffine 어텐션을 통해 모든 의존소에 대한 지배소의 점수를 얻는 모델이다. 위의 Biaffine 어텐션 모델은 별도의 High-Order 정보를 활용하지 않는 first-order 파싱 모델이며 학습과정에서 어떠한 트리 관련 손실을 얻지 않는다. 본 연구에서는 같은 부모를 공유하는 형제 노드에 대한 점수를 모델링하고 정답 트리에 대한 조건부 확률을 모델링 하는 Second-Order TreeCRF 모델을 한국어 의존 파싱에 적용하여 실험 결과를 보인다.

  • PDF

Attentional mechanisms for video retargeting and 3D compressive processing (비디오 재설정 및 3D 압축처리를 위한 어텐션 메커니즘)

  • Hwang, Jae-Jeong
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • 제15권4호
    • /
    • pp.943-950
    • /
    • 2011
  • In this paper, we presented an attention measurement method in 2D and 3D image/video to be applied for image and video retargeting and compressive processing. 2D attention is derived from the three main components, intensity, color, and orientation, while depth information is added for 3D attention. A rarity-based attention method is presented to obtain more interested region or objects. Displaced depth information is matched to attention probability in distorted stereo images and finally a stereo distortion predictor is designed by integrating low-level HVS responses. As results, more efficient attention scheme is developed from the conventional methods and performance is proved by applying for video retargeting.

Design of a Semantic Segmentation Model Usingan Attention Module Based on Deformable Convolution (Deformable Convolution 기반 어텐션 모듈을 사용한 의미론적 분할 모델 설계)

  • Jin-Seong Kim;Se-Hoon Jung;Chun-Bo Sim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.11-13
    • /
    • 2023
  • 의미론적 분할(Semantic Segmentation)은 이미지 내의 객체 및 배경을 픽셀 단위로 분류하는 작업으로 정밀한 탐지가 요구되는 분야에서 활발히 연구되고 있다. 기존 어텐션 기법은 의미론적 분할의 다운샘플링(Downsampling) 과정에서 발생하는 정보손실을 완화하기 위해 널리 사용됐지만 고정된 Convolution 필터의 형태 때문에 객체의 형태에 따라 유동적으로 대응하지 못했다. 본 논문에서는 이를 보완하고자 Deformable Convolution과 셀프어텐션(Self-attention) 구조기반 어텐션 모듈을 사용한 의미론적 분할 모델을 제안한다.

A Research on Explainability of the Medical AI Model based on Attention and Attention Flow Graph (어텐션과 어텐션 흐름 그래프를 활용한 의료 인공지능 모델의 설명가능성 연구)

  • Lee, You-Jin;Chae, Dong-Kyu
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.520-522
    • /
    • 2022
  • 의료 인공지능은 특정 진단에서 높은 정확도를 보이지만 모델의 신뢰성 문제로 인해 활발하게 쓰이지 못하고 있다. 이에 따라 인공지능 모델의 진단에 대한 원인 설명의 필요성이 대두되었고 설명가능한 의료 인공지능에 관한 연구가 활발히 진행되고 있다. 하지만 MRI 등 의료 영상 인공지능 분야에서 주로 진행되고 있으며, 이미지 형태가 아닌 전자의무기록 데이터 (Electronic Health Record, EHR) 를 기반으로 한 모델의 설명가능성 연구는 EHR 데이터 자체의 복잡성 때문에 활발하게 진행 되지 않고 있다. 본 논문에서는 전자의무기록 데이터인 MIMIC-III (Medical Information Mart for Intensive Care) 를 전처리 및 그래프로 표현하고, GCT (Graph Convolutional Transformer) 모델을 학습시켰다. 학습 후, 어텐션 흐름 그래프를 시각화해서 모델의 예측에 대한 직관적인 설명을 제공한다.

Improving Attention-based Video Highlight Prediction (어텐션 기반 비디오 하이라이트 예측 알고리즘의 개선)

  • Yoon, Wonbin;Hwang, Junkyu;Lee, Gyemin
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 한국방송∙미디어공학회 2021년도 추계학술대회
    • /
    • pp.314-317
    • /
    • 2021
  • 하이라이트 영상은 원본 영상의 중요한 장면들을 짧은 시간 안에 감상할 수 있게 도와준다. 특히나 경기 시간 긴 축구나 야구 그리고 e-스포츠의 시청자들에게 있어, 하이라이트 영상의 효용성은 더욱 증가한다. 하이라이트 영상 추출의 자동화로 방송사나 온라인 플랫폼은 비용 절감과 시간 절약의 이점을 얻을 수 있다. 따라서 본 논문에서는 스포츠 영상에서 자동으로 하이라이트 구간을 추출하는 모델을 제안한다. 제안하는 모델은 멀티 헤드 어텐션 매커니즘과 LSTM 네트워크의 결합으로 구성된다. 해당 매커니즘의 여러 헤드를 통해 어텐션을 다양한 관점에서 진행한다. 이로 인해 영상의 전체적인 맥락과 장면 간의 유기적 관계를 다양한 관점에서 파악할 수 있다. 또한 오디오와 이미지 정보를 함께 이용하여 모델을 학습한다. 학습한 모델의 평가는 e-스포츠 경기 영상을 이용하여 평가한다.

  • PDF

CG/VR Image Super-Resolution Using Balanced Attention Mechanism (Balanced Attention Mechanism을 활용한 CG/VR 영상의 초해상화)

  • Kim, Sowon;Park, Hanhoon
    • Journal of the Institute of Convergence Signal Processing
    • /
    • 제22권4호
    • /
    • pp.156-163
    • /
    • 2021
  • Attention mechanisms have been used in deep learning-based computer vision systems, including single image super-resolution (SISR) networks. However, existing SISR networks with attention mechanism focused on real image super-resolution, so it is hard to know whether they are available for CG or VR images. In this paper, we attempt to apply a recent attention module, called balanced attention mechanism (BAM) module, to 12 state-of-the-art SISR networks, and then check whether the BAM module can achieve performance improvement in CG or VR image super-resolution. In our experiments, it has been confirmed that the performance improvement in CG or VR image super-resolution is limited and depends on data characteristics, size, and network type.

Fine-tuning of Attention-based BART Model for Text Summarization (텍스트 요약을 위한 어텐션 기반 BART 모델 미세조정)

  • Ahn, Young-Pill;Park, Hyun-Jun
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • 제26권12호
    • /
    • pp.1769-1776
    • /
    • 2022
  • Automatically summarizing long sentences is an important technique. The BART model is one of the widely used models in the summarization task. In general, in order to generate a summarization model of a specific domain, fine-tuning is performed by re-training a language model trained on a large dataset to fit the domain. The fine-tuning is usually done by changing the number of nodes in the last fully connected layer. However, in this paper, we propose a fine-tuning method by adding an attention layer, which has been recently applied to various models and shows good performance. In order to evaluate the performance of the proposed method, various experiments were conducted, such as accumulating layers deeper, fine-tuning without skip connections during the fine tuning process, and so on. As a result, the BART model using two attention layers with skip connection shows the best score.