• 제목/요약/키워드: Embedding vector

검색결과 126건 처리시간 0.031초

Sparse-Neighbor 영상 표현 학습에 의한 초해상도 (Super Resolution by Learning Sparse-Neighbor Image Representation)

  • 엄경배;최영희;이종찬
    • 한국정보통신학회논문지
    • /
    • 제18권12호
    • /
    • pp.2946-2952
    • /
    • 2014
  • 표본 기반 초해상도(Super Resolution 이하 SR) 방법들 중 네이버 임베딩(Neighbor Embedding 이하 NE) 기법의 기본 원리는 지역적 선형 임베딩이라는 매니폴드 학습방법의 개념과 같다. 그러나, 네이버 임베딩은 국부 학습 데이터 집합의 크기가 너무 작기 때문에 이에 따른 빈약한 일반화 능력으로 인하여 알고리즘의 성능을 크게 저하시킨다. 본 논문에서는 이와 같은 문제점을 해결하기 위해서 일반화 능력이 뛰어난 Support Vector Regression(이하 SVR)을 이용한 Sparse-Neighbor 영상 표현 학습 방법에 기반한 새로운 알고리즘을 제안하였다. 저해상도 입력 영상이 주어지면 bicubic 보간법을 이용하여 확대된 영상을 얻고, 이 확대된 영상으로부터 패치를 얻은 후 저주파 패치인지 고주파 패치 인지를 판별한 후 각 영상 패치의 가중치를 얻은 후 두 개의 SVR을 훈련하였으며 훈련된 SVR을 이용하여 고해상도의 해당 화소 값을 예측하였다. 실험을 통하여 제안된 기법이 기존의 보간법 및 네이버 임베딩 기법 등에 비해 정량적인 척도 및 시각적으로 향상된 결과를 보여 주었다.

워드 임베딩과 유의어를 활용한 단어 의미 범주 할당 (Assignment Semantic Category of a Word using Word Embedding and Synonyms)

  • 박다솔;차정원
    • 정보과학회 논문지
    • /
    • 제44권9호
    • /
    • pp.946-953
    • /
    • 2017
  • 의미역 결정은 서술어와 논항들 사이의 의미 관계를 결정하는 문제이다. 의미역 결정을 위해 의미 논항 역할 정보와 의미 범주 정보를 사용해야 한다. 세종 전자사전은 의미역을 결정하는데 사용한 격틀 정보가 포함되어 있다. 본 논문에서는 워드 임베딩과 유의어를 활용하여 세종 전자사전을 확장하는 방법을 제시한다. 연관 단어가 유사한 벡터 표현을 갖도록 하기 위해 유의어 사전의 정보를 사용하여 재구성된 벡터를 생성한다. 기존의 워드 임베딩과 재구성된 벡터를 사용하여 동일한 실험을 진행한다. 워드 임베딩을 이용한 벡터로 단어의 세종 전자사전에 나타나지 않은 단어에 대해 의미 범주 할당의 시스템 성능은 32.19%이고, 확장한 의미 범주 할당의 시스템 성능은 51.14%이다. 재구성된 벡터를 이용한 단어의 세종 전자사전에 나타나지 않은 단어에 대해 의미 범주 할당의 시스템 성능은 33.33%이고, 확장한 의미 범주 할당의 시스템 성능은 53.88%이다. 의미 범주가 할당되지 않은 새로운 단어에 대해서 논문에서 제안한 방법으로 의미 범주를 할당하여 세종 전자사전의 의미 범주 단어 확장에 대해 도움이 됨을 증명하였다.

단어 의미와 자질 거울 모델을 이용한 단어 임베딩 (A Word Embedding used Word Sense and Feature Mirror Model)

  • 이주상;신준철;옥철영
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제23권4호
    • /
    • pp.226-231
    • /
    • 2017
  • 단어 표현은 기계학습을 사용하는 자연어 처리 분야에서 중요하다. 단어 표현은 단어를 텍스트가 아닌 컴퓨터가 분별할 수 있는 심볼로 표현하는 방법이다. 기존 단어 임베딩은 대량의 말뭉치를 이용하여 문장에서 학습할 단어의 주변 단어를 이용하여 학습한다. 하지만 말뭉치 기반의 단어 임베딩은 단어의 등장 빈도수나 학습할 단어의 수를 늘리기 위해서는 많은 양의 말뭉치를 필요로 한다. 본 논문에서는 말뭉치 기반이 아닌 단어의 뜻풀이와 단어의 의미 관계(상위어, 반의어)를 이용하며 기존 Word2Vec의 Skip-Gram을 변형한 자질거울모델을 사용하여 단어를 벡터로 표현하는 방법을 제시한다. 기존 Word2Vec에 비해 적은 데이터로 많은 단어들을 벡터로 표현 가능하였으며 의미적으로 유사한 단어들이 비슷한 벡터를 형성하는 것을 확인할 수 있다. 그리고 반의어 관계에 있는 두 단어의 벡터가 구분되는 것을 확인할 수 있다.

High-Capacity and Robust Watermarking Scheme for Small-Scale Vector Data

  • Tong, Deyu;Zhu, Changqing;Ren, Na;Shi, Wenzhong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권12호
    • /
    • pp.6190-6213
    • /
    • 2019
  • For small-scale vector data, restrictions on watermark scheme capacity and robustness limit the use of copyright protection. A watermarking scheme based on robust geometric features and capacity maximization strategy that simultaneously improves capacity and robustness is presented in this paper. The distance ratio and angle of adjacent vertices are chosen as the watermark domain due to their resistance to vertex and geometric attacks. Regarding watermark embedding and extraction, a capacity-improved strategy based on quantization index modulation, which divides more intervals to carry sufficient watermark bits, is proposed. By considering the error tolerance of the vector map and the numerical accuracy, the optimization of the capacity-improved strategy is studied to maximize the embedded watermark bits for each vertex. The experimental results demonstrated that the map distortion caused by watermarks is small and much lower than the map tolerance. Additionally, the proposed scheme can embed a copyright image of 1024 bits into vector data of 150 vertices, which reaches capacity at approximately 14 bits/vertex, and shows prominent robustness against vertex and geometric attacks for small-scale vector data.

KoELMo: 한국어를 위한 문맥화된 단어 표상 (KoELMo: Deep Contextualized word representations for Korean)

  • 홍승연;나승훈;신종훈;김영길
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.296-298
    • /
    • 2018
  • 기존의 Word2Vec이나 Glove 등의 단어 임베딩 모델은 문맥에 상관없이 단어의 Vector들이 고정된 Vector를 가지는 문제가 있다. ELMo는 훈련된 Bi-LSTM 모델을 통해서 문장마다 Word Embedding을 수행하기 때문에 문맥에 상관없이 고정된 Vector를 가지는 문제를 해결하였다. 본 논문에서는 한국어와 같이 형태적으로 복잡한 언어의 경우 수 많은 단어가 파생될 수 있어 단어 임베딩 벡터를 직접적으로 얻는 방식에는 한계가 있기 때문에 형태소의 표상들을 결합하여 단어 표상을 사용한 ELMo를 제안한다. ELMo 단어 임베딩을 Biaffine attention 파싱 모델에 적용 결과 UAS에서 91.39%, LAS에서 90.79%으로 기존의 성능보다 향상된 성능을 얻었다.

  • PDF

음절 단위 임베딩과 딥러닝 기법을 이용한 복합명사 분해 (Compound Noun Decomposition by using Syllable-based Embedding and Deep Learning)

  • 이현영;강승식
    • 스마트미디어저널
    • /
    • 제8권2호
    • /
    • pp.74-79
    • /
    • 2019
  • 기존의 복합명사 분해 알고리즘은 미등록어 단위명사들이 포함된 복합명사를 분해할 때 미등록어를 분리하기 어려운 문제가 발생한다. 이는 현실적으로 모든 고유명사, 신조어, 외래어 등의 모든 단위 명사를 사전에 등록하는 것은 불가능하다는 한계가 존재하기 때문이다. 이 문제를 해결하기 위하여 복합명사 분해 문제를 태그 열 부착(sequence labeling) 문제로 정의하고 음절 단위 임베딩과 딥러닝 기법을 이용하는 복합명사 분해 방법을 제안한다. 단위명사 사전을 구축하지 않고 미등록 단위명사를 인식하기 위하여 복합명사를 구성하는 각 음절들을 연속적인 벡터 공간에 표현하여 LSTM과 선형체인(linear-chain) CRF를 이용하는 방식으로 복합명사를 단위명사들로 분해한다.

명시적 및 암시적 피드백을 활용한 그래프 컨볼루션 네트워크 기반 추천 시스템 개발 (Developing a Graph Convolutional Network-based Recommender System Using Explicit and Implicit Feedback)

  • 이흠철;김동언;이청용;김재경
    • 한국IT서비스학회지
    • /
    • 제22권1호
    • /
    • pp.43-56
    • /
    • 2023
  • With the development of the e-commerce market, various types of products continue to be released. However, customers face an information overload problem in purchasing decision-making. Therefore, personalized recommendations have become an essential service in providing personalized products to customers. Recently, many studies on GCN-based recommender systems have been actively conducted. Such a methodology can address the limitation in disabling to effectively reflect the interaction between customer and product in the embedding process. However, previous studies mainly use implicit feedback data to conduct experiments. Although implicit feedback data improves the data scarcity problem, it cannot represent customers' preferences for specific products. Therefore, this study proposed a novel model combining explicit and implicit feedback to address such a limitation. This study treats the average ratings of customers and products as the features of customers and products and converts them into a high-dimensional feature vector. Then, this study combines ID embedding vectors and feature vectors in the embedding layer to learn the customer-product interaction effectively. To evaluate recommendation performance, this study used the MovieLens dataset to conduct various experiments. Experimental results showed the proposed model outperforms the state-of-the-art. Therefore, the proposed model in this study can provide an enhanced recommendation service for customers to address the information overload problem.

x-vector를 이용한 다화자 음성합성 시스템 (A Multi-speaker Speech Synthesis System Using X-vector)

  • 조민수;권철홍
    • 문화기술의 융합
    • /
    • 제7권4호
    • /
    • pp.675-681
    • /
    • 2021
  • 최근 인공지능 스피커 시장이 성장하면서 사용자와 자연스러운 대화가 가능한 음성합성 기술에 대한 수요가 증가하고 있다. 따라서 다양한 음색의 목소리를 생성할 수 있는 다화자 음성합성 시스템이 필요하다. 자연스러운 음성을 합성하기 위해서는 대용량의 고품질 음성 DB로 학습하는 것이 요구된다. 그러나 많은 화자가 발화한 고품질의 대용량 음성 DB를 수집하는 것은 녹음 시간과 비용 측면에서 매우 어려운 일이다. 따라서 각 화자별로는 소량의 학습 데이터이지만 매우 많은 화자의 음성 DB를 사용하여 음성합성 시스템을 학습하고, 이로부터 다화자의 음색과 운율 등을 자연스럽게 표현하는 기술이 필요하다. 본 논문에서는 화자인식 기술에서 사용하는 딥러닝 기반 x-vector 기법을 적용하여 화자 인코더를 구성하고, 화자 인코더를 통해 소량의 데이터로 새로운 화자의 음색을 합성하는 기술을 제안한다. 다화자 음성합성 시스템에서 텍스트 입력에서 멜-스펙트로그램을 합성하는 모듈은 Tacotron2로, 합성음을 생성하는 보코더는 로지스틱 혼합 분포가 적용된 WaveNet으로 구성되어 있다. 학습된 화자 임베딩 신경망에서 추출한 x-vector를 Tacotron2에 입력으로 추가하여 원하는 화자의 음색을 표현한다.

Word Embeddings-Based Pseudo Relevance Feedback Using Deep Averaging Networks for Arabic Document Retrieval

  • Farhan, Yasir Hadi;Noah, Shahrul Azman Mohd;Mohd, Masnizah;Atwan, Jaffar
    • Journal of Information Science Theory and Practice
    • /
    • 제9권2호
    • /
    • pp.1-17
    • /
    • 2021
  • Pseudo relevance feedback (PRF) is a powerful query expansion (QE) technique that prepares queries using the top k pseudorelevant documents and choosing expansion elements. Traditional PRF frameworks have robustly handled vocabulary mismatch corresponding to user queries and pertinent documents; nevertheless, expansion elements are chosen, disregarding similarity to the original query's elements. Word embedding (WE) schemes comprise techniques of significant interest concerning QE, that falls within the information retrieval domain. Deep averaging networks (DANs) defines a framework relying on average word presence passed through multiple linear layers. The complete query is understandably represented using the average vector comprising the query terms. The vector may be employed for determining expansion elements pertinent to the entire query. In this study, we suggest a DANs-based technique that augments PRF frameworks by integrating WE similarities to facilitate Arabic information retrieval. The technique is based on the fundamental that the top pseudo-relevant document set is assessed to determine candidate element distribution and select expansion terms appropriately, considering their similarity to the average vector representing the initial query elements. The Word2Vec model is selected for executing the experiments on a standard Arabic TREC 2001/2002 set. The majority of the evaluations indicate that the PRF implementation in the present study offers a significant performance improvement compared to that of the baseline PRF frameworks.

인덱스 변환 함수를 이용한 벡터 양자화 기반의 견고한 다중 워터마킹 방법 (Robust Multi-Watermarking Method Based on Vector Quantization Using Index Transform Function)

  • 배성호;송근원
    • 정보처리학회논문지B
    • /
    • 제12B권5호
    • /
    • pp.513-520
    • /
    • 2005
  • 본 논문에서는 인덱스 변환 함수를 이용한 벡터양자화 기반의 견고한 다중 워터마킹 방법을 제안한다. 기존의 워터마크 삽입 방법들은 단지 하나의 워터마크를 원영상에 삽입하는데 비해 제안한 방법에서는 저작권 보호를 위하여 여러 개의 워터마크를 삽입한다. 제안한 방법은 다양한 공격에서도 벡터양자화 인덱스들의 변화를 최소화시키는 인덱스 변환 함수를 사용하여 견고성을 효과적으로 개선시킨다. 실험을 통하여 제안한 방법이 기존의 벡터양자화 기반의 다중 워터마킹 방법과 비교하여 다양한 공격에서도 견고성이 우수함을 확인하였다.