• 제목/요약/키워드: Network embedding

검색결과 246건 처리시간 0.027초

폴디드 하이퍼큐브와 HFH 네트워크 사이의 임베딩 알고리즘 (Embedding Algorithm between Folded Hypercube and HFH Network)

  • 김종석;이형옥;김성원
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제2권4호
    • /
    • pp.151-154
    • /
    • 2013
  • 본 논문에서는 폴디드 하이퍼큐브와 HFH 네트워크 사이의 임베딩을 분석한다. 폴디드 하이퍼큐브 $FQ_{2n}$는 HFH($C_n,C_n$)에 연장율 4, 확장율 $\frac{(C_n)^2}{2^{2n}}$에 임베딩 가능함을 보이고, HFH($C_d,C_d$)를 폴디드 하이퍼큐브 $FQ_{4d-2}$에 임베딩하는 비용은 O(d)임을 보인다.

A Comparative Study of Word Embedding Models for Arabic Text Processing

  • Assiri, Fatmah;Alghamdi, Nuha
    • International Journal of Computer Science & Network Security
    • /
    • 제22권8호
    • /
    • pp.399-403
    • /
    • 2022
  • Natural texts are analyzed to obtain their intended meaning to be classified depending on the problem under study. One way to represent words is by generating vectors of real values to encode the meaning; this is called word embedding. Similarities between word representations are measured to identify text class. Word embeddings can be created using word2vec technique. However, recently fastText was implemented to provide better results when it is used with classifiers. In this paper, we will study the performance of well-known classifiers when using both techniques for word embedding with Arabic dataset. We applied them to real data collected from Wikipedia, and we found that both word2vec and fastText had similar accuracy with all used classifiers.

문장 독립 화자 검증을 위한 그룹기반 화자 임베딩 (Group-based speaker embeddings for text-independent speaker verification)

  • 정영문;엄영식;이영현;김회린
    • 한국음향학회지
    • /
    • 제40권5호
    • /
    • pp.496-502
    • /
    • 2021
  • 딥러닝 기반의 심층 화자 임베딩 방식은 최근 문장 독립 화자 검증 연구에 널리 사용되고 있으며, 기존의 i-vector 방식에 비해 더 좋은 성능을 보이고 있다. 본 연구에서는 심층 화자 임베딩 방식을 발전시키기 위하여, 화자의 그룹 정보를 도입한 그룹기반 화자 임베딩을 제안한다. 훈련 데이터 내에 존재하는 전체 화자들을 정해진 개수의 그룹으로 비지도 클러스터링 하며, 고정된 길이의 그룹 임베딩 벡터가 각각의 그룹을 대표한다. 그룹 결정 네트워크가 각 그룹에 대응되는 그룹 가중치를 출력하며, 이를 이용한 그룹 임베딩 벡터들의 가중 합을 통해 집합 그룹 임베딩을 추출한다. 최종적으로 집합 그룹 임베딩을 심층 화자 임베딩에 더해주어 그룹기반 화자 임베딩을 생성한다. 이러한 방식을 통해 그룹 정보를 심층 화자 임베딩에 도입함으로써, 화자 임베딩이 나타낼 수 있는 전체 화자의 검색 공간을 줄일 수 있고, 이를 통해 화자 임베딩은 많은 수의 화자를 유연하게 표현할 수 있다. VoxCeleb1 데이터베이스를 이용하여 본 연구에서 제안하는 방식이 기존의 방식을 개선시킨다는 것을 확인하였다.

웨이블릿 영역에서 히스토그램 수정을 이용한 무손실 정보은닉 (Lossless Data Hiding Using Modification of Histogram in Wavelet Domain)

  • 정철호;엄일규;김유신
    • 대한전자공학회논문지SP
    • /
    • 제43권4호
    • /
    • pp.27-36
    • /
    • 2006
  • 무손실 정보은닉은 정보를 삽입하되 추출과정에서 원본 영상으로의 완벽한 복원이 가능하도록 정보를 삽입하는 기술이다. 본 논문에서는 웨이블릿 영역에서 영상에 대한 무손실 정보은닉 알고리즘을 제안한다. 제안된 알고리즘은 히스토그램 수정을 웨이블릿 계수에 적용한 방법으로 두 단계의 삽입과정으로 이루어진다. 1차 삽입과정에서 히스토그램을 수정함으로써 웨이블릿 계수에 정보를 은닉한다. 2차 삽입과정은 1차 삽입 과정에서 발생한 영상의 왜곡을 줄이는 동시에 정보를 은닉할 수 있는 방법으로 높은 삽입용량을 얻을 수 있게 한다. 제안 알고리즘은 모의실험을 통해 기존의 방법들보다 삽입용량 대 PSNR 측면에 서 향상된 성능을 보여주었다.

정이진트리, 하이퍼큐브 및 하이퍼피터슨 네트워크를 피터슨-토러스(PT) 네트워크에 임베딩 (Embedding Complete binary trees, Hypercube and Hyperpetersen Networks into Petersen-Torus(PT) Networks)

  • 서정현;이형옥;장문석
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권8호
    • /
    • pp.361-371
    • /
    • 2008
  • 본 논문에서, 정이진트리와 노드수가 증가함에 따라 분지수가 증가하는 하이퍼큐브, 하이퍼피터슨 연결망을 분지수가 고정된 피터슨-토러스(PT) 연결망에 일대일 임베딩 하였다. 일대일 임베딩은 일대다 임베딩이나 다대일 임베딩과 비교하여 프로세서의 낭비나 프로세서의 과부하의 위험이 적다. 하이퍼큐브나 하이퍼 피터슨에서 개발된 알고리즘들이 피터슨-토러스에서 사용될 때 유휴 프로세세가 많지 않도록 확장율 ${\doteqdot}1$, 연장율 1.5n+2 그리고 밀집율 O(n)에 일대일 임베딩 하였고, 메시지 전송길이에 영향을 받지 않는 웜홀 라우팅 방식의 시스템에서 메시지의 병목현상을 피할 수 있도록 정이진트리를 PT 네트워크에 밀집율 1, 확장율 ${\doteqdot}5$ 그리고 연장율 O(n)에 일대일 임베딩 하였다.

한국어 어휘 의미망(alias. KorLex)의 지식 그래프 임베딩을 이용한 문맥의존 철자오류 교정 기법의 성능 향상 (Performance Improvement of Context-Sensitive Spelling Error Correction Techniques using Knowledge Graph Embedding of Korean WordNet (alias. KorLex))

  • 이정훈;조상현;권혁철
    • 한국멀티미디어학회논문지
    • /
    • 제25권3호
    • /
    • pp.493-501
    • /
    • 2022
  • This paper is a study on context-sensitive spelling error correction and uses the Korean WordNet (KorLex)[1] that defines the relationship between words as a graph to improve the performance of the correction[2] based on the vector information of the word embedded in the correction technique. The Korean WordNet replaced WordNet[3] developed at Princeton University in the United States and was additionally constructed for Korean. In order to learn a semantic network in graph form or to use it for learned vector information, it is necessary to transform it into a vector form by embedding learning. For transformation, we list the nodes (limited number) in a line format like a sentence in a graph in the form of a network before the training input. One of the learning techniques that use this strategy is Deepwalk[4]. DeepWalk is used to learn graphs between words in the Korean WordNet. The graph embedding information is used in concatenation with the word vector information of the learned language model for correction, and the final correction word is determined by the cosine distance value between the vectors. In this paper, In order to test whether the information of graph embedding affects the improvement of the performance of context- sensitive spelling error correction, a confused word pair was constructed and tested from the perspective of Word Sense Disambiguation(WSD). In the experimental results, the average correction performance of all confused word pairs was improved by 2.24% compared to the baseline correction performance.

문맥 표현과 음절 표현 기반 포인터 네트워크를 이용한 한국어 상호참조해결 (Contextualized Embedding- and Character Embedding-based Pointer Network for Korean Coreference Resolution)

  • 박천음;이창기;류지희;김현기
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.239-242
    • /
    • 2018
  • 문맥 표현은 Recurrent neural network (RNN)에 기반한 언어 모델을 학습하여 얻은 여러 층의 히든 스테이트(hidden state)를 가중치 합(weighted sum)을 하여 얻어낸 벡터이다. Convolution neural network (CNN)를 이용하여 음절 표현을 학습하는 경우, 데이터 내에서 발생하는 미등록어를 처리할 수 있다. 본 논문에서는 음절 표현 CNN 기반의 포인터 네트워크와 문맥 표현을 함께 이용하는 방법을 제안하고, 이를 상호참조해결에 적용한다. 실험 결과, 질의응답 데이터셋에서 CoNLL F1 57.88%로 규칙기반에 비하여 11.09% 더 좋은 성능을 보였다.

  • PDF

Korean Sentiment Analysis Using Natural Network: Based on IKEA Review Data

  • Sim, YuJeong;Yun, Dai Yeol;Hwang, Chi-gon;Moon, Seok-Jae
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제13권2호
    • /
    • pp.173-178
    • /
    • 2021
  • In this paper, we find a suitable methodology for Korean Sentiment Analysis through a comparative experiment in which methods of embedding and natural network models are learned at the highest accuracy and fastest speed. The embedding method compares word embeddeding and Word2Vec. The model compares and experiments representative neural network models CNN, RNN, LSTM, GRU, Bi-LSTM and Bi-GRU with IKEA review data. Experiments show that Word2Vec and BiGRU had the highest accuracy and second fastest speed with 94.23% accuracy and 42.30 seconds speed. Word2Vec and GRU were found to have the third highest accuracy and fastest speed with 92.53% accuracy and 26.75 seconds speed.

하이퍼큐브와 HCN(n, n), HFN(n, n) 사이의 임베딩 (Embedding between Hypercube and HCN(n, n), HFN(n, n))

  • 김종석;이형옥;허영남
    • 정보처리학회논문지A
    • /
    • 제9A권2호
    • /
    • pp.191-196
    • /
    • 2002
  • 알고리즘의 설계에 있어서 주어진 연결망을 다른 연결망으로 임베딩하는 것은 알고리즘을 활용하는 중요한 방법이다. 상호연결망 HCN(n, n)은 HFN(n, n)은 하이퍼큐브가 갖는 좋은 성질을 가지면서 하이퍼큐브보다 망비용(network cost)이 작은 값을 갖는 상호연결망이다. 본 논문에서는 하이퍼큐브 $Q_{2n}$와 HCN(n, n), HFN(n, n) 사이에 임베딩하는 방법을 제시하고, 하이퍼큐브 $Q_{2n}$은 HCN(n, n)과 HFN(n, n)에 연장율 3, 평균 연장율 2 이하에 임베딩 가능함을 보인다. 또한 HCN(n, n), HFN(n, n)은 하이퍼큐브 $Q_{2n}$에 임베딩하는 비용이 0(n)임을 보인다.

Design of a Recommendation System for Improving Deep Neural Network Performance

  • Juhyoung Sung;Kiwon Kwon;Byoungchul Song
    • 인터넷정보학회논문지
    • /
    • 제25권1호
    • /
    • pp.49-56
    • /
    • 2024
  • There have been emerging many use-cases applying recommendation systems especially in online platform. Although the performance of recommendation systems is affected by a variety of factors, selecting appropriate features is difficult since most of recommendation systems have sparse data. Conventional matrix factorization (MF) method is a basic way to handle with problems in the recommendation systems. However, the MF based scheme cannot reflect non-linearity characteristics well. As deep learning technology has been attracted widely, a deep neural network (DNN) framework based collaborative filtering (CF) was introduced to complement the non-linearity issue. However, there is still a problem related to feature embedding for use as input to the DNN. In this paper, we propose an effective method using singular value decomposition (SVD) based feature embedding for improving the DNN performance of recommendation algorithms. We evaluate the performance of recommendation systems using MovieLens dataset and show the proposed scheme outperforms the existing methods. Moreover, we analyze the performance according to the number of latent features in the proposed algorithm. We expect that the proposed scheme can be applied to the generalized recommendation systems.