• 제목/요약/키워드: Embedding vector

검색결과 125건 처리시간 0.03초

A Lossless Data Hiding Scheme for VQ Indexes Based on Joint Neighboring Coding

  • Rudder, Andrew;Kieu, The Duc
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권8호
    • /
    • pp.2984-3004
    • /
    • 2015
  • Designing a new reversible data hiding technique with a high embedding rate and a low compression rate for vector quantization (VQ) compressed images is encouraged. This paper proposes a novel lossless data hiding scheme for VQ-compressed images based on the joint neighboring coding technique. The proposed method uses the difference values between a current VQ index and its left and upper neighboring VQ indexes to embed n secret bits into one VQ index, where n = 1, 2, 3, or 4. The experimental results show that the proposed scheme achieves the embedding rates of 1, 2, 3, and 4 bits per index (bpi) with the corresponding average compression rates of 0.420, 0.483, 0.545, and 0.608 bit per pixel (bpp) for a 256 sized codebook. These results confirm that our scheme performs better than other selected reversible data hiding schemes.

Text Classification Using Parallel Word-level and Character-level Embeddings in Convolutional Neural Networks

  • Geonu Kim;Jungyeon Jang;Juwon Lee;Kitae Kim;Woonyoung Yeo;Jong Woo Kim
    • Asia pacific journal of information systems
    • /
    • 제29권4호
    • /
    • pp.771-788
    • /
    • 2019
  • Deep learning techniques such as Convolutional Neural Networks (CNNs) and Recurrent Neural Networks (RNNs) show superior performance in text classification than traditional approaches such as Support Vector Machines (SVMs) and Naïve Bayesian approaches. When using CNNs for text classification tasks, word embedding or character embedding is a step to transform words or characters to fixed size vectors before feeding them into convolutional layers. In this paper, we propose a parallel word-level and character-level embedding approach in CNNs for text classification. The proposed approach can capture word-level and character-level patterns concurrently in CNNs. To show the usefulness of proposed approach, we perform experiments with two English and three Korean text datasets. The experimental results show that character-level embedding works better in Korean and word-level embedding performs well in English. Also the experimental results reveal that the proposed approach provides better performance than traditional CNNs with word-level embedding or character-level embedding in both Korean and English documents. From more detail investigation, we find that the proposed approach tends to perform better when there is relatively small amount of data comparing to the traditional embedding approaches.

RNN Auto-Encoder의 시계열 임베딩을 이용한 자동작곡 (Automatic Composition using Time Series Embedding of RNN Auto-Encoder)

  • 김경환;정성훈
    • 한국멀티미디어학회논문지
    • /
    • 제21권8호
    • /
    • pp.849-857
    • /
    • 2018
  • In this paper, we propose an automatic composition method using time series embedding of RNN Auto-Encoder. RNN Auto-Encoder can learn existing songs and can compose new songs from the trained RNN decoder. If one song is fully trained in the RNN Auto-Encoder, the song is embedded into the vector values of RNN nodes in the Auto-Encoder. If we train a lot of songs and apply a specific vector to the decoder of Auto-Encoder, then we can obtain a new song that combines the features of trained multiple songs according to the given vector. From extensive experiments we could find that our method worked well and generated various songs by selecting of the composition vectors.

특이치 분해와 Fuzzy C-Mean(FCM) 클러스터링을 이용한 벡터양자화에 기반한 워터마킹 방법 (An Watermarking Method based on Singular Vector Decomposition and Vector Quantization using Fuzzy C-Mean Clustering)

  • 이병희;강환일;장우석
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2007년도 가을 학술발표논문집 Vol.34 No.2 (D)
    • /
    • pp.7-11
    • /
    • 2007
  • In this paper the one of image hide method for good compression ratio and satisfactory image quality of the cover image and the embedding image based on the singular value decomposition and the vector quantization using fuzzy c-mean clustering is introduced. Experimental result shows that the embedding image has invisibility and robustness to various serious attacks.

  • PDF

특이치 분해와 Fuzzy C-Mean(FCM) 군집화를 이용한 벡터양자화에 기반한 워터마킹 방법 (An Watermarking Method Based on Singular Vector Decomposition and Vector Quantization Using Fuzzy C-Mean Clustering)

  • 이병희;장우석;강환일
    • 한국지능시스템학회논문지
    • /
    • 제17권7호
    • /
    • pp.964-969
    • /
    • 2007
  • 본 논문은 원본 영상과 은닉 영상의 좋은 압축률과 만족할만한 이미지의 질, 그리고 외부공격에 강인한 영상 은닉의 한 방법을 제안한다. 이 워터마킹 방법은 특이치 분해와 퍼지 군집화 기반 벡터양자화를 이용한다. 실험에서는 은닉된 영상의 비가시성과 외부공격에 대한 강인성을 증명하였다. 이 워터마킹기법의 장점은 워터마크된 영상이 이미 압축되어 있으므로 압축과정과 동시에 저작권 보호에 이용할 수 있다는 장점이 있다.

다양한 임베딩 모델들의 하이퍼 파라미터 변화에 따른 성능 분석 (Performance analysis of Various Embedding Models Based on Hyper Parameters)

  • 이상아;박재성;강상우;이정엄;김선아
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.510-513
    • /
    • 2018
  • 본 논문은 다양한 워드 임베딩 모델(word embedding model)들과 하이퍼 파라미터(hyper parameter)들을 조합하였을 때 특정 영역에 어떠한 성능을 보여주는지에 대한 연구이다. 3 가지의 워드 임베딩 모델인 Word2Vec, FastText, Glove의 차원(dimension)과 윈도우 사이즈(window size), 최소 횟수(min count)를 각기 달리하여 총 36개의 임베딩 벡터(embedding vector)를 만들었다. 각 임베딩 벡터를 Fast and Accurate Dependency Parser 모델에 적용하여 각 모들의 성능을 측정하였다. 모든 모델에서 차원이 높을수록 성능이 개선되었으며, FastText가 대부분의 경우에서 높은 성능을 내는 것을 알 수 있었다.

  • PDF

d-vector를 이용한 한국어 다화자 TTS 시스템 (A Korean Multi-speaker Text-to-Speech System Using d-vector)

  • 김광현;권철홍
    • 문화기술의 융합
    • /
    • 제8권3호
    • /
    • pp.469-475
    • /
    • 2022
  • 딥러닝 기반 1인 화자 TTS 시스템의 모델을 학습하기 위해서 수십 시간 분량의 음성 DB와 많은 학습 시간이 요구된다. 이것은 다화자 또는 개인화 TTS 모델을 학습시키기 위해서는 시간과 비용 측면에서 비효율적 방법이다. 음색 복제 방법은 새로운 화자의 TTS 모델을 생성하기 위하여 화자 인코더 모델을 이용하는 방식이다. 학습된 화자 인코더 모델을 통해 학습에 사용되지 않은 새로운 화자의 적은 음성 파일로부터 이 화자의 음색을 대표하는 화자 임베딩 벡터를 만든다. 본 논문에서는 음색 복제 방식을 적용한 다화자 TTS 시스템을 제안한다. 제안한 TTS 시스템은 화자 인코더, synthesizer와 보코더로 구성되어 있는데, 화자 인코더는 화자인식 분야에서 사용하는 d-vector 기법을 적용한다. 학습된 화자 인코더에서 도출한 d-vector를 synthesizer에 입력으로 추가하여 새로운 화자의 음색을 표현한다. MOS와 음색 유사도 청취 방법으로 도출한 실험 결과로부터 제안한 TTS 시스템의 성능이 우수함을 알 수 있다.

딥 러닝을 이용한 한국어 형태소의 원형 복원 오류 수정 (Error Correction in Korean Morpheme Recovery using Deep Learning)

  • 황현선;이창기
    • 정보과학회 논문지
    • /
    • 제42권11호
    • /
    • pp.1452-1458
    • /
    • 2015
  • 한국어 형태소 분석은 교착어 특성상 난이도가 높은 작업이다. 그 중에서 형태소의 원형 복원 작업은 규칙이나 기분석 사전 정보 등을 활용하는 방법이 주로 연구되었다. 그러나 이러한 방법들은 어휘 수준의 문맥 정보를 보지 못하기 때문에 원형 복원에 한계가 있다. 본 논문에서는 최근 자연어처리에 연구되고 있는 기계학습 방법인 딥 러닝(deep learning)을 사용하여 형태소의 원형 복원 문제의 해결을 시도하였다. 문맥 정보를 보기 위해 단어 표현(word embedding)을 사용하여 기존의 방법들 보다 높은 성능을 보였다. 실험 결과, '들/VV'과 '듣/VV'의 복원 문제에 대해서 97.97%로 기존의 자연어처리에 쓰이는 기계학습 방법 중 하나인 SVM(Support Vector Machine)의 96.22% 보다 1.75% 높은 성능을 보였다.

기울기백터를 이용한 카오스 시계열에 대한 예측 (The Prediction of Chaos Time Series Utilizing Inclined Vector)

  • 원석준
    • 정보처리학회논문지B
    • /
    • 제9B권4호
    • /
    • pp.421-428
    • /
    • 2002
  • 지금까지 삽입(Embedding)백터를 이용한 국소적예측방법은 고차미분방정식으로부터 생성된 카오스 시계열을 예측할 때, 파라메타 $\tau$의 추정이 정확하지 않으면 예측성능은 떨어졌다. 지금까지 지연시간 ($\tau$)의 값을 추정하는 방법은 많이 제안되어있지만 실제로 고차원미분방정식부터 생성되어진 수많은 시계열에 모두 적용 가능한 방법은 아직 없다. 이것을 기울기 백터를 이용한 기울기 선형모델을 도입하는 것에 의해 정확한 지연시간 ($\tau$)의 값을 추정하지 않아도 예측성능에 만족할 수 있는 결과를 표시했다. 이것을 이론뿐이 아니고 경제시계열에도 적용해서 종래의 예측방법과 비교해서 그 유효성을 표시했다.