• 제목/요약/키워드: $C^{*}-embedding$

검색결과 139건 처리시간 0.034초

WEAKLY LAGRANGIAN EMBEDDING AND PRODUCT MANIFOLDS

  • Byun, Yang-Hyun;Yi, Seung-Hun
    • 대한수학회보
    • /
    • 제35권4호
    • /
    • pp.809-817
    • /
    • 1998
  • We investigate when the product of two smooth manifolds admits a weakly Lagrangian embedding. Prove that, if $M^m$ and $N^n$ are smooth manifolds such that M admits a weakly Lagrangian embedding into ${\mathbb}C^m$ whose normal bundle has a nowhere vanishing section and N admits a weakly Lagrangian immersion into ${\mathbb}C^n$, then $M \times N$ admits a weakly Lagrangian embedding into ${\mathbb}C^{m+n}$. As a corollary, we obtain that $S^m {\times} S^n$ admits a weakly Lagrangian embedding into ${\mathbb}C^{m+n}$ if n=1,3. We investigate the problem of whether $S^m{\times}S^n$ in general admits a weakly Lagrangian embedding into ${\mathbb} C^{m+n}$.

  • PDF

WEAKLY LAGRANGIAN EMBEDDING $S^m\;{\times}\;S^n$ INTO $C^{m+n}$

  • Byun, Yang-Hyun;Yi, Seung-Hun
    • 대한수학회보
    • /
    • 제36권4호
    • /
    • pp.799-808
    • /
    • 1999
  • We investigate when the .product of two smooth manifolds admits a weakly Lagrangian embedding. Assume M, N are oriented smooth manifolds of dimension m and n,. respectively, which admit weakly Lagrangian immersions into $C^m$ and $C^n$. If m and n are odd, then $M\;{\times}\;N$ admits a weakly Lagrangian embedding into $C^{m+n}$ In the case when m is odd and n is even, we assume further that $\chi$(N) is an even integer. Then $M\;{\times}\;N$ admits a weakly Lagrangian embedding into $C^{m+n}$. As a corollary, we obtain the result that $S^n_1\;{\times}\;S^n_2\;{\times}\;...{\times}\;S^n_k$, $\kappa$>1, admits a weakly Lagrang.ian embedding into $C^n_1+^n_2+...+^n_k$ if and only if some ni is odd.

  • PDF

단어의 위치정보를 이용한 Word Embedding (Word Embedding using word position information)

  • 황현선;이창기;장현기;강동호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2017년도 제29회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.60-63
    • /
    • 2017
  • 자연어처리에 딥 러닝을 적용하기 위해 사용되는 Word embedding은 단어를 벡터 공간상에 표현하는 것으로 차원축소 효과와 더불어 유사한 의미의 단어는 유사한 벡터 값을 갖는다는 장점이 있다. 이러한 word embedding은 대용량 코퍼스를 학습해야 좋은 성능을 얻을 수 있기 때문에 기존에 많이 사용되던 word2vec 모델은 대용량 코퍼스 학습을 위해 모델을 단순화 하여 주로 단어의 등장 비율에 중점적으로 맞추어 학습하게 되어 단어의 위치 정보를 이용하지 않는다는 단점이 있다. 본 논문에서는 기존의 word embedding 학습 모델을 단어의 위치정보를 이용하여 학습 할 수 있도록 수정하였다. 실험 결과 단어의 위치정보를 이용하여 word embedding을 학습 하였을 경우 word-analogy의 syntactic 성능이 크게 향상되며 어순이 바뀔 수 있는 한국어에서 특히 큰 효과를 보였다.

  • PDF

단어의 위치정보를 이용한 Word Embedding (Word Embedding using word position information)

  • 황현선;이창기;장현기;강동호
    • 한국어정보학회:학술대회논문집
    • /
    • 한국어정보학회 2017년도 제29회 한글및한국어정보처리학술대회
    • /
    • pp.60-63
    • /
    • 2017
  • 자연어처리에 딥 러닝을 적용하기 위해 사용되는 Word embedding은 단어를 벡터 공간상에 표현하는 것으로 차원축소 효과와 더불어 유사한 의미의 단어는 유사한 벡터 값을 갖는다는 장점이 있다. 이러한 word embedding은 대용량 코퍼스를 학습해야 좋은 성능을 얻을 수 있기 때문에 기존에 많이 사용되던 word2vec 모델은 대용량 코퍼스 학습을 위해 모델을 단순화 하여 주로 단어의 등장 비율에 중점적으로 맞추어 학습하게 되어 단어의 위치 정보를 이용하지 않는다는 단점이 있다. 본 논문에서는 기존의 word embedding 학습 모델을 단어의 위치정보를 이용하여 학습 할 수 있도록 수정하였다. 실험 결과 단어의 위치정보를 이용하여 word embedding을 학습 하였을 경우 word-analogy의 syntactic 성능이 크게 향상되며 어순이 바뀔 수 있는 한국어에서 특히 큰 효과를 보였다.

  • PDF

폴디드 하이퍼큐브와 HFH 네트워크 사이의 임베딩 알고리즘 (Embedding Algorithm between Folded Hypercube and HFH Network)

  • 김종석;이형옥;김성원
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제2권4호
    • /
    • pp.151-154
    • /
    • 2013
  • 본 논문에서는 폴디드 하이퍼큐브와 HFH 네트워크 사이의 임베딩을 분석한다. 폴디드 하이퍼큐브 $FQ_{2n}$는 HFH($C_n,C_n$)에 연장율 4, 확장율 $\frac{(C_n)^2}{2^{2n}}$에 임베딩 가능함을 보이고, HFH($C_d,C_d$)를 폴디드 하이퍼큐브 $FQ_{4d-2}$에 임베딩하는 비용은 O(d)임을 보인다.

하이퍼큐브와 스타 그래프 종류 사이의 임베딩 알고리즘 (Embedding algorithms among hypercube and star graph variants)

  • 김종석;이형옥
    • 컴퓨터교육학회논문지
    • /
    • 제17권2호
    • /
    • pp.115-124
    • /
    • 2014
  • 하이퍼큐브와 스타 그래프는 상호연결망으로 널리 알려져 있다. 상호연결망의 임베딩은 임의의 연결망 G를 다른 연결망 H에 사상하는 것이다. 상호연결망 G가 H에 적은 비용으로 임베딩 가능하다는 것은 연결망 G에서 개발된 알고리즘들을 연결망 H에서 효율적으로 이용할 수 있는 장점이 있다. 본 논문에서는 HCN과 HON 사이의 임베딩과 스타(star)그래프와 하프팬케익그래프 사이의 임베딩을 분석한다. 연구 결과로 HCN(n,n)은 HON($C_{n+1},C_{n+1}$)에 연장율 3에 임베딩 가능하고, HON($C_d,C_d$)를 HCN(2d-1,2d-1)에 임베딩 비용은 O(d)임을 보인다. 또한 스타그래프는 하프팬케익그래프에 연장율 11, 확장율 1에 임베딩 가능하고, 평균 연장율은 8이다. 본 연구 결과는 HCN 연결망과 스타그래프에서 이미 개발된 여러 가지 알고리즘을 HON 연결망과 하프팬케익그래프에서 효율적으로 이용할 수 있음을 의미한다.

  • PDF

확률진폭 스위치에 의한 양자게이트의 함수 임베딩과 투사측정 (Function Embedding and Projective Measurement of Quantum Gate by Probability Amplitude Switch)

  • 박동영
    • 한국전자통신학회논문지
    • /
    • 제12권6호
    • /
    • pp.1027-1034
    • /
    • 2017
  • 본 논문은 양자게이트의 모든 제어 동작점에서 양자들의 확률진폭, 확률, 평균 기댓값 및 정상상태 단위행렬의 행렬요소 등을 수학적 투사로 측정할 수 있는 새로운 함수 임베딩 방법을 제안하였다. 본 논문의 함수 임베딩 방법은 디랙 기호와 크로네커델타 기호를 사용해 각 제어 동작점에 대한 확률진폭의 직교 정규화조건을 2진 스칼라 연산자에 임베딩 한 것이다. 이와 같은 함수 임베딩 방법은 양자게이트 함수를 단일양자들의 텐서 곱으로 표현하는 유니터리 변환에서 유니터리 게이트의 산술 멱함수 제어에 매우 효과적 수단임을 밝혔다. Ternary 2-qutrit cNOT 게이트에 본 논문이 제안한 함수 임베딩 방법을 적용했을 때의 진화연산과 투사측정 결과를 제시하고, 기존의 방법들과 비교 검토하였다.

계층적 폴디드 하이퍼스타 네트워크의 임베딩 알고리즘 (Embedding Algorithms of Hierarchical Folded HyperStar Network)

  • 김종석;이형옥;김성원
    • 정보처리학회논문지A
    • /
    • 제16A권4호
    • /
    • pp.299-306
    • /
    • 2009
  • 계층적 폴디드 하이퍼스타 네트워크는 동일한 노드 개수를 갖는 계층적 네트워크인 HCN(n,n)과 HFN(n,n)보다 망비용이 우수한 연결망이다. 본 연구에서는 하이퍼큐브, HCN(n,n), HFN(n,n)과 계층적 폴디드 하이퍼스타 HFH($C_n,C_n$) 사이의 임베딩을 분석한다. 임베딩 결과는 HCN(n,n), HFN(n,n), 하이퍼큐브 $Q_{2n}$은 계층적 폴디드 하이퍼스타 HFH($C_n,C_n$)에 확장율 $\frac{C^n}{2^{2n}}$과 연장율 2, 3, 4로 각각 임베딩 가능하다. 또한, 계층적 폴디드 하이퍼스타 HFH($C_n,C_n$)는 계층적 네트워크인 HFN(2n,2n)에 연장율 1에 임베딩 가능하다. 이러한 임베딩 결과는 하이퍼큐브, HCN(n,n), HFN(n,n)에서 개발된 알고리즘을 계층적 폴디드 하이퍼스타 HFH($C_n,C_n$)에서 효율적으로 활용 가능함을 의미한다.

개선된 히스토그램 쉬프팅 기법을 이용한 리버서블 워터마킹 (Reversible Watermarking Based On Advanced Histogram Shifting)

  • 황진하;김종원;최종욱
    • 정보처리학회논문지C
    • /
    • 제14C권1호
    • /
    • pp.39-44
    • /
    • 2007
  • 논문에서는 워터마크 추출 후 원본 이미지를 복원할 수 있는 리버서블 워터마킹 알고리즘을 제안한다. 대부분의 워터마킹 기법에서는 정보 삽입 때문에 원본 이미지에 열화를 발생시키지만 본 알고리즘은 워터마크 추출 후 워터마크가 삽입된 이미지로부터 열화를 제거하여 원본 이미지를 복원시킨다. 제안한 알고리즘에서는 히스토그램 쉬프팅과 로케이션 맵 구조를 이용한다. 로케이션 맵을 이용함으로써 플립 현상을 제거하고 반복적인 정보 삽입을 통해 정보 삽입량을 크게 증가시킬 수 있었다. 실험 결과 최대 120k bits의 높은 정보 삽입량을 보이면서도 평균 41dB 이상의 우수한 비가시성을 보임을 확인하였다.