• 제목/요약/키워드: Local linear embedding

검색결과 15건 처리시간 0.02초

Sparse-Neighbor 영상 표현 학습에 의한 초해상도 (Super Resolution by Learning Sparse-Neighbor Image Representation)

  • 엄경배;최영희;이종찬
    • 한국정보통신학회논문지
    • /
    • 제18권12호
    • /
    • pp.2946-2952
    • /
    • 2014
  • 표본 기반 초해상도(Super Resolution 이하 SR) 방법들 중 네이버 임베딩(Neighbor Embedding 이하 NE) 기법의 기본 원리는 지역적 선형 임베딩이라는 매니폴드 학습방법의 개념과 같다. 그러나, 네이버 임베딩은 국부 학습 데이터 집합의 크기가 너무 작기 때문에 이에 따른 빈약한 일반화 능력으로 인하여 알고리즘의 성능을 크게 저하시킨다. 본 논문에서는 이와 같은 문제점을 해결하기 위해서 일반화 능력이 뛰어난 Support Vector Regression(이하 SVR)을 이용한 Sparse-Neighbor 영상 표현 학습 방법에 기반한 새로운 알고리즘을 제안하였다. 저해상도 입력 영상이 주어지면 bicubic 보간법을 이용하여 확대된 영상을 얻고, 이 확대된 영상으로부터 패치를 얻은 후 저주파 패치인지 고주파 패치 인지를 판별한 후 각 영상 패치의 가중치를 얻은 후 두 개의 SVR을 훈련하였으며 훈련된 SVR을 이용하여 고해상도의 해당 화소 값을 예측하였다. 실험을 통하여 제안된 기법이 기존의 보간법 및 네이버 임베딩 기법 등에 비해 정량적인 척도 및 시각적으로 향상된 결과를 보여 주었다.

SVR에 기반한 개선된 네이버 임베딩 (Advanced Neighbor Embedding based on Support Vector Regression)

  • 엄경배;전창우;최영희;남승태;이종찬
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2014년도 추계학술대회
    • /
    • pp.733-735
    • /
    • 2014
  • 표본기반 초해상도(Super Resolution 이하 SR) 기법은 데이터베이스에 저장된 고해상도 영상의 패치와 저해상도 영상의 패치 사이에 대응관계를 이용하여, 저해상도의 입력영상에 가장 유사한 고해상도 패치를 덧붙여서 고해상도를 구성하는 방식이다. 이러한 방식은 한 장의 영상만으로 고해상도 영상을 얻을 수 있고, 위의 과정을 반복하여 2배 이상의 확대된 영상을 얻을 수 있어서 기존의 고전적 SR의 문제점을 해결할 수 있다. 표본기반 SR의 방법들 중 네이버 임베딩(Neighbor Embedding 이하 NE) 기법의 기본 원리는 지역적 선형 임베딩이라는 매니폴드 학습방법의 개념과 같다. 그러나 네이버 임베딩의 빈약한 일반화 능력으로 인하여 알고리즘의 성능을 크게 저하시킨다. 이유는 국부학습 데이터 집합의 크기가 너무 작아서 NE 알고리즘의 성능을 현저히 저하시킨다. 본 논문에서는 이와 같은 문제점을 해결하기 위해서 일반화 능력이 뛰어난 Support Vector Regression(이하 SVR)기반 개선된 NE를 제안하였다. 저해상도 입력 패치가 주어지면 SVR 기반 개선된 NE를 이용하여 고해상도의 해당 화소 값을 예측하였다. 실험을 통하여 제안된 기법이 기존의 보간법 및 NE 기법 등에 비해 정량적인 척도 및 시각적으로 향상된 결과를 보여 주었다.

  • PDF

$WN_x$ Self-Align Gate GaAs LDD MESFET의 제작 및 특성 (Fabrication and its characteristics of $WN_x$ self-align gate GaAs LDD MESFET)

  • 문재경;김해천;곽명현;강성원;임종원;이재진
    • 한국진공학회지
    • /
    • 제8권4B호
    • /
    • pp.536-540
    • /
    • 1999
  • We have developed a refractory WNx self-aligned gate GaAs metal-semiconductor field-effect transistor(MESFET) using $SiO_2$ side-wall process. The MESFET hasa fully ion-implanted, planar, symmetric self-alignment structure, and it is quite suitable for integration. The uniform trans-conductance of 354nS/mm up to Vgs=+0.6V and the saturation current of 171mA/mm were obtained. As high as 43GHz of cut-off frequency hs been realized without any de-embedding of parasitic effects. The refractory WNx self-aligned gate GaAs MESFET technology is one of the most promising candidates for realizing linear power amplifier ICs and multifunction monolithic ICs for use in the digital mobile communication systems such as hand-held phone(HHP), personal communication system (PCS) and wireless local loop(WLL).

  • PDF

로컬콘텐츠 탄생과정 측면에서 살펴본 로컬크리에이터와 로컬기업가정신: H대학 사례 (Local Creators and Local Entrepreneurship in Perspective of Creation Process of Local Contents with Focus on H University)

  • 한정희
    • 벤처창업연구
    • /
    • 제19권2호
    • /
    • pp.13-25
    • /
    • 2024
  • 지역쇠퇴는 젊은이들의 탈 지역화와 지역경제의 몰락화에 영향이 있다. 이에, 대부분의 나라에서는 지역 불균형 극복을 위해 지역의 차별적 요소를 기반으로 한 지역창업을 그 대안으로 여긴다. 본 연구의 목적은 로컬콘텐츠와 로컬기업가정신을 정의하는 것이다. 이를 위해 그라운드이론에 기반한 질적 연구방법을 활용한다. 연구대상은 H대학생 30명을 대상으로 하였다. 사례 연구결과에 기반하여 볼 때, 로컬창업은 지역 내 특성과 독특성 (지역 문화, 규범, 지역독 창성자원), 소위 로컬콘텐츠에 기반하는 것임을 제시한다. 지금까지, 로컬콘텐츠와 로컬기업가정신에 관한 연구는 미비하고 관련된 정의도 부족하다. 본 연구에서는'로컬컨텐츠'를 창의적인 시나리오의 결과물로 정의하고, 로컬콘텐츠 탄생을 위한 창의적 과정으로 3단계로 구성된'선형모델'을 제안한다. 로컬 자원은 지역성과 지역발전에 중요한 요소이다. 지역의 차별적 자원화에 기반한 지역제도적 측면에서 볼 때, 지역창업을 통하여 지역발전을 이룰 수 있다. 본 논문은 다음과 같은 기여가 있다. 학술적으로 첫째, 로컬콘텐츠가 만들어지는 과정을 제시했다는 점이며, 둘째, 로컬기업가정신 요소의 구성적 특징으로, 로컬크리에이터로서, 로컬기관간 중개자로서, 지역경영자로서, 지역발전의 선구자로서의 위상적 접근을 최초 제시하고 있다는 점이다. 로컬크리에터양성 현장에서는 3단계 선형방법론이 다양하게 적용될 수 있을 것이다.

  • PDF

Comparative Study of Dimension Reduction Methods for Highly Imbalanced Overlapping Churn Data

  • Lee, Sujee;Koo, Bonhyo;Jung, Kyu-Hwan
    • Industrial Engineering and Management Systems
    • /
    • 제13권4호
    • /
    • pp.454-462
    • /
    • 2014
  • Retention of possible churning customer is one of the most important issues in customer relationship management, so companies try to predict churn customers using their large-scale high-dimensional data. This study focuses on dealing with large data sets by reducing the dimensionality. By using six different dimension reduction methods-Principal Component Analysis (PCA), factor analysis (FA), locally linear embedding (LLE), local tangent space alignment (LTSA), locally preserving projections (LPP), and deep auto-encoder-our experiments apply each dimension reduction method to the training data, build a classification model using the mapped data and then measure the performance using hit rate to compare the dimension reduction methods. In the result, PCA shows good performance despite its simplicity, and the deep auto-encoder gives the best overall performance. These results can be explained by the characteristics of the churn prediction data that is highly correlated and overlapped over the classes. We also proposed a simple out-of-sample extension method for the nonlinear dimension reduction methods, LLE and LTSA, utilizing the characteristic of the data.