• 제목/요약/키워드: 대용량 행렬분해

검색결과 7건 처리시간 0.021초

블록화기법을 이용한 대형구조물의 해석방법 (An Analysis Method of Large Structure Using Matrix Blocking)

  • 정성진;이민섭
    • 한국구조물진단유지관리공학회 논문집
    • /
    • 제18권2호
    • /
    • pp.30-37
    • /
    • 2014
  • 본 연구에서는 개인 컴퓨터의 플래시 메모리가 충분하지 않을 경우 대용량의 플래시 메모리를 필요로 하는 구조해석을 컴퓨터 프로그램으로 수행하는 방법론을 연구하였다. 이러한 문제점의 해결방안으로 강성행렬의 블록화기법 -강성행렬이 몇 개의 블록으로 나뉘고 각각의 블록에 대하여 행렬분해가 수행되는 방법- 을 제안하였으며 제안된 방법론을 바탕으로 컴퓨터 프로그래밍이 가능한 알고리즘을 제시하였다. 끝으로, 본 연구를 바탕으로 구조해석 프로그램을 개발하였으며 몇 가지 기초적인 구조해석 예제를 통하여 개발 알고리즘의 정합성 및 효율성을 확인할 수 있었다.

대용량 컴뮤트 타임 임베딩을 위한 연산 속도 개선 방식 제안 (Proposing the Methods for Accelerating Computational Time of Large-Scale Commute Time Embedding)

  • 한희일
    • 전자공학회논문지
    • /
    • 제52권2호
    • /
    • pp.162-170
    • /
    • 2015
  • 컴뮤트 타임 임베딩을 구현하려면 그래프 라플라시안 행렬의 고유값과 고유벡터를 구하여야 하는데, $o(n^3)$의 계산량이 요구되어 대용량 데이터에는 적용하기 어려운 문제가 있다. 이를 줄이기 위하여 표본화 과정을 통하여 크기가 줄어든 그래프 라플라시안 행렬에서 구한 다음, 원래의 고유값과 고유벡터를 근사화시키는 Nystr${\ddot{o}}$m 기법을 주로 채택한다. 이 과정에서 많은 오차가 발생하는데, 이를 개선하기 위하여 본 논문에서는 그래프 라플라시안 대신에 가중치 행렬을 표본화하고 이로부터 구한 고유값과 고유벡터를 그래프 라플라시안의 고유값과 고유벡터로 변환하는 기법을 이용하여 대용량 데이터로 구성된 스펙트럴 그래프를 근사적으로 컴뮤트 타임 임베딩하는 기법을 제안한다. 하지만, 이 방식도 스펙트럼 분해를 계산하여야 하므로 데이터의 크기가 증가하면 적용하기 어려운 문제가 발생한다. 이의 대안으로, 스펙트럼 분해를 계산하지 않고도 데이터 집합의 크기에 영향을 받지 않으면서 컴뮤트 타임을 근사적으로 계산하는 방식을 구현하고 이들의 특성을 실험적으로 분석한다.

데이터 마이닝을 위한 개선된 직사각형 분해 알고리즘 (An Improved Rectangular Decomposition Algorithm for Data Mining)

  • 송지영;임영희;박대희
    • 정보처리학회논문지B
    • /
    • 제10B권3호
    • /
    • pp.265-272
    • /
    • 2003
  • 본 논문에서는 동적으로 변화하는 대용량의 데이터베이스로부터 보다 현실적인 데이터 마이닝의 수행을 가능케 하기 위하여 기존의 직사각형분해 알고리즘을 개선한 새로운 알고리즘을 제안한다. 새로운 알고리즘은 이진 행렬을 이분(bipartite) 그래프로 변환하고, 변환된 이분 그래프에서 이분클리크(biclique)를 찾음으로써 직사각형 분해를 수행한다 제안된 알고리즘은 새롭게 유도된 수학적 정리들을 바탕으로 출발하였으며, 복잡도 분석을 통하여 그 효율성을 보이고, 기존의 분류 방법론과의 비교를 통하여 제안된 방법론이 규칙의 수와 분류율면에서 우수함을 보인다.

암시적 피드백 데이터의 행렬 분해 기반 누락 데이터 모델링 (Missing Data Modeling based on Matrix Factorization of Implicit Feedback Dataset)

  • 기가기;정영지
    • 한국정보통신학회논문지
    • /
    • 제23권5호
    • /
    • pp.495-507
    • /
    • 2019
  • 데이터 희소성은 추천 시스템의 주요 과제 중 하나이다. 추천 시스템에서는, 일부분만 관찰된 데이터이고 다른 부분은 데이터가 누락된 대용량 데이터를 포함하고 있다. 대부분의 연구에서는, 데이터 세트에서 무작위로 데이터가 누락되었다고 가정하고, 관찰된 데이터만을 사용하여 추천 모델을 학습함으로써 사용자에게 항목을 추천하고 있다. 그러나, 실제로는 누락된 데이터는 무작위로 손실되었다고 볼 수 없다. 본 연구에서는, 누락 된 데이터를 사용자적 관심의 부정적인 예라고 간주하였다. 또한, 3가지 샘플 접근 방식을 SVD++ 알고리즘과 결합하여 SVD++_W, SVD++_R 그리고 SVD++_KNN 알고리즘을 제안하였다. 실험결과를 통하여, 제안한 3가지 샘플 접근 방식이 기존의 기본적인 알고리즘 보다 Top-N 추천에서 정확성과 회수율을 효과적으로 향상시킬 수 있다는 것을 보였다. 특히, SVD++_KNN 가 가장 우수한 성능을 보였는데, 이는 KNN 샘플 접근 방식이 사용자적 관심의 부정적인 예를 추출하는데 가장 효율적인 방법이라는 것을 보여주었다.

칼라 분포정보를 이용한 성능적 이미지 검색 평가 (Evaluation of the Use of Color Distribution Image Search in Various Setup)

  • 이용환;안효창;이상범;박진양
    • 한국컴퓨터산업학회논문지
    • /
    • 제7권5호
    • /
    • pp.537-544
    • /
    • 2006
  • 최근 대용량의 디지털 이미지가 제작되면서 멀티미디어 관련 기술에서 이미지 검색이 많은 관심의 대상이 되고 있다. 본 논문에서는 이미지 검색(Image Search)을 위한 가장 기본적인 요소인 이미지 색상에 칼라 분포 정보를 이용하고 다양한 요소에 따라 가중치를 부여한 칼라 기반의 검색 기술자(Descriptor)를 제안하였고 시뮬레이션을 통하여 제안 기술자의 성능을 평가하였다. 칼라 히스토그램을 통한 이미지 검색 기술자를 설계하는데 있어 칼라모델은 HSV를, 웨이블릿 변환 필터는 Daubechies 9/7을, 웨이블릿 분해 레벨은 2레벨을 적용하였을 때 가장 좋은 검색 효율성을 보였다. 또한 유사도 검색은 히스토그램 이차행렬(Quadratic Matrix)을 적용하여 보다 나은 성능을 얻었으나 유사도 검색 계산 시간에서 절대 차이값의 합(L1 Norm)을 사용하는 경우에 비해 20배 이상의 처리 시간이 소요되었다.

  • PDF

저차원 선형 모델을 이용한 하이브리드 협력적 여과 (A Hybrid Collaborative Filtering Using a Low-dimensional Linear Model)

  • 고수정
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권10호
    • /
    • pp.777-785
    • /
    • 2009
  • 협력적 여과는 특별한 아이템에 대한 사용자의 선호도를 예측하는 데 사용하는 기술이다. 이러한 협력적 여과 기술은 사용자 기반 접근 방식과 아이템 기반 접근 방식으로 구분할 수 있으며, 많은 상업적인 추천 시스템에서 광범위하게 사용되고 있다. 본 논문에서는 저차원 선형 모델을 사용하여 사용자 기반과 아이템 기반을 통합하는 하이브리드 협력적 여과 방법을 제안한다. 제안한 방법에서는 저차원 선형모델 중 비음수 행렬 분해(NMF)를 이용하여 기존의 협력적 여과 시스템의 문제점인 희박상과 대용량성의 문제점을 해결한다. 협력적 여과 시스템에서 NMF를 이용하는 방법은 사용자를 의미 관계로 표현할 때 유용하게 사용되나 사용자-아이템 행렬의 평가값에 따라 정확도가 낮아질 수 있으며, 모델 기반의 방법이기 때문아 계산 과정이 복잡하여 동적인 추천이 불가능하다는 단점을 갖는다. 이러한 단점을 보완하기 위하여 제안된 방법에서는 NMF에 의해 군집된 그룹을 대상으로 TF-lDF를 이용하여 그룹의 특징을 추출한다. 또한, 아이템 기반에서 아이템간의 유사도를 계산하기 위하여 상호정보량(mutual information)을 이용한다. 오프라인 상에서 훈련집합의 사용자를 군집시키고 그룹의 특징을 추출한 후, 온라인 상에서 추출한 그룹의 특징을 이용하여 새로운 사용자를 가장 최적의 그룹으로 분류함으로써 사용자를 분류하는 데 걸리는 시간을 단축시켜 동적인 추천을 가능하게 하며, 사용자 기반과 아이템 기반을 병합함으로써 기존의 방법보다 정확도를 높인다.

선택적 자질 차원 축소를 이용한 최적의 지도적 LSA 방법 (Optimal supervised LSA method using selective feature dimension reduction)

  • 김정호;김명규;차명훈;인주호;채수환
    • 감성과학
    • /
    • 제13권1호
    • /
    • pp.47-60
    • /
    • 2010
  • 기존 웹 페이지 자동분류 연구는 일반적으로 학습 기반인 kNN(k-Nearest Neighbor), SVM(Support Vector Machine)과 통계 기반인 Bayesian classifier, NNA(Neural Network Algorithm)등 여러 종류의 분류작업에서 입증된 분류 기법을 사용하여 웹 페이지를 분류하였다. 하지만 인터넷 상의 방대한 양의 웹 페이지와 각 페이지로부터 나오는 많은 양의 자질들을 처리하기에는 공간적, 시간적 문제에 직면하게 된다. 그리고 분류 대상을 표현하기 위해 흔히 사용하는 단일(uni-gram) 자질 기반에서는 자질들 간의 관계 분석을 통해 자질에 정확한 의미를 부여하기 힘들다. 특히 본 논문의 분류 대상인 한글 웹 페이지의 자질인 한글 단어는 중의적인 의미를 가지는 경우가 많기 때문에 이러한 중의성이 분류 작업에 많은 영향을 미칠 수 있다. 잠재적 의미 분석 LSA(Latent Semantic Analysis) 분류기법은 선형 기법인 특이치 분해 SVD(Singular Value Decomposition)을 통해 행렬의 분해 및 차원 축소(dimension reduction)를 수행하여 대용량 데이터 집합의 분류를 효율적으로 수행하고, 또한 차원 축소를 통해 새로운 의미공간을 생성하여 자질들의 중의적 의미를 분석할 수 있으며 이 새로운 의미공간상에 분류 대상을 표현함으로써 분류 대상의 잠재적 의미를 분석할 수 있다. 하지만 LSA의 차원 축소는 전체 데이터의 표현 정도만을 고려할 뿐 분류하고자 하는 범주를 고려하지 않으며 또한 서로 다른 범주 간의 차별성을 고려하지 않기 때문에 축소된 차원 상에서 분류 시 서로 다른 범주 데이터간의 모호한 경계로 인해 안정된 분류 성능을 나타내지 못한다. 이에 본 논문은 새로운 의미공간(semantic space) 상에서 서로 다른 범주사이의 명확한 구분을 위한 특별한 차원 선택을 수행하여 최적의 차원 선택과 안정된 분류성능을 보이는 최적의 지도적 LSA을 소개한다. 제안한 지도적 LSA 방법은 기본 LSA 및 다른 지도적 LSA 방법들에 비해 저 차원 상에서 안정되고 더 높은 성능을 보였다. 또한 추가로 자질 생성 및 선택 시 불용어의 제거와 자질에 대한 가중치를 통계적인 학습을 통해 얻음으로써 더 높은 학습효과를 유도하였다.

  • PDF