• 제목/요약/키워드: Multiple projection images

검색결과 44건 처리시간 0.022초

2D-MELPP: A two dimensional matrix exponential based extension of locality preserving projections for dimensional reduction

  • Xiong, Zixun;Wan, Minghua;Xue, Rui;Yang, Guowei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권9호
    • /
    • pp.2991-3007
    • /
    • 2022
  • Two dimensional locality preserving projections (2D-LPP) is an improved algorithm of 2D image to solve the small sample size (SSS) problems which locality preserving projections (LPP) meets. It's able to find the low dimension manifold mapping that not only preserves local information but also detects manifold embedded in original data spaces. However, 2D-LPP is simple and elegant. So, inspired by the comparison experiments between two dimensional linear discriminant analysis (2D-LDA) and linear discriminant analysis (LDA) which indicated that matrix based methods don't always perform better even when training samples are limited, we surmise 2D-LPP may meet the same limitation as 2D-LDA and propose a novel matrix exponential method to enhance the performance of 2D-LPP. 2D-MELPP is equivalent to employing distance diffusion mapping to transform original images into a new space, and margins between labels are broadened, which is beneficial for solving classification problems. Nonetheless, the computational time complexity of 2D-MELPP is extremely high. In this paper, we replace some of matrix multiplications with multiple multiplications to save the memory cost and provide an efficient way for solving 2D-MELPP. We test it on public databases: random 3D data set, ORL, AR face database and Polyu Palmprint database and compare it with other 2D methods like 2D-LDA, 2D-LPP and 1D methods like LPP and exponential locality preserving projections (ELPP), finding it outperforms than others in recognition accuracy. We also compare different dimensions of projection vector and record the cost time on the ORL, AR face database and Polyu Palmprint database. The experiment results above proves that our advanced algorithm has a better performance on 3 independent public databases.

다중 GPU 기반의 고속 삼차원 역전사 기법 (Fast Multi-GPU based 3D Backprojection Method)

  • 이병훈;이호;계희원;신영길
    • 한국멀티미디어학회논문지
    • /
    • 제12권2호
    • /
    • pp.209-218
    • /
    • 2009
  • 삼차원 역전사(3D backprojection) 기법은 수백 장의 이차원 투영영상을 가지고 대상물의 공간적인 위치 파악이 가능한 단층 영상(tomography)을 생성하기 위해 사용되는 재구성 기법이다. 재구성 기법은 단층 영상을 구성하는 결과볼륨의 모든 화소로부터 각 화소 위치에 기여할 값을 이차원 투영영상에서 계산하여 얻어오기 때문에 결과볼륨이 커지거나 투영영상의 수가 증가하게 되면 전체 계산량은 상당히 증가하게 된다. 이러한 문제를 해결하기 위해 최근 범용 그래픽스 하드웨어(graphics processing unit: GPU) 기반의 고속 삼차원 재구성 기법이 연구되었으며 상당한 성능 향상을 가져왔다. 본 논문에서는 기존의 단일 GPU 기반의 삼차원 재구성 기법을 다중 GPU기반으로 확장할 때 입력되는 투영영상 크기와 결과볼륨의 크기에 따라서 효율적으로 동작될 수 있는 두 가지 병렬 처리 구현 기법에 대해 제시하고 비교 분석한다. 제안한 병렬 처리 구현 기법은 투영영상을 입력 데이터로 간주하여 각 GPU가 모든 투영영상에 대해서 출력 데이터인 결과볼륨을 분할하여 생성하는 결과볼륨 분할생성 기법과 각 GPU가 투영영상을 분산적재하여 할당받은 입력 데이터에 대한 결과볼륨을 출력한 후 각각의 출력 결과를 CPU에서 합하는 투영영상 분산적재 기법이다. 실험 결과, 결과볼륨의 크기가 GPU에 모두 할당할 수 있는 크기인 경우에는 결과볼륨 분할생성 기법이 더 좋은 성능을 보였고, 결과볼륨의 크기가 GPU 메모리보다 큰 경우에는 투영영상 분산적재 기법이 더 유리하였다.

  • PDF

가상 데이터와 융합 분류기에 기반한 얼굴인식 (Face Recognition based on Hybrid Classifiers with Virtual Samples)

  • 류연식;오세영
    • 전자공학회논문지CI
    • /
    • 제40권1호
    • /
    • pp.19-29
    • /
    • 2003
  • 본 논문은 인위적으로 생성된 가상 학습 데이터와 융합 분류기를 이용한 얼굴인식 알고리즘을 제안한다. 특징공간에서의 최근접 특징 선택 방법과 연결주의 모델에 기반한 서로 다른 형태의 분류기를 융합하여 통합효과를 얻도록 하였다. 두 분류기는 모두 학습 데이터의 공간적인 분포에 따라 생성된 가상 학습데이터를 이용하여 학습되고 이용된다. 첫째로, 특징 공간에서의 각 정보(Angular Infnrmation) 를 이용하는 최근접특징각(the Nearest Feature Angle : NFA)을 이용하여 저장된 학습데이터와 가장 근접한 것을 찾고, 둘째로, 질의(Query) 얼굴 특징 정보를 정면얼굴 영상의 특징정보로 투영하여 얻은 정보에 기반한 분류기의 결과를 이용한다. 정면영상 특징정보로의 투영은 다층 신경망을 이용하여 정면 회상망(Frontal Recall Network)을 구현하였고, 이것을 여러 개 묶어 앙상블 네트웍으로 구성한 Ensemble 회상망(Ensemble Recall Network)을 사용하여 일반화 성능을 향상시켰다. 끝으로, 각 분류기의 결과에 따라 융합 분류기가 최종 결과를 선택하도록 하였다. 제안된 알고리즘을 6 종류의 서고 다른 학습/시험데이터 군에 적용하여 평균 96.33%의 인식률을 얻었다. 이것은 특징라인에 기반한 방법(the Nearest Feature Line) 평균 에러율의 61.2% 이며, 단일 분류기를 사용한 경우 보다 안정된 견과를 얻고 있다.

간의 단일선원 Twin Beam과 이중선원 이중에너지 전산화단층촬영의 비조영증강 영상과 가상 비조영증강 영상의 비교 연구 (Comparison of True and Virtual Non-Contrast Images of Liver Obtained with Single-Source Twin Beam and Dual-Source Dual-Energy CT)

  • 이정섭;최국명;김봉수;고수연;이경렬;김정재;김두리
    • 대한영상의학회지
    • /
    • 제84권1호
    • /
    • pp.170-184
    • /
    • 2023
  • 목적 Twin beam dual-energy CT (이하 tbDECT)와 dual source DECT (이하 dsDECT)를 통해 얻은 true non-contrast image (이하 TNC)와 virtual non-contrast image (이하 VNC)의 attenuation values 차이를 평가해 보고자 한다. 대상과 방법 간 DECT를 촬영한 62명의 환자를 대상으로 하였다(tbDECT, 32명; dsDECT, 30명). TNC와 재구성한 arterial VNC (이하 AVNC), portal VNC (이하 PVNC), delayed VNC (이하 DVNC)에서 복부내 11개 장기에 대해 attenuation values를 측정하여 비교하였다. 또한 TNC와 VNC attenuation values의 절대오차가 10 Hounsfield units (이하 HU) 이하인 비율을 구하였다. 결과 TNC와 VNC의 평균 attenuation values 비교에서 각 DECT별 33개의 항목(3시기 VNC, 11개 장기) 중 tbDECT는 17개, dsDECT 19개 항목에서 유의한 차이를 보였다(Bonferroni correction p < 0.0167). 절대오차 10 HU이하인 비율은 tbDECT의 AVNC, PVNC, DVNC에서 각각 56.7%, 69.2%, 78.6%, dsDECT는 각각 70.5%, 78%, 78%이었고, 두 DECT모두 AVNC에서 가장 낮았다. 결론 두 DECT의 VNC는 적지 않은 attenuation values 차이로 TNC를 대체하기에는 충분하지 않다.