• 제목/요약/키워드: multimodal information transform

검색결과 9건 처리시간 0.026초

A multisource image fusion method for multimodal pig-body feature detection

  • Zhong, Zhen;Wang, Minjuan;Gao, Wanlin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권11호
    • /
    • pp.4395-4412
    • /
    • 2020
  • The multisource image fusion has become an active topic in the last few years owing to its higher segmentation rate. To enhance the accuracy of multimodal pig-body feature segmentation, a multisource image fusion method was employed. Nevertheless, the conventional multisource image fusion methods can not extract superior contrast and abundant details of fused image. To superior segment shape feature and detect temperature feature, a new multisource image fusion method was presented and entitled as NSST-GF-IPCNN. Firstly, the multisource images were resolved into a range of multiscale and multidirectional subbands by Nonsubsampled Shearlet Transform (NSST). Then, to superior describe fine-scale texture and edge information, even-symmetrical Gabor filter and Improved Pulse Coupled Neural Network (IPCNN) were used to fuse low and high-frequency subbands, respectively. Next, the fused coefficients were reconstructed into a fusion image using inverse NSST. Finally, the shape feature was extracted using automatic threshold algorithm and optimized using morphological operation. Nevertheless, the highest temperature of pig-body was gained in view of segmentation results. Experiments revealed that the presented fusion algorithm was able to realize 2.102-4.066% higher average accuracy rate than the traditional algorithms and also enhanced efficiency.

Multimodal System by Data Fusion and Synergetic Neural Network

  • Son, Byung-Jun;Lee, Yill-Byung
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제5권2호
    • /
    • pp.157-163
    • /
    • 2005
  • In this paper, we present the multimodal system based on the fusion of two user-friendly biometric modalities: Iris and Face. In order to reach robust identification and verification we are going to combine two different biometric features. we specifically apply 2-D discrete wavelet transform to extract the feature sets of low dimensionality from iris and face. And then to obtain Reduced Joint Feature Vector(RJFV) from these feature sets, Direct Linear Discriminant Analysis (DLDA) is used in our multimodal system. In addition, the Synergetic Neural Network(SNN) is used to obtain matching score of the preprocessed data. This system can operate in two modes: to identify a particular person or to verify a person's claimed identity. Our results for both cases show that the proposed method leads to a reliable person authentication system.

멀티모달 다중 카메라의 영상 보정방법 (A Calibration Method for Multimodal dual Camera Environment)

  • 임수창;김도연
    • 한국정보통신학회논문지
    • /
    • 제19권9호
    • /
    • pp.2138-2144
    • /
    • 2015
  • 멀티모달 다중 카메라 시스템은 동일 기종이 아닌 적외선 열화상 카메라와 광학 카메라를 이용하여 구성한 스테레오 형태의 시스템이다. 본 논문에서는 열화상 카메라와 광학카메라에서 동시에 인식이 가능한 전용 타겟을 제작하여 스테레오 보정을 진행하였다. 일반적인 스테레오 교정에서는 두 카메라 사이의 내부 파라미터와 외부 파라미터를 이용하여 교정을 진행 하지만, 본 연구에서는 각각의 영상에서 코너점을 검출하고, 검출된 코너점의 좌표를 이용하여 두 영상 사이의 픽셀 오차율, 영상의 회전정도 및 영상의 크기 차이를 구한다. 이를 이용하여 기하학적 변환중 하나인 어파인 변환을 이용하여 보정을 진행 하였으며, 최종적으로 보정된 영상에 매핑되는 영역을 재구성하여 최종 결과 영상을 구했다.

다중 생체인식 기반의 모바일 인증 시스템 성능 개선 (Enhancement of Mobile Authentication System Performance based on Multimodal Biometrics)

  • 정강훈;김상훈;문현준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 춘계학술발표대회
    • /
    • pp.342-345
    • /
    • 2013
  • 본 논문은 모바일 환경에서의 다중생체인식을 통한 개인인증 시스템을 제안한다. 다중생체인식을 위하여 얼굴인식과 화자인식을 선택하였으며, 시스템의 인식 시나리오는 다음을 따른다. 얼굴인식을 위하여 Modified census transform (MCT) 기반의 얼굴검출과 k-means 클러스터 분석 (cluster analysis) 알고리즘 기반의 눈 검출을 통해 얼굴영역 전처리를 수행하고, principal component analysis (PCA) 기반의 얼굴인증 시스템을 구현한다. 화자인식을 위하여 음성의 끝점 추출과 Mel frequency cepstral coefficient(MFCC) 특징을 추출하고, dynamic time warping (DTW) 기반의 화자 인증 시스템을 구현한다. 그리고 각각의 생체인식을 본 논문에서 제안된 방법을 기반으로 융합하여 인식률을 향상시킨다.

탑-뷰 변환과 빔-레이 모델을 이용한 영상기반 보행 안내 시스템 (Vision-based Walking Guidance System Using Top-view Transform and Beam-ray Model)

  • 림청;한영준;한헌수
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권12호
    • /
    • pp.93-102
    • /
    • 2011
  • 본 논문은 야외 환경에서 하나의 카메라를 이용한 시각 장애인을 위한 보행 안내 시스템을 제안한다. 기존의 스테레오 비전을 이용한 보행 지원 시스템과는 다르게 제안된 시스템은 사용자의 허리에 고정된 하나의 카메라를 이용하여 꼭 필요한 정보만을 얻는 것을 목표로 하는 시스템이다. 제안하는 시스템은 먼저 탑-뷰 영상을 생성하고, 생성된 탑-뷰 영상 내 지역적인 코너 극점을 검출한다. 검출된 극점에서 방사형의 히스토그램을 분석하여 장애물을 검출한다. 그리고 사용자 움직임은 사용자에 가까운 지역 안에서 옵티컬 플로우를 사용하여 추정한다. 이렇게 영상으로부터 추출된 정보들을 기반으로 음성 메시지 생성 모듈은 보행 지시 정보를 합성된 음성을 통해 시각 장애인에게 전달한다. 다양한실험 영상들을 사용하여 제안한 보행 안내 시스템이 일반 인도에서 유용한 안내 지시를 제공하는 것이 가능함을 보인다.

Environmental IoT-Enabled Multimodal Mashup Service for Smart Forest Fires Monitoring

  • Elmisery, Ahmed M.;Sertovic, Mirela
    • Journal of Multimedia Information System
    • /
    • 제4권4호
    • /
    • pp.163-170
    • /
    • 2017
  • Internet of things (IoT) is a new paradigm for collecting, processing and analyzing various contents in order to detect anomalies and to monitor particular patterns in a specific environment. The collected data can be used to discover new patterns and to offer new insights. IoT-enabled data mashup is a new technology to combine various types of information from multiple sources into a single web service. Mashup services create a new horizon for different applications. Environmental monitoring is a serious tool for the state and private organizations, which are located in regions with environmental hazards and seek to gain insights to detect hazards and locate them clearly. These organizations may utilize IoT - enabled data mashup service to merge different types of datasets from different IoT sensor networks in order to leverage their data analytics performance and the accuracy of the predictions. This paper presents an IoT - enabled data mashup service, where the multimedia data is collected from the various IoT platforms, then fed into an environmental cognition service which executes different image processing techniques such as noise removal, segmentation, and feature extraction, in order to detect interesting patterns in hazardous areas. The noise present in the captured images is eliminated with the help of a noise removal and background subtraction processes. Markov based approach was utilized to segment the possible regions of interest. The viable features within each region were extracted using a multiresolution wavelet transform, then fed into a discriminative classifier to extract various patterns. Experimental results have shown an accurate detection performance and adequate processing time for the proposed approach. We also provide a data mashup scenario for an IoT-enabled environmental hazard detection service and experimentation results.

딥러닝 기반 비디오 캡셔닝의 연구동향 분석 (Analysis of Research Trends in Deep Learning-Based Video Captioning)

  • 려치;이은주;김영수
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제13권1호
    • /
    • pp.35-49
    • /
    • 2024
  • 컴퓨터 비전과 자연어 처리의 융합의 중요한 결과로서 비디오 캡셔닝은 인공지능 분야의 핵심 연구 방향이다. 이 기술은 비디오 콘텐츠의 자동이해와 언어 표현을 가능하게 함으로써, 컴퓨터가 비디오의 시각적 정보를 텍스트 형태로 변환한다. 본 논문에서는 딥러닝 기반 비디오 캡셔닝의 연구 동향을 초기 분석하여 CNN-RNN 기반 모델, RNN-RNN 기반 모델, Multimodal 기반 모델, 그리고 Transformer 기반 모델이라는 네 가지 주요 범주로 나누어 각각의 비디오 캡셔닝 모델의 개념과 특징 그리고 장단점을 논하였다. 그리고 이 논문은 비디오 캡셔닝 분야에서 일반적으로 자주 사용되는 데이터 집합과 성능 평가방안을 나열하였다. 데이터 세트는 다양한 도메인과 시나리오를 포괄하여 비디오 캡션 모델의 훈련 및 검증을 위한 광범위한 리소스를 제공한다. 모델 성능 평가방안에서는 주요한 평가 지표를 언급하며, 모델의 성능을 다양한 각도에서 평가할 수 있도록 연구자들에게 실질적인 참조를 제공한다. 마지막으로 비디오 캡셔닝에 대한 향후 연구과제로서 실제 응용 프로그램에서의 복잡성을 증가시키는 시간 일관성 유지 및 동적 장면의 정확한 서술과 같이 지속해서 개선해야 할 주요 도전과제와 시간 관계 모델링 및 다중 모달 데이터 통합과 같이 새롭게 연구되어야 하는 과제를 제시하였다.

웨이블렛을 이용한 생체정보의 강인한 워터마킹 알고리즘 (A Robust Watermarking Algorithm using Wavelet for Biometric Information)

  • 이욱재;이대종;문기영;전명근
    • 한국지능시스템학회논문지
    • /
    • 제17권5호
    • /
    • pp.632-639
    • /
    • 2007
  • 본 논문에서는 얼굴, 지문 등의 생체특징을 안전하게 은닉하고 효과적으로 은닉정보를 추출할 수 있는 웨이블렛 기반 워터마킹 기법을 제안한다. 제안된 방법은 웨이블렛을 이용하여 워터마크 삽입위치를 결정하고 배경영상의 특성을 고려한 적응적 가중치설정방법에 의해 워터마크를 효과적으로 은닉하였다. 은닉된 워터마크 데이터는 워터마크가 삽입된 영상에 웨이블렛 역변환을 적용하여 효과적으로 생체특징을 추출한다. 제안된 방법의 타당성을 검증하기 위하여 워터마크 데이터인 생체특징의 은닉 전과 후의 특성분석과 워터마크 알고리즘이 생체 인식시스템에 미치는 영향을 평가하였다. 워터마킹 알고리즘을 적용하여 얼굴과 지문으로 구성된 다중생체 인식실험을 한 결과 인식률이 98.67%로 나타났다. 이로부터 제안된 방법은 효과적으로 생체정보를 은닉하고 생체인식률의 저하 없이 효과적으로 생체정보를 보호할 수 있음을 확인 할 수 있었다.

임상표적체적 결정을 위한 기능 영상 기반 생물학적 인자 맵핑 소프트웨어 개발 (Development of the Multi-Parametric Mapping Software Based on Functional Maps to Determine the Clinical Target Volumes)

  • 박지연;정원균;이정우;이경남;안국진;홍세미;주라형;최보영;서태석
    • 한국의학물리학회지:의학물리
    • /
    • 제21권2호
    • /
    • pp.153-164
    • /
    • 2010
  • 혈관분포도(vascularity) 및 세포조밀도(cellularity)와 같은 종양의 생물학적 특성을 고려한 임상표적체적을 결정하기 위하여, 국부혈류용적영상(regional cerebral blood volume map, rCBV map)과 겉보기확산계수영상(apparent diffusion coefficient map, ADC map)의 종양 체적을 해부학적 영상 위에 맵핑 할 수 있는 소프트웨어를 개발하였다. 개발한 프로그램은 해부학적 영상 및 기능 영상 간 mutual information, affine transform, non-rigid registration을 이용한 영상 정합 기능을 제공한다. 영상 정합 후 기준 영상과 정합된 영상에서 획득한 각 segmented bone의 겹치는 체적 비율 및 contour 간 평균 거리를 이용하여 정합도 평가도 가능하다. 잔여 종양이 있는 악성신경아교종 환자의 영상을 이용하여 소프트웨어의 기능을 평가하였을 때, bone segmentation과 contour 간 평균 거리 차이를 이용한 정합도는 각각 약 74%와 2.3 mm였으며, 수동정합을 이용하여 2~5% 정도의 정합도를 향상 시킬 수 있었다. 종양의 생물학적 특성을 치료 계획에 반영할 수 있도록, color map을 이용하여 rCBV map을 분석하였으며, ADC map에서 설정한 관심 영역의 평균 확산 계수와 표준 편차 등을 계산하여 종양의 예후 인자 및 악성도를 평가하였다. 두 기능 영상이 공통적으로 나타내는 종양 체적에서 얻은 생물학적 인자를 평면 위에 맵핑하여 종양의 특성을 쉽게 파악할 수 있는 multi-functional parametric map을 구성하였다. 또한 각기능 인자에 대응되는 악성 종양의 임계값을 적용하여 주변 종양 세포에 비하여 혈관 분포도는 높으면서 확산 계수는 낮아 악성 종양 세포일 확률이 높은 영역을 구분할 수 있었다. 각 기능 영상 위에서 설정한 생물학적 종양 체적 및 악성도가 높은 국소 체적은 해부학적 영상 위에 표시하여 dicom 파일로 출력할 수 있었다. 개발한 소프트웨어는 기능적 다중영상을 이용하여 생물학적 종양 체적을 해부학적 영상 위에 맵핑하는데 적용할 수 있으며, 해부학적 영상에서 파악하기 어려운 종양의 특성 변화들을 치료 계획에 활용할 수 있다. 나아가 개발한 소프트웨어를 이용하여, 한 종류의 영상을 참고하여 종양 체적을 결정했을 때 발생할 수 있는 오류를 줄이고, 치료 전이나 치료 과정에서 나타나는 종양의 조직학적, 생리학적 특성을 치료 계획에 접목하는데 활용할 수 있다.