• 제목/요약/키워드: image analysis algorithm

검색결과 1,489건 처리시간 0.028초

SMART CARD 기반 생체인식 사용자 인증시스템의 구현 (Implementation for the Biometric User Identification System Based on Smart Card)

  • 주동현;고기영;김두영
    • 융합신호처리학회논문지
    • /
    • 제5권1호
    • /
    • pp.25-31
    • /
    • 2004
  • 본 논문은 Smart Card의 일종인 비 접촉 IC 카드의 내부 데이터를 사용하여, 생체인식 요소인 홍채폐턴을 이용한 사용자 인증 시스템의 인증률 향상을 도모한 연구이다. 먼저, CCD 카메라로 입력 받은 안구영상에서 홍채영역을 추출하고, GHA(Generalized Hebbian Algorithm)웨이트를 이용하여 PCA(Principal Component Analysis) Coefficient를 Smart Card 내부에 저장한다. 사용자 인증시에는 실시간으로 입력되는 사용자의 생체 인식 정보와 카드 내부의 사용자 생체 인식 정보를 비교하여, 동일한 경우에 그 인식 정보를 SVM(Support Vector Machine)을 사용하여 분류하였다. 본 논문에서는 실시간 테스트 실험 결과 이전에 개발된 시스템보다 사용자의 인증률이 우수해 짐을 보였다.

  • PDF

지능형 졸음 운전 경고 시스템 (Intelligent Drowsiness Drive Warning System)

  • 주영훈;김진규;나인호
    • 한국지능시스템학회논문지
    • /
    • 제18권2호
    • /
    • pp.223-229
    • /
    • 2008
  • 본 논문에서는 비젼을 이용한 영상처리 기술을 기반으로 운전자의 피로도를 측정하여 졸음운전을 판단하는 실시간 비젼시스템을 제안한다. 제안된 시스템은 얼굴 영상 분석과 퍼지 이론을 이용하여 운전자의 졸음 또는 부주의함을 경고함으로서 교통사고를 미연에 방지하는 시스템이다. 본 논문에서는 실시간 얼굴 탐색 알고리즘 개발을 위해 퍼지 색상 필터와 가상 얼굴 모형을 이용하여 얼굴 위치 및 눈 영역을 보다 빠르게 검출하고, 눈 깜박임의 빈도수(eye blinking frequency)와 눈의 닫힘 지속 기간(eye closure duration)을 측정하는 방법은 제안한다. 그 다음, 측정된 데이터를 기반으로 퍼지논리를 사용하여 운전자의 피로도를 결정하고 졸음운전 여부를 판단하는 방법을 제안한다. 마지막으로 제안된 방법은 여러 실험을 통해 그 우수성과 응용 가능성을 증명한다.

터널 내 정차 및 역주행 차량 인식을 위한 전조등과 후미등 검출 알고리즘 (Head/Rear Lamp Detection for Stop and Wrong Way Vehicle in the Tunnel)

  • 김규영;도진규;박장식;김현태;유윤식
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.601-602
    • /
    • 2011
  • 본 논문에서는 터널 내 유고 상황에서 심각한 사고의 원인이 되는 정지 차량, 역주행 차량 인식을 위한 전조등, 후미등 검출 알고리즘을 제안한다. 제안 알고리즘은 차량등 컬러 정보의 실험적 분석을 통하여 효과적으로 정차 및 역주행 차량을 검출하도록 하였다. 모의 실험 결과는 HD (High Definition) 터널 비디오 영상에 대하여 정지 차량 검출율이 95% 이상이고 역주행 차량 검출율이 96% 이상임을 보여준다.

  • PDF

키넥트 센서를 이용한 실용적인 3차원 안면 진단기 연구 (Study on the Practical 3D Facial Diagnosis using Kinect Sensors)

  • 장준수;도준형;김장웅;남지호
    • 동의생리병리학회지
    • /
    • 제29권3호
    • /
    • pp.218-222
    • /
    • 2015
  • Facial diagnosis based on quantitative facial features has been studied in many Korean medicine fields, especially in Sasang constitutional medicine. By the rapid growing of 3D measuring technology, generic and cheap 3D sensors, such as Microsoft Kinect, is popular in many research fields. In this study, the possibility of using Kinect in facial diagnosis is examined. We introduce the development of facial feature extraction system and verify its accuracy and repeatability of measurement. Furthermore, we compare Sasang constitution diagnosis results between DSLR-based system and the developed Kinect-based system. A Sasang constitution diagnosis algorithm applied in the experiment was previously developed by a huge database containing 2D facial images acquired by DSLR cameras. Interrater reliability analysis result shows almost perfect agreement (Kappa = 0.818) between the two systems. This means that Kinect can be utilized to the diagnosis algorithm, even though it was originally derived from 2D facial image data. We conclude that Kinect can be successfully applicable to practical facial diagnosis.

Recovery of 3-D Motion from Time-Varying Image Flows

  • Wohn, Kwang-Yun;Jung, Soon-Ki
    • Journal of Electrical Engineering and information Science
    • /
    • 제1권2호
    • /
    • pp.77-86
    • /
    • 1996
  • In this paper we deal with the problem of recovering 3-D motion and structure from a time-varying 2-D velocity vector field. A great deal has been done on this topic, most of which has concentrated on finding necessary and sufficient conditions for there to be a unique 3-D solution corresponding to a given 2-D motion. While previous work provides useful theoretical insight, in most situations the known algorithms have turned out to be too sensitive to be of much practical use. It appears that any robust algorithm must improve the 3-D solutions over time. As a step toward such algorithm, we present a method for recovering 3-D motion and structure from a given time-varying 2-D velocity vector field. The surface of the object in the scene is assumed to be locally planar. It is also assumed that 3-D velocity vectors are piecewise constant over three consecutive frames (or two snapshots of flow field). Our formulation relates 3-D motion and object geometry with the optical flow vector as well as its spatial and temporal derivatives. The linearization parameters, or equivalently, the first-order flow approximation (in space and time) is sufficient to recover rigid body motion and local surface structure from the local instantaneous flow field. We also demonstrate, through a sensitivity analysis carried out for synthetic and natural motions in space, that 3-D motion can be recovered reliably.

  • PDF

Aircraft Motion Identification Using Sub-Aperture SAR Image Analysis and Deep Learning

  • Doyoung Lee;Duk-jin Kim;Hwisong Kim;Juyoung Song;Junwoo Kim
    • 대한원격탐사학회지
    • /
    • 제40권2호
    • /
    • pp.167-177
    • /
    • 2024
  • With advancements in satellite technology, interest in target detection and identification is increasing quantitatively and qualitatively. Synthetic Aperture Radar(SAR) images, which can be acquired regardless of weather conditions, have been applied to various areas combined with machine learning based detection algorithms. However, conventional studies primarily focused on the detection of stationary targets. In this study, we proposed a method to identify moving targets using an algorithm that integrates sub-aperture SAR images and cosine similarity calculations. Utilizing a transformer-based deep learning target detection model, we extracted the bounding box of each target, designated the area as a region of interest (ROI), estimated the similarity between sub-aperture SAR images, and determined movement based on a predefined similarity threshold. Through the proposed algorithm, the quantitative evaluation of target identification capability enhanced its accuracy compared to when training with the targets with two different classes. It signified the effectiveness of our approach in maintaining accuracy while reliably discerning whether a target is in motion.

폐쇄회로 카메라에서 운동에너지를 이용한 모션인식과 의상색상 및 얼굴인식을 통한 특정인 추적 알고리즘 (A Tracking Algorithm to Certain People Using Recognition of Face and Cloth Color and Motion Analysis with Moving Energy in CCTV)

  • 이인정
    • 정보처리학회논문지B
    • /
    • 제15B권3호
    • /
    • pp.197-204
    • /
    • 2008
  • 특정인을 추적하는 기술은 인간처럼 행동하는 로봇기술에서 가장 많이 등장하는 기술이다. 이 기술은 세 가지 영역에서 접근하고 있는데 첫 째가 특정인의 의상 색상이고 두 번째가 특정인의 얼굴과 그 표정이며 세 번째가 특정인의 제스처나 머리의 움직임이다. 그러나 로봇은 센서를 통해 색상이나 제스처를 감지할 수 있기 때문에 폐쇄회로 카메라를 통해 획득한 영상만으로 특정인을 추적하는 것과는 다르다. 폐쇄회로 카메라에서 가장 큰 문제점은 시스템 속도인데 입력된 영상에서 다시 계산에 의해 특정인을 추적하기위해서는 계산수를 줄여야한다. 시스템 속도를 높이기 위해 색상 추적은 통계치를 사용하는 것이 좋고 얼굴인식은 고유 얼굴을 사용하는 것이 바람직하다. 색상과 얼굴인식만으로는 추적에 어려움이 있기 때문에 모션 분석이 필요하다. 기존의 모션 분석이 주어진 영상의 전체 영역에서 형상을 바탕으로 이루어지기 때문에 속도가 느리고 인식률도 떨어진다. 본 논문에서는 얼굴 인식 시 찾아진 얼굴영역에 대한 모션분석을 계산속도가 빠른 운동에너지를 써서 인식률과 인식 속도를 높였다. 본 논문이 제안한 알고리즘과 Girondel, V. 등이 제시한 방법을 같은 동영상에서 실험한 결과 동일한 인식률을 얻었으며 인식속도는 제안한 알고리즘이 더 빨랐으며 LDA를 사용할 경우 속도는 비슷하나 인식률은 더 나은 결과를 얻었으며 특정인을 찾는 것은 제안한 알고리즘이 더 효과적이었다.

화재검출을 위한 컬러모델의 화염색상 분석 (The Flame Color Analysis of Color Models for Fire Detection)

  • 이현술;김원호
    • 한국위성정보통신학회논문지
    • /
    • 제8권3호
    • /
    • pp.52-57
    • /
    • 2013
  • 본 논문은 컬러 영상의 색상분석 기반의 화염 검출 알고리즘에 최적인 컬러모델을 도출하여 화재감시 시스템에 적용하기 위한 컬러모델의 화염 색상 비교 분석에 대하여 기술한다. 기존 화재검출 알고리즘에서 많이 사용되는 RGB, YCbCr, CIE Lab, HSV 국제 표준 컬러모델에서 화염과 비화염 영역간의 색상 분리도 특성을 영상의 히스토그램 교차 분석(Histogram Intersection) 기법을 사용하여 정량화하고 분석한다. 4가지 국제 표준 컬러모델에 대한 히스토그램 교차 분석 결과, YCbCr 컬러모델의 평균 히스토그램 교차값이 0.0575로서 화염과 비화염간의 색상 분리도가 가장 우수한 컬러모델임을 확인하였으며, 각 컬러모델을 구성하는 12개 성분들 중에서는 청색차(Cb) 성분, 적색(R) 성분, 적색차(Cr) 성분이 각각 0.0433, 0.0526, 0.0567 로서 화염과 비화염 영역의 색상 분리도 특성이 매우 우수하여, 색상 분석 기반의 화염 검출에 가장 최적이며 실용적인 컬러모델과 성분임을 확인하였다.

근접장 구면파 소스의 다중 반사 효과를 고려한 수중함의 음향표적강도 해석 (Acoustic Target Strength Analysis for Underwater Vehicles Covering Near Field Spherical Wave Source Originated Multiple Bounce Effects)

  • 조병구;홍석윤;권현웅
    • 대한조선학회논문집
    • /
    • 제47권2호
    • /
    • pp.196-209
    • /
    • 2010
  • For the analysis of Acoustic Target Strength(TS) that indicates the scattered acoustic intensity from the underwater vehicles, an analysis program that is applicable to scatterers insonified by spherical wave source in near field is developed. In this program, the Physical Optics(PO) method is embedded as a base component. To increase the accuracy of the program, multiple bounce effects based on Geometrical Optics(GO) method are applied. To implement multiple bounce effects, GO method is used together with PO method. In detail, GO method has a concern in the evaluation of the effective area, and PO method is involved in the calculation of Acoustic Target Strength for the final effective area that is evaluated by GO method. For the embodiment of near field spherical wave source originated multiple bounce effects, image source concept is implemented additively to the existing multiple bounce algorithm which assumes plane wave insonification. Various types of models are tested to evaluate the reliability of the developed program and finally, a submarine is analyzed as an arbitrary scatterer.

Unsupervised Motion Pattern Mining for Crowded Scenes Analysis

  • Wang, Chongjing;Zhao, Xu;Zou, Yi;Liu, Yuncai
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제6권12호
    • /
    • pp.3315-3337
    • /
    • 2012
  • Crowded scenes analysis is a challenging topic in computer vision field. How to detect diverse motion patterns in crowded scenarios from videos is the critical yet hard part of this problem. In this paper, we propose a novel approach to mining motion patterns by utilizing motion information during both long-term period and short interval simultaneously. To capture long-term motions effectively, we introduce Motion History Image (MHI) representation to access to the global perspective about the crowd motion. The combination of MHI and optical flow, which is used to get instant motion information, gives rise to discriminative spatial-temporal motion features. Benefitting from the robustness and efficiency of the novel motion representation, the following motion pattern mining is implemented in a completely unsupervised way. The motion vectors are clustered hierarchically through automatic hierarchical clustering algorithm building on the basis of graphic model. This method overcomes the instability of optical flow in dealing with time continuity in crowded scenes. The results of clustering reveal the situations of motion pattern distribution in current crowded videos. To validate the performance of the proposed approach, we conduct experimental evaluations on some challenging videos including vehicles and pedestrians. The reliable detection results demonstrate the effectiveness of our approach.