• 제목/요약/키워드: Object Recognition Region

검색결과 136건 처리시간 0.024초

Gait Recognition Algorithm Based on Feature Fusion of GEI Dynamic Region and Gabor Wavelets

  • Huang, Jun;Wang, Xiuhui;Wang, Jun
    • Journal of Information Processing Systems
    • /
    • 제14권4호
    • /
    • pp.892-903
    • /
    • 2018
  • The paper proposes a novel gait recognition algorithm based on feature fusion of gait energy image (GEI) dynamic region and Gabor, which consists of four steps. First, the gait contour images are extracted through the object detection, binarization and morphological process. Secondly, features of GEI at different angles and Gabor features with multiple orientations are extracted from the dynamic part of GEI, respectively. Then averaging method is adopted to fuse features of GEI dynamic region with features of Gabor wavelets on feature layer and the feature space dimension is reduced by an improved Kernel Principal Component Analysis (KPCA). Finally, the vectors of feature fusion are input into the support vector machine (SVM) based on multi classification to realize the classification and recognition of gait. The primary contributions of the paper are: a novel gait recognition algorithm based on based on feature fusion of GEI and Gabor is proposed; an improved KPCA method is used to reduce the feature matrix dimension; a SVM is employed to identify the gait sequences. The experimental results suggest that the proposed algorithm yields over 90% of correct classification rate, which testify that the method can identify better different human gait and get better recognized effect than other existing algorithms.

입 모양 인식 시스템 전처리를 위한 관심 영역 추출과 이중 선형 보간법 적용 (Region of Interest Extraction and Bilinear Interpolation Application for Preprocessing of Lipreading Systems)

  • 한재혁;김용기;김미혜
    • 정보처리학회 논문지
    • /
    • 제13권4호
    • /
    • pp.189-198
    • /
    • 2024
  • 입 모양 인식은 음성 인식의 중요 부분 중 하나로 음성 인식을 위한 입 모양 인식 시스템에서 입 모양 인식 성능을 개선하기 위한 여러 연구가 진행됐다. 최근의 연구에서는 인식 성능을 개선하기 위해 입 모양 인식 시스템의 모델 구조를 수정하는 방법이 사용됐다. 본 연구에서는 모델 구조를 수정하는 것으로 인식 성능을 개선하는 기존의 연구와 달리 모델 구조의 변화 없이 인식 성능을 개선하는 것을 목표로 한다. 모델 구조의 수정 없이 인식 성능을 개선하기 위해, 사람이 하는 입 모양 인식에서 사용되는 단서를 참고해 입 모양 인식 시스템의 기존 관심 영역인 입술 영역과 함께 턱, 뺨과 같은 다른 영역을 관심 영역으로 설정하고 각 관심 영역의 인식률을 비교해 가장 높은 성능의 관심 영역을 제안한다. 또한, 관심 영역 크기를 정규화하는 과정에서 보간법의 차이로 인해 발생하는 정규화 결과의 차이가 인식 성능에 영향을 준다고 가정하고 최근접 이웃 보간법, 이중 선형 보간법, 이중 삼차 보간법을 사용해 동일한 관심 영역을 보간하고 각 보간법에 따른 입 모양 인식률을 비교해 가장 높은 성능의 보간법을 제안한다. 각 관심 영역은 객체 탐지 인공신경망을 학습시켜 검출하고, 각 관심 영역을 정규화하고 특징을 추출하고 결합한 뒤, 결합된 특징들을 차원 축소한 결과를 저차원 공간으로 매핑하는 것으로 동적 정합 템플릿을 생성했다. 생성된 동적 정합 템플릿들과 저차원 공간으로 매핑된 데이터의 거리를 비교하는 것으로 인식률을 평가했다. 실험 결과 관심 영역의 비교에서는 입술 영역만을 포함하는 관심 영역의 결과가 이전 연구의 93.92%의 평균 인식률보다 3.44% 높은 97.36%의 평균 인식률을 보였으며, 보간법의 비교에서는 이중 선형 보간법이 97.36%로 최근접 이웃 보간법에 비해 14.65%, 이중 삼차 보간법에 비해 5.55% 높은 성능을 나타내었다. 본 연구에 사용된 코드는 https://github.com/haraisi2/Lipreading-Systems에서 확인할 수 있다.

CNN 기반 한국 번호판 인식 (Korean License Plate Recognition Using CNN)

  • ;연승호;김재민
    • 전기전자학회논문지
    • /
    • 제23권4호
    • /
    • pp.1337-1342
    • /
    • 2019
  • 자동 한국 번호판 인식 (AKLPR)은 많은 분야에서 사용된다. 이러한 응용 분야에서 ALPR은 높은 인식률과 빠른 처리 속도가 중요하다. 최근 딥러닝의 발전으로 객체 감지 및 인식의 정확도와 속도가 향상 되고 있으며, 그 결과 딥러닝이 ALPR에 적용되고 있다. 특히 합성곱신경망(Convolutional Neural Network) 기반 객체 검출기가 ALPR에 적용되었다. 이러한 ALPR은 LP 영역을 검출하는 단계와 LP 영역의 문자를 검출 및 인식하는 단계로 구분되며, 각 단계는 별도의 CNN으로 구현된다. 본 논문에서는 단일 단계 CNN으로 ALPR을 구현하는 아키텍처를 제안한다. 제안하는 방법은 높은 인식률을 유지하면서 빠른 속도로 번호판 문자를 인식한다.

거리 영상에서 인식 특정을 이용한 경계선 검출 기법 (A method of extracting edge line from range image using recognition features)

  • 이강호
    • 한국컴퓨터정보학회논문지
    • /
    • 제6권2호
    • /
    • pp.14-19
    • /
    • 2001
  • 본 논문은 2차 다항식을 이용하여 3차원 물체의 표면 특징을 추출하고 표현하는 방법을 제안한다. 우리는 수정된 스캔 라인 기법을 이용하여 에지 맵을 얻는다. 에지 맵으로부터 3차원 물체의 각 면들을 분리하기 위해 레이블링 연산을 하고 각 면에서 중심점과 모서리 점들을 추출한다. 그 다음에, 평면 방정식으로부터 각 면이 평면인지 곡면인지를 판단하고, 3차원 물체를 표현하기 위해 각 면의 평면 또는 곡면의 계수 및 특징들을 추출한다. 그리고 합성영상과 실측영상을 통해서 제안된 기법의 성능을 알아보았다.

자율주행 로봇을 위한 다중 특징을 이용하여 외부환경에서 물체 분석 (Object Analysis on Outdoor Environment Using Multiple Features for Autonomous Navigation Robot)

  • 김대년;조강현
    • 한국멀티미디어학회논문지
    • /
    • 제13권5호
    • /
    • pp.651-662
    • /
    • 2010
  • 본 연구는 외부환경에서 자율주행 로봇을 위해 중요한 물체를 찾기 위한 방법을 설명한다. 외부환경의 물체를 찾기 위해서 먼저 로봇은 외부환경에서 주행할 때 획득한 영상으로부터 물체를 검출하고 분할한다. 로봇은 물체의 후보를 자연물의 하늘과 나무로, 인공물의 빌딩으로 나눈다. 후보 물체를 분할하기 위해서 다중 특징을 이용한다. 다중 특징은 색상, 선분, 상황정보, 동시발생 행렬, 소실점 및 주요한 요소성분을 이용한다. 후보 특징은 물체의 특성에 맞게 혼합하여 물체를 분할한다. 이런 다중 특징은 물체에 대한 공간정보, 인간의 선험적인 지식을 이용한 물체의 기하학 정보, 공간적인 주파수 등으로 다양한 특징 추출 방법을 이용하여 물체의 영역분할의 결과를 얻는다. 물체의 분석은 분할된 영역을 이용하여 벽 영역, 창문, 정문과 같은 빌딩면의 기하학적인 속성을 찾는다. 빌딩은 소실점의 수직선분과 수평선분을 교차함으로써 그물을 얻는다. 빌딩의 벽 영역은 유사한 색상을 가지는 이웃해 있는 평행사변형의 그물을 합병해서 검출한다. 창문은 층의 수와 동일한 층에 있는 방의 수를 추정하여 빌딩의 높이와 크기를 추정한다. 실험에서 다중 특징을 이용하여 물체의 영역을 분할하고 빌딩의 기하학적인 속성을 이용하여 물체를 분석한다.

2D Human Pose Estimation based on Object Detection using RGB-D information

  • Park, Seohee;Ji, Myunggeun;Chun, Junchul
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권2호
    • /
    • pp.800-816
    • /
    • 2018
  • In recent years, video surveillance research has been able to recognize various behaviors of pedestrians and analyze the overall situation of objects by combining image analysis technology and deep learning method. Human Activity Recognition (HAR), which is important issue in video surveillance research, is a field to detect abnormal behavior of pedestrians in CCTV environment. In order to recognize human behavior, it is necessary to detect the human in the image and to estimate the pose from the detected human. In this paper, we propose a novel approach for 2D Human Pose Estimation based on object detection using RGB-D information. By adding depth information to the RGB information that has some limitation in detecting object due to lack of topological information, we can improve the detecting accuracy. Subsequently, the rescaled region of the detected object is applied to ConVol.utional Pose Machines (CPM) which is a sequential prediction structure based on ConVol.utional Neural Network. We utilize CPM to generate belief maps to predict the positions of keypoint representing human body parts and to estimate human pose by detecting 14 key body points. From the experimental results, we can prove that the proposed method detects target objects robustly in occlusion. It is also possible to perform 2D human pose estimation by providing an accurately detected region as an input of the CPM. As for the future work, we will estimate the 3D human pose by mapping the 2D coordinate information on the body part onto the 3D space. Consequently, we can provide useful human behavior information in the research of HAR.

GrabCut을 이용한 IR 영상 분할 (IR Image Segmentation using GrabCut)

  • 이희열;이은영;구은혜;최일;최병재;류강수;박길흠
    • 한국지능시스템학회논문지
    • /
    • 제21권2호
    • /
    • pp.260-267
    • /
    • 2011
  • 본 논문은 GrabCut 알고리듬을 기반으로 적외선(infrared; IR) 영상에서 물체를 배경으로부터 분할하는 방법을 제안한다. GrabCut 알고리듬은 관심 있는 물체를 둘러싸는 윈도우가 필요하며, 이는 사용자가 설정한다. 그렇지만 이 알고리듬을 영상 시이퀀스에서 물체인식에 적용하려면 윈도우의 로케이션이 자동으로 결정되어야만 한다. 이를 위해서 본 논문에서는 Otsu 알고리듬으로 한 영상에서 관심은 있으나 알져지지 않는 물체를 적당히 분할하고 블랍 해석을 통해 윈도우를 자동으로 로케이션한다. 그랩 컷 일고리듬은 관심있는 물체와 배경의 확률분포를 추정해야한다. 이 경우에 관심 있는 물체의 확률분포는 자동으로 로케이션된 윈도우 내부의 화소들로부터 추정하고, 배경의 확률 분포는 물체의 윈도우를 둘러싸고 면적은 동일한 영역으로부터 추정한다. 다양한 IR 영상에 대한 분할 실험을 통해 제안한 분할 방법이 IR 영상의 분할에 적합함을 보이고, 기존의 IR 영상 분할 방법과의 비교 및 분석을 통해 제안 알고리듬이 우수한 분할 성능을 보임을 증명한다.

서비스 로봇을 위한 지시 물체 분할 방법 (Segmentation of Pointed Objects for Service Robots)

  • 김형오;김수환;김동환;박성기
    • 로봇학회논문지
    • /
    • 제4권2호
    • /
    • pp.139-146
    • /
    • 2009
  • This paper describes how a person extracts a unknown object with pointing gesture while interacting with a robot. Using a stereo vision sensor, our proposed method consists of two stages: the detection of the operators' face, the estimation of the pointing direction, and the extraction of the pointed object. The operator's face is recognized by using the Haar-like features. And then we estimate the 3D pointing direction from the shoulder-to-hand line. Finally, we segment an unknown object from 3D point clouds in estimated region of interest. On the basis of this proposed method, we implemented an object registration system with our mobile robot and obtained reliable experimental results.

  • PDF

유전자 알고리즘과 퍼지규칙을 기반으로한 지능형 자동감시 시스템의 개발 (A Fuzzy Logic System for Detection and Recognition of Human in the Automatic Surveillance System)

  • 장석윤;박민식;이영주;박민용
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(3)
    • /
    • pp.237-240
    • /
    • 2001
  • An image processing and decision making method for the Automatic Surveillance System is proposed. The aim of our Automatic Surveillance System is to detect a moving object and make a decision on whether it is human or not. Various object features such as the ratio of the width and the length of the moving object, the distance dispersion between the principal axis and the object contour, the eigenvectors, the symmetric axes, and the areas if the segmented region are used in this paper. These features are not the unique and decisive characteristics for representing human Also, due to the outdoor image property, the object feature information is unavoidably vague and inaccurate. In order to make an efficient decision from the information, we use a fuzzy rules base system ai an approximate reasoning method. The fuzzy rules, combining various object features, are able to describe the conditions for making an intelligent decision. The fuzzy rule base system is initially constructed by heuristic approach and then, trained and tasted with input/output data Experimental result are shown, demonstrating the validity of our system.

  • PDF

증강현실을 위한 히스토그램 기반의 손 인식 시스템 (Histogram Based Hand Recognition System for Augmented Reality)

  • 고민수;유지상
    • 한국정보통신학회논문지
    • /
    • 제15권7호
    • /
    • pp.1564-1572
    • /
    • 2011
  • 본 논문에서는 증강현실을 위한 히스토그램 기반의 손 인식 기법을 제안한다. 손동작 인식은 사용자와 컴퓨터 사이의 친숙한 상호작용을 가능하게 한다. 하지만, 비젼 기반의 손동작 인식은 복잡한 손의 형태로 인한 관찰 방향 변화에 따른 입력 영상의 다양함으로 인식에 어려움이 따른다. 따라서 본 논문에서는 손의 형태적인 특징을 이용한 새로운 모델을 제안한다. 제안하는 기법에서 손 인식은 카메라로부터 획득한 영상에서 손 영역을 분리하는 부분과 인식하는 부분으로 구성된다. 카메라로부터 획득한 영상에서 배정을 제거하고 피부색 정보를 이용하여 손 영역을 분리한다. 다음으로 히스토그램을 이용하여 손의 특징점을 구하여 손의 형태를 계산한다. 마지막으로 판별된 손인식 정보를 이용하여 3차원 객체를 제어하는 증강현실 시스템을 구현하였다. 실험을 통해 제안한 기법의 구현 속도가 빠르고 인식률도 91.7%로 비교적 높음을 확인하였다.