• 제목/요약/키워드: Image-Recognition

검색결과 4,158건 처리시간 0.034초

입술 움직임 영상 선호를 이용한 음성 구간 검출 (Speech Activity Detection using Lip Movement Image Signals)

  • 김응규
    • 융합신호처리학회논문지
    • /
    • 제11권4호
    • /
    • pp.289-297
    • /
    • 2010
  • 본 논문에서는 음성인식을 위한 음성구간 검출과정에서 유입될 수 있는 동적인 음향에너지 이외에 화자의 입술움직임 영상신호까지 확인함으로써 외부 음향잡음이 음성인식 대상으로 오인식되는 것을 방지하기 위한 한 가지 방법이 제시된다. 우선, 연속적인 영상이 PC용 영상카메라를 통하여 획득되고 그 입술움직임 여부가 식별된다. 다음으로, 입술움직임 영상신호 데이터는 공유메모리에 저장되어 음성인식 프로세서와 공유한다. 한편, 음성인식의 전처리 단계인 음성구간 검출과정에서 공유메모리에 저장되어진 데이터를 확인함으로써 화자의 발성에 의한 음향에너지인지의 여부가 입증된다. 최종적으로, 음성인식기와 영상처리기를 연동시켜 실험한 결과, 영상카메라에 대면해서 발성하면 음성인식 결과의 출력에 이르기까지 연동처리가 정상적으로 진행됨을 확인하였고, 영상카메라에 대면치 않고 발성하면 연동처리시스템이 그 음성인식 결과를 출력치 못함을 확인하였다. 또한, 오프라인하의 입술움직임 초기 특정값 및 템플릿 초기영상을 온라인하에서 추출된 입술움직임 초기특정값 및 템플릿 영상으로 대체함으로써 입술움직임 영상 추적의 변별력을 향상시켰다. 입술움직임 영상 추적과정을 시각적으로 확인하고 실시간으로 관련된 패러미터를 해석하기 위해 영상처리 테스트베드를 구축하였다, 음성과 영상처리 시스템의 연동결과 다양한 조명환경 하에서도 약 99.3%의 연동율을 나타냈다.

Broken Detection of the Traffic Sign by using the Location Histogram Matching

  • Yang, Liu;Lee, Suk-Hwan;Kwon, Seong-Geun;Moon, Kwang-Seok;Kwon, Ki-Ryong
    • 한국멀티미디어학회논문지
    • /
    • 제15권3호
    • /
    • pp.312-322
    • /
    • 2012
  • The paper presents an approach for recognizing the broken area of the traffic signs. The method is based on the Recognition System for Traffic Signs (RSTS). This paper describes an approach to using the location histogram matching for the broken traffic signs recognition, after the general process of the image detection and image categorization. The recognition proceeds by using the SIFT matching to adjust the acquired image to a standard position, then the histogram bin will be compared preprocessed image with reference image, and finally output the location and percents value of the broken area. And between the processing, some preprocessing like the blurring is added in the paper to improve the performance. And after the reorganization, the program can operate with the GPS for traffic signs maintenance. Experimental results verified that our scheme have a relatively high recognition rate and a good performance in general situation.

홍채 영상 초점 값에 기반한 홍채 영상 복원 연구 (A Study on Iris Image Restoration Based on Focus Value of Iris Image)

  • 강병준;박강령
    • 대한전자공학회논문지SP
    • /
    • 제43권2호
    • /
    • pp.30-39
    • /
    • 2006
  • 홍채 인식은 흥채 근육의 무의 패턴을 이용하여 동일인 여부를 판별하는 연구 분야이다. 이러한 홍채 인식에서 홍채 영상의 품질은 홍채 인식의 성능에 많은 영향을 준다. 이는 흥채 영상이 흐려지면, 홍채 패턴이 변형되어지므로, FRR(False Rejection Error)이 증가되기 때문이다. 홍채 영상을 흐려지게 만드는 주된 요인 가운데 하나가 카메라 렌즈의 초점(focus)이다. 기존의 흥채 인식 카메라는 고정 초점(fixed focusing) 방식과 가변 초점(auto-focusing) 방식이 있다. 고정 초점 방식은 초점 렌즈가 고정되어 있기 때문에 사용자가 직접 자신의 눈을 DOF(Depth of Field) 영역 안에 위치시켜야하고, DOF 영역이 매우 작은 한계가 있다. 가변 초점 방식은 사용자와 카메라 사이의 거리를 측정하여 초점이 잘 맞는 위치로 초점렌즈를 움직여서 선명한 영상을 취득한다. 하지만 부가적인 하드웨어 장비가 필요하기 때문에 카메라의 부피가 늘어나고 비용도 증가되므로 개인 인증을 위해 홍채인식을 하는 핸드폰과 같은 모바일 장비에서 사용되는데 어려움이 따른다. 따라서 본 논문은 이러한 기존의 홍채인식 카메라의 문제점들을 극복하기 위해 부가적인 하드웨어 장비 없이 고정 초점 방식 카메라에서 취득한 홍채 영상을 복원함으로써 소프트웨어적으로 DOF영역을 증가시키는 방법을 제안한다. 기존의 영상 복원 알고리즘은 반복적(iterative) 방법에 의해 최상의 복원 계수(parameter)를 검출하여 영상을 복원하였으나, 본 논문은 초점값을 이용하여 영상의 흐려짐의 정도를 판단하고, 흐려짐의 정도에 따라 미리 정의한 복원 계수를 선택함으로써 빠른 시간 안에 홍채 영상을 복원하는 방법을 제안한다. 실험 결과, Panasonic에서 만든 BM-ET100 카메라의 작동범위(Operation Range)를 48-53cm에서 46-56cm로 증가시킬 수 있었다.

Measurement Technique for Sea Height of Burst Using Image Recognition

  • Park, Ju-Ho;Hong, Sung-Soo;Kang, Kyu-Chang;Joon Lyou
    • Transactions on Control, Automation and Systems Engineering
    • /
    • 제2권1호
    • /
    • pp.76-83
    • /
    • 2000
  • A measurement technique of a sea height of burst is introduced for a proximate test using the image recognition of video cameras. In the burst of fuse on the ocean, the burst center of fuse, the sea surface level and the height of calibration poles are measured by the process of image obtained from cameras. Finally, the height of burst of fuse can be computed by Hough transform algorithm. The error compensation algorithms are proposed to eliminate the errors caused by camera level and environmental parameters. As a result of experiment, it has been proved that the proposed measurement system shows the recognition of the center point of the burst image with ${\pm}$0.5m error.

  • PDF

이미지 인식 기반 향상된 개인정보 식별 및 마스킹 시스템 설계 및 구현 (Design and Implementation of Personal Information Identification and Masking System Based on Image Recognition)

  • 박석천
    • 한국인터넷방송통신학회논문지
    • /
    • 제17권5호
    • /
    • pp.1-8
    • /
    • 2017
  • 최근 클라우드, 모바일 등 ICT 기술의 발전으로 소셜 네트워크를 통한 이미지 활용이 급증하고 있다. 이러한 이미지는 개인정보가 포함되어 있어, 개인정보 유출 사고가 발생될 수 있다. 이에 이미지에서 개인정보를 인식하고 마스킹하는 연구가 진행되고 있다. 그러나 기존 이미지에서 개인정보를 인식 하는 방법인 광학 문자 인식은 이미지의 밝기, 명암, 왜곡에 따라 인식률의 변화가 심하여 한글 인식이 미흡한 문제가 있다. 따라서 본 논문에서는 광학 문자 인식 방법을 기반으로 CNN 알고리즘에 딥러닝을 적용하여 이미지 인식 기반 향상된 개인정보 식별 및 마스킹 시스템을 설계 및 구현하였다. 또한 구현된 제안 시스템을 동일한 이미지를 가지고 광학 문자 인식과 개인정보 인식률을 비교평가를 진행하고, 제안 시스템의 얼굴 인식률을 측정하였다. 테스트 결과 제안 시스템의 개인정보 인식률은 광학 문자인식에 비해 32.7% 향상되었으며 얼굴 인식률은 86.6%로 확인되었다.

Facial Recognition Algorithm Based on Edge Detection and Discrete Wavelet Transform

  • Chang, Min-Hyuk;Oh, Mi-Suk;Lim, Chun-Hwan;Ahmad, Muhammad-Bilal;Park, Jong-An
    • Transactions on Control, Automation and Systems Engineering
    • /
    • 제3권4호
    • /
    • pp.283-288
    • /
    • 2001
  • In this paper, we proposed a method for extracting facial characteristics of human being in an image. Given a pair of gray level sample images taken with and without human being, the face of human being is segmented from the image. Noise in the input images is removed with the help of Gaussian filters. Edge maps are found of the two input images. The binary edge differential image is obtained from the difference of the two input edge maps. A mask for face detection is made from the process of erosion followed by dilation on the resulting binary edge differential image. This mask is used to extract the human being from the two input image sequences. Features of face are extracted from the segmented image. An effective recognition system using the discrete wave let transform (DWT) is used for recognition. For extracting the facial features, such as eyebrows, eyes, nose and mouth, edge detector is applied on the segmented face image. The area of eye and the center of face are found from horizontal and vertical components of the edge map of the segmented image. other facial features are obtained from edge information of the image. The characteristic vectors are extrated from DWT of the segmented face image. These characteristic vectors are normalized between +1 and -1, and are used as input vectors for the neural network. Simulation results show recognition rate of 100% on the learned system, and about 92% on the test images.

  • PDF

4가지 무채색 의복의 형태변화에 따른 시각적 이미지 (The Visual Image of Clothing Shape)

  • 박종희;최재란;류숙희
    • 한국의류학회지
    • /
    • 제24권8호
    • /
    • pp.1177-1186
    • /
    • 2000
  • The Study was consist of clothing shape(H-line, A-line, V-line, X-line, O-line) and color(Blace, Grey1, Grey2, White). The main purpose of this study is to analyze image differences due to shape variation, image differences due to observers characteristic differences. The main findings can be summarized as follow. First, image differences due to shape variation are statistically significant ar five factors - the maturity level, the degree of softness, attractiveness, the degree of recognition, and the activity. But the degree of recognition is found out to be the least significant factor. H-line is estimated the mature image, A·X-line is estimated young, feminine and active image. Second, image differences by observers characteristics are various depending on the shape of clothing.

  • PDF

Spatio-temporal Semantic Features for Human Action Recognition

  • Liu, Jia;Wang, Xiaonian;Li, Tianyu;Yang, Jie
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제6권10호
    • /
    • pp.2632-2649
    • /
    • 2012
  • Most approaches to human action recognition is limited due to the use of simple action datasets under controlled environments or focus on excessively localized features without sufficiently exploring the spatio-temporal information. This paper proposed a framework for recognizing realistic human actions. Specifically, a new action representation is proposed based on computing a rich set of descriptors from keypoint trajectories. To obtain efficient and compact representations for actions, we develop a feature fusion method to combine spatial-temporal local motion descriptors by the movement of the camera which is detected by the distribution of spatio-temporal interest points in the clips. A new topic model called Markov Semantic Model is proposed for semantic feature selection which relies on the different kinds of dependencies between words produced by "syntactic " and "semantic" constraints. The informative features are selected collaboratively based on the different types of dependencies between words produced by short range and long range constraints. Building on the nonlinear SVMs, we validate this proposed hierarchical framework on several realistic action datasets.

이미지 시퀀스 얼굴표정 기반 감정인식을 위한 가중 소프트 투표 분류 방법 (Weighted Soft Voting Classification for Emotion Recognition from Facial Expressions on Image Sequences)

  • 김경태;최재영
    • 한국멀티미디어학회논문지
    • /
    • 제20권8호
    • /
    • pp.1175-1186
    • /
    • 2017
  • Human emotion recognition is one of the promising applications in the era of artificial super intelligence. Thus far, facial expression traits are considered to be the most widely used information cues for realizing automated emotion recognition. This paper proposes a novel facial expression recognition (FER) method that works well for recognizing emotion from image sequences. To this end, we develop the so-called weighted soft voting classification (WSVC) algorithm. In the proposed WSVC, a number of classifiers are first constructed using different and multiple feature representations. In next, multiple classifiers are used for generating the recognition result (namely, soft voting) of each face image within a face sequence, yielding multiple soft voting outputs. Finally, these soft voting outputs are combined through using a weighted combination to decide the emotion class (e.g., anger) of a given face sequence. The weights for combination are effectively determined by measuring the quality of each face image, namely "peak expression intensity" and "frontal-pose degree". To test the proposed WSVC, CK+ FER database was used to perform extensive and comparative experimentations. The feasibility of our WSVC algorithm has been successfully demonstrated by comparing recently developed FER algorithms.

Animal Fur Recognition Algorithm Based on Feature Fusion Network

  • Liu, Peng;Lei, Tao;Xiang, Qian;Wang, Zexuan;Wang, Jiwei
    • Journal of Multimedia Information System
    • /
    • 제9권1호
    • /
    • pp.1-10
    • /
    • 2022
  • China is a big country in animal fur industry. The total production and consumption of fur are increasing year by year. However, the recognition of fur in the fur production process still mainly relies on the visual identification of skilled workers, and the stability and consistency of products cannot be guaranteed. In response to this problem, this paper proposes a feature fusion-based animal fur recognition network on the basis of typical convolutional neural network structure, relying on rapidly developing deep learning techniques. This network superimposes texture feature - the most prominent feature of fur image - into the channel dimension of input image. The output feature map of the first layer convolution is inverted to obtain the inverted feature map and concat it into the original output feature map, then Leaky ReLU is used for activation, which makes full use of the texture information of fur image and the inverted feature information. Experimental results show that the algorithm improves the recognition accuracy by 9.08% on Fur_Recognition dataset and 6.41% on CIFAR-10 dataset. The algorithm in this paper can change the current situation that fur recognition relies on manual visual method to classify, and can lay foundation for improving the efficiency of fur production technology.