• 제목/요약/키워드: Image Signal Recognition

검색결과 185건 처리시간 0.028초

에지기반 세그먼트 영상 생성에 의한 차량 번호판 인식 시스템 (Vehicle License Plate Recognition System By Edge-based Segment Image Generation)

  • 김진호;노덕수
    • 한국콘텐츠학회논문지
    • /
    • 제12권3호
    • /
    • pp.9-16
    • /
    • 2012
  • 스마트시티 프로젝트의 일환으로 실시간 차량 번호판 인식에 관한 연구들이 활발하게 진행되고 있다. 도로상에 설치된 CCTV에서 트리거 신호 없이 주행하는 차량 영상을 획득할 경우에는 번호판의 기하학적 왜곡이나 화질의 저하가 발생하여 번호판 인식이 어려워 질 수 있다. 본 논문에서는 트리거 신호를 이용하지 않은 상태에서 입력되어 기하학적 왜곡이나 화질의 저하가 발생된 차량 영상에도 강한 에지기반 문자 세그먼트 영상생성 기법의 차량 번호판 인식시스템을 제안하였다. 제안한 실시간 차량 번호판 인식 알고리즘을 도로상에 설치된 CCTV에 구현하고 일주일 동안 번호판 인식 실험을 수행해 본 결과 1일 평균 1,535 대의 통과 차량에 대해서 97.5%의 번호판 검출률을 얻을 수 있었으며 검출된 번호판에 기록된 문자들의 99.3%를 인식할 수 있었다.

Lipreading과 음성인식에 의한 향상된 화자 인증 시스템

  • 지승남;이종수
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2000년도 제15차 학술회의논문집
    • /
    • pp.274-274
    • /
    • 2000
  • In the future, the convenient speech command system will become an widely-using interface in automation systems. But the previous research in speech recognition didn't give satisfactory recognition results for the practical realization in the noise environment. The purpose of this research is the development of a practical system, which reliably recognizes the speech command of the registered users, by complementing an existing research which used the image information with the speech signal. For the lip-reading feature extraction from a image, we used the DWT(Discrete Wavelet Transform), which reduces the size and gives useful characteristics of the original image. And to enhance the robustness to the environmental changes of speakers, we acquired the speech signal by stereo method. We designed an economic stand-alone system, which adopted a Bt829 and an AD1819B with a TMS320C31 DSP based add-on board.

  • PDF

A Multimodal Emotion Recognition Using the Facial Image and Speech Signal

  • Go, Hyoun-Joo;Kim, Yong-Tae;Chun, Myung-Geun
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제5권1호
    • /
    • pp.1-6
    • /
    • 2005
  • In this paper, we propose an emotion recognition method using the facial images and speech signals. Six basic emotions including happiness, sadness, anger, surprise, fear and dislike are investigated. Facia] expression recognition is performed by using the multi-resolution analysis based on the discrete wavelet. Here, we obtain the feature vectors through the ICA(Independent Component Analysis). On the other hand, the emotion recognition from the speech signal method has a structure of performing the recognition algorithm independently for each wavelet subband and the final recognition is obtained from the multi-decision making scheme. After merging the facial and speech emotion recognition results, we obtained better performance than previous ones.

비행체 표적식별을 위한 트리 구조의 퍼지 뉴럴 네트워크 설계 (Design of a Tree-Structured Fuzzy Neural Networks for Aircraft Target Recognition)

  • 한창욱
    • 전기전자학회논문지
    • /
    • 제24권4호
    • /
    • pp.1034-1038
    • /
    • 2020
  • 레이더를 통한 표적식별을 효과적으로 처리하기 위해서는 표적에 대한 정확한 신호 정보가 필요하다. 그러나 이러한 표적 신호에는 잡음이 섞여 있는 경우가 일반적이며, 이 부분에 대한 연구가 지속적으로 이루어지고 있다. 특히 표적에 대한 이미지 처리, 표적신호처리, 표적식별 등이 그 예라 할 수 있겠다. 군사적 측면으로 볼 때 표적식별 분야가 중요하므로 본 논문에서는 트리 구조의 퍼지 뉴럴 네트워크를 이용하여 비행체 표적식별에 대한 연구를 수행하였다. 비행체에 대한 반사파 데이터를 활용하여 퍼지 뉴럴 네트워크를 학습시켜 모델에 대한 최적화를 수행하였고, 최적화된 모델에 표적에 대한 테스팅 데이터를 입력하여 표적식별에 대한 실험을 수행하여 그 결과를 통해 제안된 방법의 효용성을 검증하였다.

Integrated Visual and Speech Parameters in Korean Numeral Speech Recognition

  • Lee, Sang-won;Park, In-Jung;Lee, Chun-Woo;Kim, Hyung-Bae
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -2
    • /
    • pp.685-688
    • /
    • 2000
  • In this paper, we used image information for the enhancement of Korean numeral speech recognition. First, a noisy environment was made by Gaussian generator at each 10 dB level and the generated signal was added to original Korean numeral speech. And then, the speech was analyzed to recognize Korean numeral speech. Speech through microphone was pre-emphasized with 0.95, Hamming window, autocorrelation and LPC analysis was used. Second, the image obtained by camera, was converted to gray level, autocorrelated, and analyzed using LPC algorithm, to which was applied in speech analysis, Finally, the Korean numerial speech recognition with image information was more ehnanced than speech-only, especially in ‘3’, ‘5’and ‘9’. As the same LPC algorithm and simple image management was used, additional computation a1gorithm like a filtering was not used, a total speech recognition algorithm was made simple.

  • PDF

인공신경망을 이용한 실시간 영문인쇄체 인식 (The Real-time Printed Alphabets Recognition using Artificial Neural Networks)

  • 심성균;정원용
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2001년도 하계 학술대회 논문집(KISPS SUMMER CONFERENCE 2001
    • /
    • pp.149-152
    • /
    • 2001
  • 본 논문은 이미 판서된 오프라인(off-line) 영문 인쇄체를 실시간으로 인식하기 위해 인공신경망의 역전파 (Backpropagation) 학습알고리즘을 적용하여 인식 시스템의 성능을 최대화하고, 양질의 특성벡터를 추출함으로서 실시간 처리가 가능하도록 처리시간을 단축시키는 것을 목적으로 하였다. 실시간 영상을 획득하고 처리하기 위한 Genesis 실시간 영상처리 보드와 이 보드를 제어하기 위한 MIL(Matrox Image Library)패키지를 이용하여 실시간 인식시스템을 구현하였고, 인공신경망의 기대값을 ASCII형태로 변환시켜 출력벡터의 차수를 감소시키는 방법을 제시함으로서 패턴의 학습과 인식처리에 소요되는 시간, 그리고 인식시스템의 성능을 비교해 보았다.

  • PDF

Multiple Plankton Detection and Recognition in Microscopic Images with Homogeneous Clumping and Heterogeneous Interspersion

  • Soh, Youngsung;Song, Jaehyun;Hae, Yongsuk
    • 융합신호처리학회논문지
    • /
    • 제19권2호
    • /
    • pp.35-41
    • /
    • 2018
  • The analysis of plankton species distribution in sea or fresh water is very important in preserving marine ecosystem health. Since manual analysis is infeasible, many automatic approaches were proposed. They usually use images from in situ towed underwater imaging sensor or specially designed, lab mounted microscopic imaging system. Normally they assume that only single plankton is present in an image so that, if there is a clumping among multiple plankton of same species (homogeneous clumping) or if there are multiple plankton of different species scattered in an image (heterogeneous interspersion), they have a difficulty in recognition. In this work, we propose a deep learning based method that can detect and recognize individual plankton in images with homogeneous clumping, heterogeneous interspersion, or combination of both.

Research on Damage Identification of Buried Pipeline Based on Fiber Optic Vibration Signal

  • Weihong Lin;Wei Peng;Yong Kong;Zimin Shen;Yuzhou Du;Leihong Zhang;Dawei Zhang
    • Current Optics and Photonics
    • /
    • 제7권5호
    • /
    • pp.511-517
    • /
    • 2023
  • Pipelines play an important role in urban water supply and drainage, oil and gas transmission, etc. This paper presents a technique for pattern recognition of fiber optic vibration signals collected by a distributed vibration sensing (DVS) system using a deep learning residual network (ResNet). The optical fiber is laid on the pipeline, and the signal is collected by the DVS system and converted into a 64 × 64 single-channel grayscale image. The grayscale image is input into the ResNet to extract features, and finally the K-nearest-neighbors (KNN) algorithm is used to achieve the classification and recognition of pipeline damage.

입술움직임 영상신호를 고려한 음성존재 검출 (Speech Activity Decision with Lip Movement Image Signals)

  • 박준;이영직;김응규;이수종
    • 한국음향학회지
    • /
    • 제26권1호
    • /
    • pp.25-31
    • /
    • 2007
  • 본 논문은 음성인식을 위한 음성구간 검출과정에서, 음향에너지 이외에도 화자의 입술움직임 영상신호까지 확인하도록 함으로써, 외부의 음향잡음이 음성인식 대상으로 오인식되는 것을 방지하기 위하여 시도한 것이다. 먼저, PC용 화상카메라를 통하여 영상을 획득하고, 입술움직임 여부가 식별된다. 그리고 입술움직임 영상신호 데이터는 공유메모리에 저장되어 음성인식 프로세스와 공유한다. 한편, 음성인식의 전처리 단계인 음성구간 검출과정에서는 공유메모리에 저장되어 있는 데이터를 확인함으로써 사람의 발성에 의한 음향에너지인지의 여부를 확인하게 된다. 음성인식기와 영상처리기를 연동시켜 실험한 결과, 화상카메라에 대면해서 발성하면 음성인식 결과의 출력까지 정상적으로 진행됨을 확인하였고, 화상카메라에 대면하지 않고 발성하면 음성인식 결과를 출력하지 않는 것을 확인하였다. 이는 음향에너지가 입력되더라도 입술움직임 영상이 확인되지 않으면 음향잡음으로 간주하도록 한 것에 따른 것이다.

멀티 모달 감정인식 시스템 기반 상황인식 서비스 추론 기술 개발 (Development of Context Awareness and Service Reasoning Technique for Handicapped People)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.34-39
    • /
    • 2009
  • 사람의 감정은 주관적인 인식 작용으로서 충동적인 성향을 띄고 있으며 무의식중의 사람의 욕구와 의도를 표현하고 있다. 이는 유비쿼터스 컴퓨팅 환경이나 지능형 로봇의 사용자가 처한 환경의 상황정보 중에서 사용자의 의도를 가장 많이 포함하고 있는 정보라고 할 수 있다. 이러한 사용자의 감정을 파악할 수 있는 지표는 사람의 얼굴 영상에서의 표정과 음성신호에서의 Spectrum 통계치 및 생체신호(근전위, 뇌파, 등)등 이다. 본 논문에서는 감정인식 활용의 편의와 효율성 향상을 주목적으로 하여 사용자의 얼굴 영상과 음성을 이용한 감정인식에 대하여 개별 결과물만을 산출하고 그 인식률을 검토한다. 또한 임의의 상황에서의 인식률 향상을 위하여 영상과 음성의 특징을 기반으로 최적의 특징 정보들을 구별해 내고, 각각의 개별 감정 특징에 대한 융합을 시도하는 특징 융합 기반의 Multi-Modal 감정인식 기법을 구현한다. 최종적으로 감정인식 결과를 이용하여 유비쿼터스 컴퓨팅 환경에서 발생 가능한 상황 설정 시나리오와 베이지만 네트워크를 통해 유비쿼터스 컴퓨팅 서비스의 확률 추론 가능성을 제시하고자 한다.