• Title/Summary/Keyword: 영상언어인식

Search Result 94, Processing Time 0.027 seconds

Multi-font/multi-size Hangul Character Recognition with Hierarchical Neural Networks (계층적 신경망을 이용한 다중크기의 다중활자체 한글문자인식)

  • Gwon, Jae-Uk;Jo, Seong-Bae;Kim, Jin-Hyeong
    • Annual Conference on Human and Language Technology
    • /
    • 1990.11a
    • /
    • pp.183-190
    • /
    • 1990
  • 본 논문에서는 인쇄체 한글문자를 실용적으로 인식하기 위하여 고안된 계층적 신경망을 소개하고, 이를 다중활자체의 한글문자를 인식하는 문제에 적용하였다. 이 신경망은 입력된 문자영상을 6가지의 유형으로 분류한 후, 해당 유형을 처리하는 신경망에서 실제 문자를 인식하도록 구성되었다. 또한 각 신경망을 모든 입력영상의 모든 출력노드에 대해 고르게 학습시키기 위하여 Backpropagation 알고리즘을 개선한 Descending Epsilon 알고리즘을 도입하였다. 그 결과 사용빈도수가 높은 한글 520자에 대해 94.4 - 98.4%의 인식률을 얻음으로써 본 논문에서 제안한 시스템이 다양한 활자체로 이루어진 실제 문서인식시스템의 문자인식부에 효과적으로 사용될 수 있음을 제시하였다.

  • PDF

A Speech Recognition System based on a New Endpoint Estimation Method jointly using Audio/Video Informations (음성/영상 정보를 이용한 새로운 끝점추정 방식에 기반을 둔 음성인식 시스템)

  • 이동근;김성준;계영철
    • Journal of Broadcast Engineering
    • /
    • v.8 no.2
    • /
    • pp.198-203
    • /
    • 2003
  • We develop the method of estimating the endpoints of speech by jointly using the lip motion (visual speech) and speech being included in multimedia data and then propose a new speech recognition system (SRS) based on that method. The endpoints of noisy speech are estimated as follows : For each test word, two kinds of endpoints are detected from visual speech and clean speech, respectively Their difference is made and then added to the endpoints of visual speech to estimate those for noisy speech. This estimation method for endpoints (i.e. speech interval) is applied to form a new SRS. The SRS differs from the convention alone in that each word model in the recognizer is provided an interval of speech not Identical but estimated respectively for the corresponding word. Simulation results show that the proposed method enables the endpoints to be accurately estimated regardless of the amount of noise and consequently achieves 8 o/o improvement in recognition rate.

A Study on Combining Bimodal Sensors for Robust Speech Recognition (강인한 음성인식을 위한 이중모드 센서의 결합방식에 관한 연구)

  • 이철우;계영철;고인선
    • The Journal of the Acoustical Society of Korea
    • /
    • v.20 no.6
    • /
    • pp.51-56
    • /
    • 2001
  • Recent researches have been focusing on jointly using lip motions and speech for reliable speech recognitions in noisy environments. To this end, this paper proposes the method of combining the visual speech recognizer and the conventional speech recognizer with each output properly weighted. In particular, we propose the method of autonomously determining the weights, depending on the amounts of noise in the speech. The correlations between adjacent speech samples and the residual errors of the LPC analysis are used for this determination. Simulation results show that the speech recognizer combined in this way provides the recognition performance of 83 % even in severely noisy environments.

  • PDF

Narrative and Meaning Structure of Pictures in TV Reporting: A Semiological Study on Korean TV News Coverage on '9.11 Disaster' of U.S. (TV 보도 영상의 서사구조과 의미구조: '9.11 참사' 보도의 영상에 대한 기호학적 분석을 중심으로)

  • Baek, Seon-Gi
    • Korean journal of communication and information
    • /
    • v.20
    • /
    • pp.57-109
    • /
    • 2003
  • The purpose of this study was to investigate narrative structure and meaning structure of pictures In TV reporting. TV reporting consists of linguistic representation and pictural representation with which implicate specific meanings. In the past, the latter has been considered as a kind of added material to the former. But, todays, the latter has been considered more important than the latter in implicating specific meanings. Therefore, the author analysed pictures of TV reporting. Specifically, he selected KBS TV news coverage on '9 11 Disaster of U.S.' with various semiological research methods. Through this study, firstly, It was found that the pictural representation was organized with specific narrative structure applied for linguistic representation. Secondly, its meaning was more important than one of linguistic representation. Thirdly, its styles and structures tended to confine range, abstract and limitation of meanings presented by linguistic representation. Fourthly, images of the pictural representation could be interpreted with narrative structures of linguistic representation.

  • PDF

A LECTURE SEARCH SYSTEM USING RELEVANT INFORMATION AND SPEECH TRANSCRIPTION (보조 자료와 음성 전사를 사용한 강의 검색 시스템)

  • Lee, Donghyeon;Lee, Gary Geunbae
    • Annual Conference on Human and Language Technology
    • /
    • 2008.10a
    • /
    • pp.140-144
    • /
    • 2008
  • 음성 오디오 검색 시스템을 구축하기 위해서는 몇 가지 과정이 필요하다. 첫 번째 과정이 음성 인식기를 이용하여 음성 오디오를 텍스트 형태로 표현하는 것이다. 하지만, 음성 인식기에서 수반되는 음성 인식 오류를 피할 수는 없다. 음성 인식 오류를 최소화하기 위해서 음성 인식 출력의 lattice를 색인(index)해야 하는데, 보다 효과적인 처리를 위하여 압축된 형태를 사용한다. 본 연구에서는 특별히 한국어 강의를 대상으로 검색 시스템을 구축했다. 강의에서는 특별히 관련된 자료를 쉽게 구할 수 있는 데, 이런 자료를 언어 모델에 이용하여 음성 인식 성능을 향상 시킬 수 있다. 또한, 강의 자료를 이용한 추가 색인 테이블(index table)을 생성하여 검색 성능 향상에 도움을 준다. 실험에서 고등학교 과정 수학 강의 동영상을 이용하여 자동화된 강의 검색 시스템을 구축하고, 보조 자료를 이용해 성능을 향상 시키는 것을 보인다.

  • PDF

A study on the segmentation and extraction of the pictures and characters in korean document (한글 문서 인식을 위한 문서 영상에서의 문자와 그림의 분리 추출)

  • Lee, In-Dong;Ho, Kang-Tae;Kwon, Oh-Seok;Kim, Tae-Kyun
    • Annual Conference on Human and Language Technology
    • /
    • 1989.10a
    • /
    • pp.50-53
    • /
    • 1989
  • 한글 문서를 인식하기 위하여 문서 영상에서 문자와 그림을 분리 추출하기 위한 방법에 대하여 논하였다. 분리 추출 방법으로는 실시간으로 입력되는 영상 데이타로부터 문자와 그림 의 경계 위치를 알아내는 방법을 사용하였다. 한글, 영문, 한자, 기호 등의 문자와 그림이 혼합된 A4 크기의 문서 영상을 300 DPI의 해상도로 입력받아 실험하였다. 단 한번의 주사만으로 모든 문자와 그림이 정보 gm름의 순서에 따라 분리 추출되었다. 실험 결과 본 방법은 최소한의 시간과 최소한의 기억 용량으로 완벽한 분리 추출이 가능함을 보였다.

  • PDF

Large-Scale Hangul Font Recognition Using Deep Learning (딥러닝을 이용한 대규모 한글 폰트 인식)

  • Yang, Jin-Hyeok;Kwak, Hyo-Bin;Kim, In-Jung
    • Annual Conference on Human and Language Technology
    • /
    • 2017.10a
    • /
    • pp.8-12
    • /
    • 2017
  • 본 연구에서는 딥러닝을 이용해 3300종에 이르는 다양한 한글 폰트를 인식하였다. 폰트는 디자인 분야에 있어서 필수적인 요소이며 문화적으로도 중요하다. 한글은 영어권 언어에 비해 훨씬 많은 문자를 포함하고 있기 때문에 한글 폰트 인식은 영어권 폰트 인식보다 어렵다. 본 연구에서는 최근 다양한 영상 인식 분야에서 좋은 성능을 보이고 있는 CNN을 이용해 한글 폰트 인식을 수행하였다. 과거에 이루어진 대부분의 폰트 인식 연구에서는 불과 수 십 종의 폰트 만을 대상으로 하였다. 최근에 이르러서야 2000종 이상의 대용량 폰트 인식에 대한 연구결과가 발표되었으나, 이들은 주로 문자의 수가 적은 영어권 문자들을 대상으로 하고 있다. 본 연구에서는 CNN을 이용해 3300종에 이르는 다양한 한글 폰트를 인식하였다. 많은 수의 폰트를 인식하기 위해 두 가지 구조의 CNN을 이용해 폰트인식기를 구성하고, 실험을 통해 이들을 비교 평가하였다. 특히, 본 연구에서는 3300종의 한글 폰트를 효과적으로 인식하면서도 학습 시간과 파라미터의 수를 줄이고 구조를 단순화하는 방향으로 모델을 개선하였다. 제안하는 모델은 3300종의 한글 폰트에 대하여 상위 1위 인식률 94.55%, 상위 5위 인식률 99.91%의 성능을 보였다.

  • PDF

Texture Feature-Based Language Identification Using Gabor Feature and Wavelet-Domain BDIP and BVLC Features (Gabor 특징과 웨이브렛 영역의 BDIP와 BVLC 특징을 이용한 질감 특징 기반 언어 인식)

  • Jang, Ick-Hoon;Lee, Woo-Shin;Kim, Nam-Chul
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.48 no.4
    • /
    • pp.76-85
    • /
    • 2011
  • In this paper, we propose a texture feature-based language identification using Gabor feature and wavelet-domain BDIP (block difference of inverse probabilities) and BVLC (block variance of local correlation coefficients) features. In the proposed method, Gabor and wavelet transforms are first applied to a test image. The wavelet subbands are next denoised by Donoho's soft-thresholding. The magnitude operator is then applied to the Gabor image and the BDIP and BVLC operators to the wavelet subbands. Moments for Gabor magnitude image and each subband of BDIP and BVLC are computed and fused into a feature vector. In classification, the WPCA (whitened principal component analysis) classifier, which is usually adopted in the face identification, searches the training feature vector most similar to the test feature vector. Experimental results show that the proposed method yields excellent language identification with rather low feature dimension for a document image DB.

Text/Voice Recognition & Translation Application Development Using Open-Source (오픈소스를 이용한 문자/음성 인식 및 번역 앱 개발)

  • Yun, Tae-Jin;Seo, Hyo-Jong;Kim, Do-Heon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.07a
    • /
    • pp.425-426
    • /
    • 2017
  • 본 논문에서는 Google에서 지원하는 오픈소스인 Tesseract-OCR을 이용한 문자/음성 인식 및 번역 앱에 대해 제안한다. 최근 한국어를 포함한 외국어 인식과 번역기능을 이용한 다양한 스마트폰 앱이 개발되어 여행에 필수품으로 자리잡고 있다. 스마트폰의 카메라기능을 이용하여 촬영한 영상을 인식률을 높이도록 처리하고, Crop기능을 넣어 부분 인식기능을 지원하며, Tesseract-OCR의 train data를 보완하여 인식률을 높이고, Google 음성인식 API를 이용한 음성인식 기능을 통해 인식된 유사한 문장들을 선택하도록 하고, 이를 번역하고 보여주도록 개발하였다. 번역 기능은 번역대상 언어와 번역할 언어를 선택할 수 있고 기본적으로 영어, 한국어, 일본어, 중국어로 번역이 가능하다. 이 기능을 이용하여 차량번호 인식, 사진에 포함된 글자를 통한 검색 등 다양한 응용분야에 맞게 앱을 개발할 수 있다.

  • PDF

Design and Construction of a Large-set Off-line Handwritten Hangul Character Image Database KU-1 (대용량 오프라인 한글 글씨 영상 데이터베이스 KU-1의 설계 및 구축)

  • Kim, Dae-In;Kim, Sang-Yup;Lee, Seong-Whan
    • Annual Conference on Human and Language Technology
    • /
    • 1997.10a
    • /
    • pp.152-159
    • /
    • 1997
  • 최근 들어 인쇄체 문자 인식 기술의 발전에 힘입어 필기체 한글 인식에 관한 연구가 활발히 진행되고 있다. 인쇄체 문자와는 달리 자연스럽게 필기된 한글 글씨는 동일한 문자라 하더라도 같은 모양을 가지고 있다고 단정하는 것이 불가능할 정도로 필기자의 필기 유형에 따른 다양한 변형을 내포하고 있다. 따라서 효과적인 한글 글씨 인식기를 개발하기 위해서는 다양한 변형을 포함하는 대용량의 한글 글씨 영상 데이터베이스가 필수적이다. 본 논문에서는 시스템공학연구소 주관 국어 정보 베이스 개발 사업의 일환으로 고려대학교에서 구축 중인 오프라인 한글 글씨 영상 데이터베이스, KU-1에 대해 간략히 소개하고자 한다. 본 데이터베이스는 KS C 완성형 한글 사용 빈도순 상위 1,500자에 대하여 다양한 계층, 직업, 연령, 지역 분포를 고려한 1,000명 이상의 필기자가 정서체와 본인의 평소 자유 필체로 필기한 1,000벌의 명도 한글 글씨 영상으로 구성되어 있다.

  • PDF