• 제목/요약/키워드: optical character

검색결과 279건 처리시간 0.027초

Convolutional Neural Networks for Character-level Classification

  • Ko, Dae-Gun;Song, Su-Han;Kang, Ki-Min;Han, Seong-Wook
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제6권1호
    • /
    • pp.53-59
    • /
    • 2017
  • Optical character recognition (OCR) automatically recognizes text in an image. OCR is still a challenging problem in computer vision. A successful solution to OCR has important device applications, such as text-to-speech conversion and automatic document classification. In this work, we analyze character recognition performance using the current state-of-the-art deep-learning structures. One is the AlexNet structure, another is the LeNet structure, and the other one is the SPNet structure. For this, we have built our own dataset that contains digits and upper- and lower-case characters. We experiment in the presence of salt-and-pepper noise or Gaussian noise, and report the performance comparison in terms of recognition error. Experimental results indicate by five-fold cross-validation that the SPNet structure (our approach) outperforms AlexNet and LeNet in recognition error.

심박동의 광학적 측정을 이용한 개인 인증 방법 (Individual verification using optical measurement of heartbeat)

  • 김신자;이영우
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2008년도 추계종합학술대회 B
    • /
    • pp.119-122
    • /
    • 2008
  • 사람의 심박동은 심장 상태와 구조, 나이 등의 여러 요소에 의하여 고유한 특성을 갖는다. 본 논문에서는 심박동의 고유 특성을 이용한 개인 인증 방법을 제안하였다. 이 고유 특성은 LD와 PD를 이용, 광전용적맥파(PPG, Photo Plethysmogram)를 측정함으로서 얻었다.

  • PDF

딥 러닝 기법을 활용한 이미지 내 한글 텍스트 인식에 관한 연구 (Research on Korea Text Recognition in Images Using Deep Learning)

  • 성상하;이강배;박성호
    • 한국융합학회논문지
    • /
    • 제11권6호
    • /
    • pp.1-6
    • /
    • 2020
  • 본 연구에서는 컴퓨터 비전의 분야 중 하나인 문자 인식에 관한 연구를 수행했다. 대표적인 문자인식 기법 중 하나인 광학식 문자 판독 기법의 경우 일정한 규격과 서식에서 벗어나게 되면 인식률이 떨어진다는 한계점이 있다. 따라서 본 연구에서는 딥 러닝 기법을 적용해 이러한 문제점을 해결하고자 한다. 또한 기존의 문자 인식 연구의 경우 대부분 영어 및 숫자 인식에 국한되어 있다. 따라서 본 연구는 한글 인식을 위한 딥 러닝 기반 문자 인식 알고리즘을 제시한다. 알고리즘은 1-NED 평가 방법에서 0.841의 점수를 얻었으며, 이는 영어 인식 결과와 비슷한 수치이다. 본 연구를 통해 딥 러닝 기반 한글 인식 알고리즘의 성능을 확인할 수 있으며, 이를 통해 향후 연구방향에 대해 제시한다.

Variations of AlexNet and GoogLeNet to Improve Korean Character Recognition Performance

  • Lee, Sang-Geol;Sung, Yunsick;Kim, Yeon-Gyu;Cha, Eui-Young
    • Journal of Information Processing Systems
    • /
    • 제14권1호
    • /
    • pp.205-217
    • /
    • 2018
  • Deep learning using convolutional neural networks (CNNs) is being studied in various fields of image recognition and these studies show excellent performance. In this paper, we compare the performance of CNN architectures, KCR-AlexNet and KCR-GoogLeNet. The experimental data used in this paper is obtained from PHD08, a large-scale Korean character database. It has 2,187 samples of each Korean character with 2,350 Korean character classes for a total of 5,139,450 data samples. In the training results, KCR-AlexNet showed an accuracy of over 98% for the top-1 test and KCR-GoogLeNet showed an accuracy of over 99% for the top-1 test after the final training iteration. We made an additional Korean character dataset with fonts that were not in PHD08 to compare the classification success rate with commercial optical character recognition (OCR) programs and ensure the objectivity of the experiment. While the commercial OCR programs showed 66.95% to 83.16% classification success rates, KCR-AlexNet and KCR-GoogLeNet showed average classification success rates of 90.12% and 89.14%, respectively, which are higher than the commercial OCR programs' rates. Considering the time factor, KCR-AlexNet was faster than KCR-GoogLeNet when they were trained using PHD08; otherwise, KCR-GoogLeNet had a faster classification speed.

안경원 브랜드의 디자인아이덴티티에 관한 연구 (A Study on the Design Identity of Optical Shop Brands)

  • 홍성일;손정식
    • 한국안광학회지
    • /
    • 제19권4호
    • /
    • pp.435-443
    • /
    • 2014
  • 목적: 안경원 브랜드의 디자인아이덴티티 시각 요소들의 분석을 통해 안경원의 브랜드 디자인 개발에 필요한 객관적인 자료로 활용하고자 하였다. 방법: 안경원의 브랜드 디자인아이덴티티 개념을 살펴보고 국내 프랜차이즈 안경원의 상징물, 심벌마크의 형태와 로고타입의 표현 스타일, 색상 활용도, 캐릭터 사용 여부 등을 중심으로 브랜드 디자인아이덴티티의 시각 요소들을 분석하였다. 결과: 안경과 눈, 얼굴과 홍채 같은 안경과 관련된 직접적인 상징물이 많았고 글자와 도형도 나타났다. 심벌 유형으로는 대부분이 구상형과 워드마크 형태의 디자인이 많았고 워드마크형에는 국문보다 영문이 많이 사용되었다. 로고타입 형식은 고딕체 형식이 주류를 이루었고 획의 굵기는 보통과 두꺼운 볼드체가 고루 사용되는 것으로 나타났다. 안경원 브랜드 디자인에서 가장 많이 사용되고 있는 색상 도수는 2도 조합 사용이 대부분이었고 색상 사용 빈도로는 검정과 빨강이 많았는데 심벌이나 로고타입의 전용 색상에는 검정과 함께 주황도 많이 나타났다. 캐릭터는 일부 안경원에서만 사용하고 있고 대부분 동물 소재로 표현은 만화와 그래픽 형식이었다. 결론: 상징물, 심벌마크와 로고타입, 색상, 캐릭터는 브랜드 디자인아이덴티티 기본 개발 시스템이다. 안경원 브랜드의 중요한 시각적 구성요소로 상호간 일관성이 있으면서 기능과 역할을 분명히 할 수 있는 체계적인 디자인이 되어야 한다.

빌렛영상에 포함된 문자인식을 위한 비전시스템 개발 (Development of vision system for the character recognition of the billet image)

  • 박상국
    • 한국산업정보학회논문지
    • /
    • 제13권1호
    • /
    • pp.22-29
    • /
    • 2008
  • 본 논문은 철강공장의 연주공정에서 만들어진 빌렛 소재의 관리를 위해 사용되는 소재 관리문자를 실시간으로 인식하기 위한 비전시스템 개발 결과에 대해 기술한다. 빌렛 재질의 단면에 마킹된 소재 관리문자는 소재가 다음 공정으로 이동하기 전에 공정상에서 실시간으로 인식된다. 문자인식용 비전시스템은 영상획득을 위한 카메라 시스템, 영상을 장거리로 고속 전송하기위한 영상전송 시스템, 기존 시스템과의 인터페이스를 위한 입 출력 장치 및 문자인식용 소프트웨어로 구성된다. 개발된 비전시스템을 실제 철강 선제공정에 설치하여 운용테스트를 실시했다. 테스트를 통해 시스템의 내구성과 신뢰성을 검증하고 최종적으로 문자 인식률을 검증했다. 개발된 시스템에 대해 문자인식 테스트 결과 약 98.6%의 높은 인식률을 가졌다.

  • PDF

광상관기를 이용한 컴퓨터용 광문자인식에 관한 연구 (A Study on the Optical Character Recognition using Optical Correlators Computer)

  • 박현철;송우영;박한규
    • 한국통신학회논문지
    • /
    • 제9권4호
    • /
    • pp.179-183
    • /
    • 1984
  • N개의 문자를 인식하기 위해 $log_2$N번의 이진측정만을 요구하는 주요문자형태(principal components)를 컴퓨터에 의해 계산, 제작하였고 비간접성 광상관기(incoherent optical correlator)를 구성하여 상관계수를 측정하였다. 종래의 최적 필터를 사용한 애널로그 상관계수 측정법보다 뛰어난 식별능력을 보였다.

  • PDF

A Fast Algorithm for Korean Text Extraction and Segmentation from Subway Signboard Images Utilizing Smartphone Sensors

  • Milevskiy, Igor;Ha, Jin-Young
    • Journal of Computing Science and Engineering
    • /
    • 제5권3호
    • /
    • pp.161-166
    • /
    • 2011
  • We present a fast algorithm for Korean text extraction and segmentation from subway signboards using smart phone sensors in order to minimize computational time and memory usage. The algorithm can be used as preprocessing steps for optical character recognition (OCR): binarization, text location, and segmentation. An image of a signboard captured by smart phone camera while holding smart phone by an arbitrary angle is rotated by the detected angle, as if the image was taken by holding a smart phone horizontally. Binarization is only performed once on the subset of connected components instead of the whole image area, resulting in a large reduction in computational time. Text location is guided by user's marker-line placed over the region of interest in binarized image via smart phone touch screen. Then, text segmentation utilizes the data of connected components received in the binarization step, and cuts the string into individual images for designated characters. The resulting data could be used as OCR input, hence solving the most difficult part of OCR on text area included in natural scene images. The experimental results showed that the binarization algorithm of our method is 3.5 and 3.7 times faster than Niblack and Sauvola adaptive-thresholding algorithms, respectively. In addition, our method achieved better quality than other methods.

Understanding Smartphone-based Online Shopping Experiences and Behaviors of Blind Users

  • Park, Jihyuk;Han, Yeji;Oh, Uran
    • International journal of advanced smart convergence
    • /
    • 제9권3호
    • /
    • pp.260-271
    • /
    • 2020
  • Smartphones provide blind users with screenreader as an accessibility tool. However, blind users often experience difficulties accessing online shopping malls via smartphones due to their inconsistent and image-based layouts. To enable screenreader users to get access to the detailed information about products while they are shopping online, we have developed BarrierFreeShop, an accessible mobile shopping application for people with visual impairments. BarrierFreeShop has three accessibility features: (1) layout automation, (2) review summarization, and (3) optical character recognition. We conducted a user study with 80 participants with visual impairments where they were asked to use BarrierFreeShop for a month. The findings revealed the effectiveness of our app in terms of speed and post interview feedback. We have also discovered typical shopping experiences that participants had during the test. This research suggests that computer vision technologies can improve accessibility issues in online shopping malls. In addition, we have confirmed that extracting contents from images help people with visual impairments to get better access to product information.