• Title/Summary/Keyword: Tesseract OCR

Search Result 24, Processing Time 0.025 seconds

OCR-Based Medicine Ingredient Information Retrieval System (OCR 기반의 의약품 성분 정보 검색 시스템)

  • Park, Jina;Park, Seungbo
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.01a
    • /
    • pp.83-84
    • /
    • 2022
  • 본 논문에서는 의약품의 효율적인 구매와 안전한 복용, 또 의약품 성분에 대한 정보 전달을 위한 시스템을 제안한다. 이 시스템에서는 약품 후면을 촬영한 영상으로부터 이미지 프로세싱을 통해 이미지에서 관심영역을 설정한 뒤, OCR 엔진인 Tesseract-OCR을 사용하여 인식한 텍스트 데이터를 통해 약품 성분을 추출하며, 식품의약품안전처에서 제공하는 의약품 안전 사용 서비스(DUR) API와 네이버 의약품 사전 검색 결과를 이용해 관련 정보들을 읽어와 출력하도록 한다. 약품의 표준 서식을 따르는 이미지를 기준으로 백 개의 이미지를 이용해 테스트하여 65%의 검출 정확도를 보였다.

  • PDF

Multi-modal Image Processing for Improving Recognition Accuracy of Text Data in Images (이미지 내의 텍스트 데이터 인식 정확도 향상을 위한 멀티 모달 이미지 처리 프로세스)

  • Park, Jungeun;Joo, Gyeongdon;Kim, Chulyun
    • Database Research
    • /
    • v.34 no.3
    • /
    • pp.148-158
    • /
    • 2018
  • The optical character recognition (OCR) is a technique to extract and recognize texts from images. It is an important preprocessing step in data analysis since most actual text information is embedded in images. Many OCR engines have high recognition accuracy for images where texts are clearly separable from background, such as white background and black lettering. However, they have low recognition accuracy for images where texts are not easily separable from complex background. To improve this low accuracy problem with complex images, it is necessary to transform the input image to make texts more noticeable. In this paper, we propose a method to segment an input image into text lines to enable OCR engines to recognize each line more efficiently, and to determine the final output by comparing the recognition rates of CLAHE module and Two-step module which distinguish texts from background regions based on image processing techniques. Through thorough experiments comparing with well-known OCR engines, Tesseract and Abbyy, we show that our proposed method have the best recognition accuracy with complex background images.

Study on Extracting Filming Location Information in Movies Using OCR for Developing Customized Travel Content (맞춤형 여행 콘텐츠 개발을 위한 OCR 기법을 활용한 영화 속 촬영지 정보 추출 방안 제시)

  • Park, Eunbi;Shin, Yubin;Kang, Juyoung
    • The Journal of Bigdata
    • /
    • v.5 no.1
    • /
    • pp.29-39
    • /
    • 2020
  • Purpose The atmosphere of respect for individual tastes that have spread throughout society has changed the consumption trend. As a result, the travel industry is also seeing customized travel as a new trend that reflects consumers' personal tastes. In particular, there is a growing interest in 'film-induced tourism', one of the areas of travel industry. We hope to satisfy the individual's motivation for traveling while watching movies with customized travel proposals, which we expect to be a catalyst for the continued development of the 'film-induced tourism industry'. Design/methodology/approach In this study, we implemented a methodology through 'OCR' of extracting and suggesting film location information that viewers want to visit. First, we extract a scene from a movie selected by a user by using 'OpenCV', a real-time image processing library. In addition, we detected the location of characters in the scene image by using 'EAST model', a deep learning-based text area detection model. The detected images are preprocessed by using 'OpenCV built-in function' to increase recognition accuracy. Finally, after converting characters in images into recognizable text using 'Tesseract', an optical character recognition engine, the 'Google Map API' returns actual location information. Significance This research is significant in that it provides personalized tourism content using fourth industrial technology, in addition to existing film tourism. This could be used in the development of film-induced tourism packages with travel agencies in the future. It also implies the possibility of being used for inflow from abroad as well as to abroad.

A text region extraction algorithm based on Android for real-time text recognition (실시간 글자 인식을 위한 안드로이드 기반의 글자 영역 추출 기술)

  • Lee, Gyu-Cheol;Lee, Sangyong;Yoo, Jisang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.11a
    • /
    • pp.194-196
    • /
    • 2016
  • 본 논문에서는 안드로이드 환경에서 글자 인식을 위한 전처리 과정으로 입력 영상에서 글자 영역만을 추출하는 기법을 제안한다. 대부분의 글자 인식 어플리케이션에서 글자를 인식하는 방법은 RoI(Region of Interest)에 인식하려는 글자를 위치시켜 놓고 사용자가 촬영함으로써 진행된다. 하지만 촬영된 영상 그대로를 인식에 사용하기 때문에 잡음 및 글자가 아닌 영역들을 글자로 인식하는 문제 등으로 인하여 인식률이 현저히 떨어진다. 제안하는 기법에서는 MSER(Maximally Stable Extremal Regions) 기법을 통해 각각의 글자를 추출한 후, 글자의 특성을 이용하여 글자 영역만을 추출한다. 기법의 성능 평가는 무료 OCR(Optical Character Recognition) 엔진인 Tesseract-OCR을 통해 글자 인식률을 비교하였으며, 제안하는 기법을 적용한 글자 인식 시스템이 적용하지 않은 시스템보다 글자의 인식률이 향상되는 것을 확인하였다.

  • PDF

Machine Learning based Personal Information Classification System in Large Image Files (머신러닝 기반의 대규모 이미지 파일에서 개인 정보 분류 시스템)

  • Kim, Ki-Tae;Yun, Sang-Hyeok;Seo, Bo-in;Lee, Sei-hoon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.293-294
    • /
    • 2020
  • 본 논문에서는 현재 이슈가 되고 있는 개인 정보 보안에 대해서 Keras 라이브러리를 사용하여 개인 정보 관련 데이터를 학습한 후, 한글 인식률 증가된 Tesseract-OCR 활용하여 사람들이 가지고 있는 데이터의 개인 정보 유무를 판단하여 분류한다.

  • PDF

Study on the panorama image processing using the SURF feature detector and technicians. (Emgu CV를 이용한 자동차 번호판 자동 인식 프로그램 구현에 관한 연구)

  • Kim, Nam-woo;Hur, Chang-Wu
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2016.05a
    • /
    • pp.830-833
    • /
    • 2016
  • 자동차 번호판 인식은 대중적인 감시 기술 중의 한 종류로서, 주어진 비디오나 영상 내 광학문자 인식을 수반한다. 고속도로나 국도 상에 과속 단속 시스템, 재형 건물이나 유통센서 및 주차장 등에서 주차 정산 시스템, 고속도로 톨 게이트에서 hi-pass 에러 및 불법 도주 차량 잔속 시스템, 전국 주요 도로 불법 주 정차 단속 시스템, 공공기관, 기업 출퇴근 시간 확인 및 외부 차양 안내 시스템 등의 지능형 교통 시스템(ITS)이나 국도 상에 범위 차량 검거 시스템, 사건 발생 시 주요 도로상에 설치된 CCTV를 통해 용의 차량 이동 추적 시스템, 이동식 범죄 차량 조회, 버스에 탑재된 버스 전용차선 위반 단속들의 지능형 방범 시스템 등에 활용하고 있다. 번호판 인식은 자동차 번호판 국부화, 번호판의 크기, 차원, 명암대비, 밝기를 조정하는 정규화, 개별문자를 얻어내는 문자 분할, 문자를 인식하는 광학 문자 인식, 번호판의 형태, 크기, 위치 들이 연도별, 지역별로 차이가 있는 번호판들의 데이터베이스를 비교하여 구문 분석을 하는 절차를 거친다. 본 논문에서는 EmguCV를 이용하여 구현한 번호판 감지를 수행하여 위치를 찾아내고, 오픈 소스 광학 문자 인식 엔진으로 잘 알려져 있는 테서렉트 OCR을 이용하여 번호판의 문자를 인식하는 자동 인식 프로그램을 구현하고 기술하였다.

  • PDF

Design and Implementation of OCR-based Machine Monitoring System for Small and Medium-Sized Enterprise (SMEs) (중소/중견 기업을 위한 OCR기반 설비 모니터링 시스템의 설계 및 구현)

  • Seong, Junghwan;Jeong, Jongpil
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.21 no.3
    • /
    • pp.73-79
    • /
    • 2021
  • In the wave of the 4th industrial revolution, smart factory is required in many factories. However, small and mid-sized companies (SMEs) still have aging machines and are having difficulties in the data collection stage, which is the basis of smart factories. This study proposes a low cost monitoring method by using an open source based technology that extracts data from the image of the facility control panel without the need for modification of existing facilities. The proposed method was tested and evaluated for forging facilities in automobile parts manufacturing plants through prototyping. As a result of the evaluation, it was confirmed that low-cost facility monitoring is possible, and it will help SMEs build smart factories.

Detection and Recognition of Vehicle License Plates using Deep Learning in Video Surveillance

  • Farooq, Muhammad Umer;Ahmed, Saad;Latif, Mustafa;Jawaid, Danish;Khan, Muhammad Zofeen;Khan, Yahya
    • International Journal of Computer Science & Network Security
    • /
    • v.22 no.11
    • /
    • pp.121-126
    • /
    • 2022
  • The number of vehicles has increased exponentially over the past 20 years due to technological advancements. It is becoming almost impossible to manually control and manage the traffic in a city like Karachi. Without license plate recognition, traffic management is impossible. The Framework for License Plate Detection & Recognition to overcome these issues is proposed. License Plate Detection & Recognition is primarily performed in two steps. The first step is to accurately detect the license plate in the given image, and the second step is to successfully read and recognize each character of that license plate. Some of the most common algorithms used in the past are based on colour, texture, edge-detection and template matching. Nowadays, many researchers are proposing methods based on deep learning. This research proposes a framework for License Plate Detection & Recognition using a custom YOLOv5 Object Detector, image segmentation techniques, and Tesseract's optical character recognition OCR. The accuracy of this framework is 0.89.

Development of vehicle traffic statistics system using deep learning (딥러닝 영상인식을 이용한 출입 차량 통계 시스템 개발)

  • Mun, Dong-Ho;Hwang, Seung-Hyuk;Jeon, Han-Gyeol;Hwang, Su-Min;Yun, Tae-Jin
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.701-702
    • /
    • 2020
  • 본 논문에서는 Jetson-Nano와 데스크탑에서 OpenCV와 YOLOv3 실시간 객체 인식 알고리즘을 이용하여 웹캠을 통해 주차장 등의 출입 차량 인식 통계 시스템을 개발하였다. 최근 에지컴퓨팅에 관심이 증가하고 있는 시점에서 Nvidia사에서 개발하여 보급하고 있는 Jetson-Nano에 YOLOv3 tiny와 OpenCV를 이용하여 차량인식을 수행하고, 구글에서 개발한 오픈 소스 Tesseract-OCR을 이용해 차량번호인식하여 입출차 혹은 주차시 차량정보를 확인할 수 있다. 딥러닝 학습 알고리즘에서 전기차 번호판의 특징점을 인식하여 전기차를 판별하여 일반차량이 전기차 주차구역에 불법주차하는 것을 모니터링할 수도 있다. 출입한 차량 데이터 베이스에서 입출차 시각, 차량번호, 전기차여부등이 확인 가능하다.

  • PDF

Design of Image Generation System for DCGAN-Based Kids' Book Text

  • Cho, Jaehyeon;Moon, Nammee
    • Journal of Information Processing Systems
    • /
    • v.16 no.6
    • /
    • pp.1437-1446
    • /
    • 2020
  • For the last few years, smart devices have begun to occupy an essential place in the life of children, by allowing them to access a variety of language activities and books. Various studies are being conducted on using smart devices for education. Our study extracts images and texts from kids' book with smart devices and matches the extracted images and texts to create new images that are not represented in these books. The proposed system will enable the use of smart devices as educational media for children. A deep convolutional generative adversarial network (DCGAN) is used for generating a new image. Three steps are involved in training DCGAN. Firstly, images with 11 titles and 1,164 images on ImageNet are learned. Secondly, Tesseract, an optical character recognition engine, is used to extract images and text from kids' book and classify the text using a morpheme analyzer. Thirdly, the classified word class is matched with the latent vector of the image. The learned DCGAN creates an image associated with the text.