• 제목/요약/키워드: Segmentation Processing

검색결과 1,038건 처리시간 0.024초

A Study on Two-Dimensional Variational Mode Decomposition Applied to Electrical Resistivity Tomography

  • Sanchez, Felipe Alberto Solano;Khambampati, Anil Kumar;Kim, Kyung Youn
    • 전기전자학회논문지
    • /
    • 제26권3호
    • /
    • pp.475-482
    • /
    • 2022
  • Signal pre-processing and post-processing are some areas of study around electrical resistance tomography due to the low spatial resolution of pixel-based reconstructed images. In addition, methods that improve integrity and noise reduction are candidates for application in ERT. Lately, formulations of image processing methods provide new implementations and studies to improve the response against noise. For example, compact variational mode decomposition has recently shown good performance in image decomposition and segmentation. The results from this first approach of C-VMD to ERT show an improvement due to image segmentation, providing filtering of noise in the background and location of the target.

확률 기반 미등록 단어 분리 및 태깅 (Probabilistic Segmentation and Tagging of Unknown Words)

  • 김보겸;이재성
    • 정보과학회 논문지
    • /
    • 제43권4호
    • /
    • pp.430-436
    • /
    • 2016
  • 형태소 분석시 나타나는 고유명사나 신조어 등의 미등록어에 대한 처리는 다양한 도메인의 문서 처리에 필수적이다. 이 논문에서는 3단계 확률 기반 형태소 분석에서 미등록어를 분리하고 태깅하기 위한 방법을 제시한다. 이 방법은 고유명사나 일반명사와 같은 개방어 뒤에 붙는 다양한 접미사를 분석하여 미등록 개방어를 추정할 수 있도록 했다. 이를 위해 형태소 품사 부착 말뭉치에서 자동으로 접미사 패턴을 학습하고, 확률 기반 형태소 분석에 맞도록 미등록 개방어의 분리 및 태깅 확률을 계산하는 방법을 제시하였다. 실험 결과, 제안한 방법은 새로운 미등록 용어가 많이 나오는 문서에서 미등록어 처리 성능을 크게 향상시켰다.

Optical Character Recognition for Hindi Language Using a Neural-network Approach

  • Yadav, Divakar;Sanchez-Cuadrado, Sonia;Morato, Jorge
    • Journal of Information Processing Systems
    • /
    • 제9권1호
    • /
    • pp.117-140
    • /
    • 2013
  • Hindi is the most widely spoken language in India, with more than 300 million speakers. As there is no separation between the characters of texts written in Hindi as there is in English, the Optical Character Recognition (OCR) systems developed for the Hindi language carry a very poor recognition rate. In this paper we propose an OCR for printed Hindi text in Devanagari script, using Artificial Neural Network (ANN), which improves its efficiency. One of the major reasons for the poor recognition rate is error in character segmentation. The presence of touching characters in the scanned documents further complicates the segmentation process, creating a major problem when designing an effective character segmentation technique. Preprocessing, character segmentation, feature extraction, and finally, classification and recognition are the major steps which are followed by a general OCR. The preprocessing tasks considered in the paper are conversion of gray scaled images to binary images, image rectification, and segmentation of the document's textual contents into paragraphs, lines, words, and then at the level of basic symbols. The basic symbols, obtained as the fundamental unit from the segmentation process, are recognized by the neural classifier. In this work, three feature extraction techniques-: histogram of projection based on mean distance, histogram of projection based on pixel value, and vertical zero crossing, have been used to improve the rate of recognition. These feature extraction techniques are powerful enough to extract features of even distorted characters/symbols. For development of the neural classifier, a back-propagation neural network with two hidden layers is used. The classifier is trained and tested for printed Hindi texts. A performance of approximately 90% correct recognition rate is achieved.

의미론적 영상 분할의 정확도 향상을 위한 에지 정보 기반 후처리 방법 (Post-processing Algorithm Based on Edge Information to Improve the Accuracy of Semantic Image Segmentation)

  • 김정환;김선혁;김주희;최형일
    • 한국콘텐츠학회논문지
    • /
    • 제21권3호
    • /
    • pp.23-32
    • /
    • 2021
  • 컴퓨터 비전 분야의 의미론적 영상 분할(Semantic Image Segmentation) 기술은 이미지를 픽셀 단위로 분할 하여 클래스를 나누는 기술이다. 이 기술도 기계 학습을 이용한 방법으로 성능이 빠르게 향상되는 중이며, 픽셀 단위의 정보를 활용할 수 있는 높은 활용성이 주목받는 기술이다. 그러나 이 기술은 초기부터 최근까지도 계속 '세밀하지 못한 분할'에 대한 문제가 제기되어 왔다. 이 문제는 레이블 맵의 크기를 계속 늘리면서 발생한 문제이기 때문에, 자세한 에지 정보가 있는 원본 영상의 에지 맵을 이용해 레이블 맵을 수정하여 개선할 수 있을 것으로 예상할 수 있었다. 따라서 본 논문은 기존 방법대로 학습 기반의 의미론적 영상 분할을 유지하되, 그 결과인 레이블 맵을 원본 영상의 에지 맵 기반으로 수정하는 후처리 알고리즘을 제안한다. 기존의 방법에 알고리즘의 적용 한 뒤 전후의 정확도를 비교했을 때 평균적으로 약 1.74% 픽셀 정확도와 1.35%의 IoU(Intersection of Union) 정확도가 향상되었으며, 결과를 분석했을 때 성공적으로 본래 목표한 세밀한 분할 기능을 개선했음을 보였다.

의미 정보를 이용한 이단계 단문분할 (Two-Level Clausal Segmentation using Sense Information)

  • 박현재;우요섭
    • 한국정보처리학회논문지
    • /
    • 제7권9호
    • /
    • pp.2876-2884
    • /
    • 2000
  • 단문분할은 한 문장에 용언이 복수개 있을 때 용언을 중심으로 문장을 나누는 방법이다. 기존의 방법은 정형화된 문장의 경우 비교적 효율적인 결과를 얻을 수 있으나, 구문적으로 복잡한 문장인 경우는 한계를 보였다. 본 논문에서는 이러한 한계를 극복하기 위해서 구문 정보만이 아니라, 의미 정보를 활용하여 단문을 분할하는 방법을 제안한다. 정형화된 문장의 경우와 달리 일상적인 문장은 무장 구조의 모호성이나 조사의 생략 등이 빈번하므로 의미 수준에서의 단문분할이 필요하다. 의미 영역에서 단문분할을 하면 기존의 구문 의존적인 방법들에서 발생하는 모호성을 상당수 해소할 수 있게 된다. 논문에서는 먼저 하위범주와 사전과 시소러스의 의미 정보를 이용하여 용언과 보어성분 간의 의존구조를 우선적으로 파악하고, 구문적인 정보와 기타 문법적인 지식을 사용하여 기타 성분을 의존구조에 점진적으로 포함시켜가는 이단계 단문분할 알고리즘을 제안한다. 제안된 이단계 단문분할 방법의 유용성을 보이기 위해 ETRI-KONAN의 말뭉치 중 25,000문장을 수작업으로 술어와 보어성분 간의 의존구조를 태깅한 후 본 논문에서 제안한 방법과 비교하는 실험을 수행하였으며, 이때 단문분할의 결과는 91.8%의 정확성을 보였다.

  • PDF

영상 분할 방법의 평가 (Evaluation of Image Segmentation Techniques)

  • 이성기;김효선
    • 한국정보처리학회논문지
    • /
    • 제2권4호
    • /
    • pp.524-534
    • /
    • 1995
  • 영상분할은 주어진 영상을 비슷한 성질을 지니는 영역들로 나누는 과정으로 컴퓨 터 비젼 분야에서 매우 오래 되었으면서도 어려운 문제이다. 지금 까지 많은 영상 분 할 방법들이 개발되었으며, 이러한 영상 분할 방법들을 평가하려는 연구가 계속되고 있으나 영상 분할의 특성상 많은 어려움이 있다. 본 연구에서는 영상 분할 방법을 자 동으로 평가하기 위하여 일반적으로 적용 가능한 평가 기준을 제시한다. 하나의 평가 기준이 가지는 약점을 보완하기 위하여 네 개의 평가기준, 즉 영역 경계선에 존재하 는 화소들의 차이 정도, 영역 경계선과 에지와의 일치 정도, 영역들 간의 유사 정도 및 영역들 간의 차이 정도를 통합한 평가 기준을 제시한다. 실험 결과를 통하여 제안 한 영상 분할 평가 방법이 매우 타당함을 알 수 있었다.

  • PDF

영역기반 방법의 영상 분할에서 과분할 방지를 위한 Adaptive Trimmed Mean 필터에 관한 연구 (A Study of ATM filter for Resolving the Over Segmentation in Image Segmentation of Region-based method)

  • 이완범
    • 대한전자공학회논문지SP
    • /
    • 제44권3호
    • /
    • pp.42-47
    • /
    • 2007
  • 영상 분할은 주어진 영상에서 관심 영역을 추출하거나 압축을 위한 비디오 처리 분야에서 중요한 부분이며 특히 영역 기반 비디오 코딩에서는 필수적인 부분이다. 영역 기반의 수리형태학적 영상분할에서는 영상을 단순화한 후 추출된 경사 영상을 가지고 영역 경계를 결정하는 워터쉐이드 기법을 이용하는 방법이 주로 제안되고 있다. 이 방법은 병합될 대상 영역의 수가 많아질수록 병합하는 과정에 필요한 계산량이 지수적으로 증가하고, 영상 내의 잡음이 직접 국부적 최소 점들로 표현되어 영역들의 경계에 대한 기울기에 영향을 주어 영상의 과분할을 초래하게 된다. 따라서 본 논문에서는 이러한 영상의 과분할 문제를 해결할 수 있는 ATM 필터를 제안하였다. 모의실험 결과 제안된 ATM 필터가 전체적인 잡음제거의 향상과 함께 잡음 비율이 20% 이상일 경우의 영상의 선명도 훼손의 정도가 줄어들었음을 확인하였다.

후두 내시경 영상에서의 성문 분할 및 성대 점막 형태의 정량적 평가 (Segmentation of the Glottis and Quantitative Measurement of the Vocal Cord Mucosal Morphology in the Laryngoscopic Image)

  • 이선민;오석;김영재;우주현;김광기
    • 한국멀티미디어학회논문지
    • /
    • 제25권5호
    • /
    • pp.661-669
    • /
    • 2022
  • The purpose of this study is to compare and analyze Deep Learning (DL) and Digital Image Processing (DIP) techniques using the results of the glottis segmentation of the two methods followed by the quantification of the asymmetric degree of the vocal cord mucosa. The data consists of 40 normal and abnormal images. The DL model is based on Deeplab V3 architecture, and the Canny edge detector algorithm and morphological operations are used for the DIP technique. According to the segmentation results, the average accuracy of the DL model and the DIP was 97.5% and 94.7% respectively. The quantification results showed high correlation coefficients for both the DL experiment (r=0.8512, p<0.0001) and the DIP experiment (r=0.7784, p<0.0001). In the conclusion, the DL model showed relatively higher segmentation accuracy than the DIP. In this paper, we propose the clinical applicability of this technique applying the segmentation and asymmetric quantification algorithm to the glottal area in the laryngoscopic images.

인식률을 향상한 한글문서 인식 알고리즘 개발 (Development of an image processing algorithm for korean document recognition)

  • 김희식;김영재;이평원
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1997년도 한국자동제어학술회의논문집; 한국전력공사 서울연수원; 17-18 Oct. 1997
    • /
    • pp.1391-1394
    • /
    • 1997
  • This paper proposes a new image processing algorithm to recognize korean documents. It take out the region of text area form input image, then it makes esgmentation of lines, words and characters in the text. A precision segmentation is very important to recognize the input document. The input image has 8-bit gray scaled resolution. Not only the histogram but also brightness dispersion graph are used for segmentation. The result shows a higher accuracy of document recognition.

  • PDF

Segmentation and Recognition of Korean Vehicle License Plate Characters Based on the Global Threshold Method and the Cross-Correlation Matching Algorithm

  • Sarker, Md. Mostafa Kamal;Song, Moon Kyou
    • Journal of Information Processing Systems
    • /
    • 제12권4호
    • /
    • pp.661-680
    • /
    • 2016
  • The vehicle license plate recognition (VLPR) system analyzes and monitors the speed of vehicles, theft of vehicles, the violation of traffic rules, illegal parking, etc., on the motorway. The VLPR consists of three major parts: license plate detection (LPD), license plate character segmentation (LPCS), and license plate character recognition (LPCR). This paper presents an efficient method for the LPCS and LPCR of Korean vehicle license plates (LPs). LP tilt adjustment is a very important process in LPCS. Radon transformation is used to correct the tilt adjustment of LP. The global threshold segmentation method is used for segmented LP characters from two different types of Korean LPs, which are a single row LP (SRLP) and double row LP (DRLP). The cross-correlation matching method is used for LPCR. Our experimental results show that the proposed methods for LPCS and LPCR can be easily implemented, and they achieved 99.35% and 99.85% segmentation and recognition accuracy rates, respectively for Korean LPs.