• 제목/요약/키워드: Pixel labeling

검색결과 45건 처리시간 0.021초

Depth Evaluation from Pattern Projection Optimized for Automated Electronics Assembling Robots

  • Park, Jong-Rul;Cho, Jun Dong
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제3권4호
    • /
    • pp.195-204
    • /
    • 2014
  • This paper presents the depth evaluation for object detection by automated assembling robots. Pattern distortion analysis from a structured light system identifies an object with the greatest depth from its background. An automated assembling robot should prior select and pick an object with the greatest depth to reduce the physical harm during the picking action of the robot arm. Object detection is then combined with a depth evaluation to provide contour, showing the edges of an object with the greatest depth. The contour provides shape information to an automated assembling robot, which equips the laser based proxy sensor, for picking up and placing an object in the intended place. The depth evaluation process using structured light for an automated electronics assembling robot is accelerated for an image frame to be used for computation using the simplest experimental set, which consists of a single camera and projector. The experiments for the depth evaluation process required 31 ms to 32 ms, which were optimized for the robot vision system that equips a 30-frames-per-second camera.

Classification of Textured Images Based on Discrete Wavelet Transform and Information Fusion

  • Anibou, Chaimae;Saidi, Mohammed Nabil;Aboutajdine, Driss
    • Journal of Information Processing Systems
    • /
    • 제11권3호
    • /
    • pp.421-437
    • /
    • 2015
  • This paper aims to present a supervised classification algorithm based on data fusion for the segmentation of the textured images. The feature extraction method we used is based on discrete wavelet transform (DWT). In the segmentation stage, the estimated feature vector of each pixel is sent to the support vector machine (SVM) classifier for initial labeling. To obtain a more accurate segmentation result, two strategies based on information fusion were used. We first integrated decision-level fusion strategies by combining decisions made by the SVM classifier within a sliding window. In the second strategy, the fuzzy set theory and rules based on probability theory were used to combine the scores obtained by SVM over a sliding window. Finally, the performance of the proposed segmentation algorithm was demonstrated on a variety of synthetic and real images and showed that the proposed data fusion method improved the classification accuracy compared to applying a SVM classifier. The results revealed that the overall accuracies of SVM classification of textured images is 88%, while our fusion methodology obtained an accuracy of up to 96%, depending on the size of the data base.

직물 이미지 결함 탐지를 위한 딥러닝 기술 연구: 트랜스포머 기반 이미지 세그멘테이션 모델 실험 (Deep Learning Models for Fabric Image Defect Detection: Experiments with Transformer-based Image Segmentation Models)

  • 이현상;하성호;오세환
    • 한국정보시스템학회지:정보시스템연구
    • /
    • 제32권4호
    • /
    • pp.149-162
    • /
    • 2023
  • Purpose In the textile industry, fabric defects significantly impact product quality and consumer satisfaction. This research seeks to enhance defect detection by developing a transformer-based deep learning image segmentation model for learning high-dimensional image features, overcoming the limitations of traditional image classification methods. Design/methodology/approach This study utilizes the ZJU-Leaper dataset to develop a model for detecting defects in fabrics. The ZJU-Leaper dataset includes defects such as presses, stains, warps, and scratches across various fabric patterns. The dataset was built using the defect labeling and image files from ZJU-Leaper, and experiments were conducted with deep learning image segmentation models including Deeplabv3, SegformerB0, SegformerB1, and Dinov2. Findings The experimental results of this study indicate that the SegformerB1 model achieved the highest performance with an mIOU of 83.61% and a Pixel F1 Score of 81.84%. The SegformerB1 model excelled in sensitivity for detecting fabric defect areas compared to other models. Detailed analysis of its inferences showed accurate predictions of diverse defects, such as stains and fine scratches, within intricated fabric designs.

장애물 인식 지능을 갖춘 자율 이동로봇의 구현 (Implementation of a Self Controlled Mobile Robot with Intelligence to Recognize Obstacles)

  • 류한성;최중경
    • 대한전자공학회논문지SP
    • /
    • 제40권5호
    • /
    • pp.312-321
    • /
    • 2003
  • 본 논문은 장애물을 인식하고 회피하면서 목적지까지 자율적으로 이동할 수 있는 로봇을 구현한 논문이다. 우리는 본 논문에서 영상처리보드의 구현이라는 하드웨어적인 부분과 자율 이동로봇을 위한 영상궤환 제어라는 소프트웨어의 두 가지 결과를 나타내었다. 첫 번째 부분에서, 영상처리를 수행하는 제어보드로부터 명령을 받는 로봇을 나타내었다. 우리는 오랫동안 CCD카메라를 탑재한 자율 이동로봇에 대하여 연구해왔다. 로봇의 구성은 DSP칩을 탑재한 영상보드와 스텝모터 그리고 CCD카메라로 구성된다. 시스템 구성은 이동로봇의 영상처리 보드에서 영상을 획득하고 영상처리 알고리즘을 수행하고 로봇의 이동경로를 계산한다. 이동로봇에 탑재된 CCD카메라에서 획득한 영상 정보는 매 샘플링 시간마다 캡쳐한다. 화면에서 장애물의 유무를 판별한 후 좌 혹은 우로 회전하여 장애물을 회피하고 이동한 거리를 Feedback하는 시스템을 구현하여 초기에 지정한 목표지점가지 로봇이 갈 수 있도록 간략한 경로를 계획하여 절대좌표를 추적해 나가는 알고리즘을 구현한다. 이러한 영상을 획득하고 알고리즘을 처리하는 영상처리 보드의 구성은 DSP (TMS320VC33), ADV611, SAA7111, ADV7176A, CPLD(EPM7256ATC144), SRAM 메모리로 구성되어 있다. 두 번째 부분에서는 장애물을 인식하고 회피하기 위하여 두 가지의 영상궤환 제어 알고리즘을 나타낸다. 첫 번째 알고리즘은 필터링, 경계검출 NOR변환, 경계치 설정 등의 영상 전처리 과정을 거친 영상을 분할하는 기법이다. 여기에서는 Labeling과 Segmentation을 통한 pixel의 밀도 계산이 도입된다. 두 번째 알고리즘은 위와 같이 전처리된 영상에 웨이브렛 변환을 이용하여 수직방향(y축 성분)으로 히스토그램 분포를 20 Pixel 간격으로 스캔한다. 파형 변화에 의하여 장애물이 있는 부분의 히스토그램 분포는 거의 변동이 없이 나타난다. 이러한 특성을 분석하여 장애물이 있는 곳을 찾아내고 이것을 회피하기 위한 알고리즘을 세웠다. 본 논문은 로봇에 장착된 한 개의 CCD 카메라를 이용하여 장애물을 회피하면서 초기에 설정해둔 목적지가지 도달하기 위한 알고리즘을 제안하였으며, 영상처리 보드를 설계 및 제작하였다. 영상처리 보드는 일반적인 보드보다 빠른 속도(30frame/sec)와 해상도를 지원하며 압축 알고리즘을 탑재하고 있어서 영상을 전송하는 데에 있어서도 탁월한 성능을 보인다.

DCT와 정보 화소 밀도를 이용한 PDA로 획득한 명함 영상에서의 영역 해석 (Region Analysis of Business Card Images Acquired in PDA Using DCT and Information Pixel Density)

  • 김종흔;장익훈;김남철
    • 한국통신학회논문지
    • /
    • 제29권8C호
    • /
    • pp.1159-1174
    • /
    • 2004
  • 본 논문에서는 PDA에 장착된 카메라를 사용하여 획득한 명함 영상에 대한 효율적인 영역 해석 알고리듬을 제안한다. 제안된 방법은 크게 영역 분할, 정보 영역 분류, 문자 영역 분류의 3개 과정으로 구성된다. 영역 분할에서는 입력 명함 영상을 8${\times}$8 크기의 블록으로 나누고 각 블록을 저주파 대역에서의 정규화 된 DCT 계수의 에너지를 이용하여 정보 블록과 배경 블록으로 분류한 다음, 블록에 대한 영역 라벨링을 통하여 정보 영역과 배경 영역으로 분할한다. 정보 영역 분류에서는 각 정보 영역을 블록 신호의 수평, 수직 방향 에지 성분과 저주파 대역에서의 DCT 계수의 에너지 비와 이진화 된 정보 영역 내에서의 흑화소인 정보 화소의 밀도를 이용하여 문자 영역과 배경 영역으로 분류한다. 문자 영역 분류에서는 분류된 문자 영역을 정보 화소의 밀도와 평균 런 길이를 이용하여 다시 큰 문자와 작은 문자 영역으로 분류한다. 실험결과 제안된 영역 해석 방법은 여러 종류의 명함을 다양한 주변 여건에서 PDA로 획득한 시험 영상에 대하여 정보 영역과 배경 영역을 잘 분할하고, 정보 영역을 문자 영역과 그림 영역으로 잘 분류하며, 다시 문자 영역을 큰 문자와 작은 문자 영역으로 잘 분류함을 보였다 그리고 제안된 영역 분할 방법과 정보 영역 분류 방법은 기존의 방법들보다 각각 약 2.2-10.1%와 7.7%의 에러율 향상을 보였다.

임의 형상의 윤곽선 시퀀스 정보로부터 형상 특징의 효율적인 연산 방법 (An Efficient Shape-Feature Computing Method from Boundary Sequences of Arbitrary Shapes)

  • 김성옥;김동규;김민환
    • 한국멀티미디어학회논문지
    • /
    • 제5권3호
    • /
    • pp.255-262
    • /
    • 2002
  • 윤곽선 시퀀스는 임의 형상을 간단하면서도 정확하게 표현할 수 있는 좋은 표현법이 될 수 있다. 그러나, 형상을 구성하는 화소로부터 쉽게 구할 수 있는 면적, 무게중심, 오리엔테이션 방향, 투영 히스토그램 등과 같은 형상 특징들을 윤곽선 시퀀스로부터 직접 구하기는 어렵기 때문에, 윤곽선 시퀀스를 임의 형상에 대한 표현법으로 잘 사용하지 못하였다. 본 논문에서는 형상 내부의 연속된 화소들로 구성된 수직(또는 수평)의 라인 세그먼트를 의미하는 크로스 섹션 개념을 이용하여, 윤곽선 시퀀스로부터 형상 특징들을 쉽게 구할 수 있음을 보인다. 윤곽선 시퀀스를 한번 순차적으로 탐색함으로써 크로스 섹션을 효율적으로 구할 수 있는 방법을 제안한다. 또한, 이진 영상으로부터 여러 형상의 윤곽선 시퀀스를 자동으로 추출할 수 있는 효율적인 방법도 함께 제안한다. 제안된 방법들은 형상 내부에 홀(hole)이 있는 경우에도 적용할 수 있다. 결과적으로, 윤곽선 시퀀스가 임의 형상 영역에 대한 매우 효과적인 표현이 될 수 있음을 밝힌다.

  • PDF

예측 후보 영역에서의 지역적 대비 차 계산 방법을 활용한 실시간 소형 표적 검출 (Real-time Small Target Detection using Local Contrast Difference Measure at Predictive Candidate Region)

  • 반종희;왕지현;이동화;유준혁;유성은
    • 한국산업정보학회논문지
    • /
    • 제22권2호
    • /
    • pp.1-13
    • /
    • 2017
  • 본 논문에서는 낮은 SNR을 가지는 적외선 영상에서 강인한 소형 표적 검출을 위해 모폴로지 차 연산을 수행하여 표적 후보 영역을 찾고 화소 라벨링을 통해 후보 영역의 위치를 찾는다. 기존의 모폴로지 연산 기반의 표적 검출 방법들은 적외선 영상에 존재하는 클러터에 취약하다는 단점으로 인해 검출 정확도가 낮다. 이러한 문제를 해결하기 위해 본 논문에서는 후보 영역에서 표적과 배경 잡음을 분류하기 위해 Moravec 알고리즘과 LCM(Local Contrast Measure) 알고리즘을 결합함으로써 표적 향상과 배경 잡음 억제를 동시에 달성한다. 또한, 제안하는 알고리즘은 기존에 실시간 표적 검출을 위해 개발되었던 모폴로지 연산과 가우시안 거리 함수를 이용한 표적 검출 방법의 단일 객체에 제한적인 검출 문제를 해결하여 복수 객체를 효율적으로 검출할 수 있다.

적외선영상에서 배경모델링 기반의 실시간 객체 탐지 시스템 (Real-Time Object Detection System Based on Background Modeling in Infrared Images)

  • 박장한;이재익
    • 전자공학회논문지CI
    • /
    • 제46권4호
    • /
    • pp.102-110
    • /
    • 2009
  • 본 논문은 적외선영상(infrared image)에서 배경모델링 기반의 실시간 객체 탐지 기법과 고속 PPC(PowerPC) & FPGA(Field Programmable Gate Array) 기반 개방형 구조의 하드웨어 설계 방법을 제안한다. 개방형 구조는 하드웨어 및 소프트웨어의 이식이 용이하고, 확장, 호환성, 관리 및 유지보수 등이 편리한 장점이 있다. 제안된 배경모델링 방법을 개방형 구조에 탑재하기 위하여 입력영상에서 검색영역 템플릿을 성긴 블록으로 구성하여 탐색영역의 크기를 줄인다. 또한, 이전 프레임과 현재 프레임에서 영상의 흔들림이 발생했을 때 보정하기 위해 전역움직임 보상방법을 적용한다. 배경과 객체를 분리는 픽셀 밝기의 시간 분석을 통해 적응적 값을 적용한다. 분리된 객체주변에 발생하는 클러터 제거 방법은 중앙값 필터를 적용한다. 설계된 임베디드 시스템에서 배경모델링, 객체탐지, 중앙값 필터, 라벨링, 합병 등의 방법은 PPC에서 구현하였다. 실험결과 제안된 임베디드 시스템에서 전역 움직임 보정과 배경예측을 통해 실시간으로 객체가 탐지될 수 있음을 보였다.

주성분 분석과 Blob 군집화를 이용한 열화상 사람 검출 시스템의 성능 향상 (Performance Improvement of Human Detection in Thermal Images using Principal Component Analysis and Blob Clustering)

  • 조아라;박정식;서용호;장길진
    • 한국인터넷방송통신학회논문지
    • /
    • 제13권2호
    • /
    • pp.157-163
    • /
    • 2013
  • 본 논문에서는 조명이 없는 야간 및 악천후 등 가시영상 카메라를 이용하여 사람 영역을 추정하기 힘든 환경에서의 대안으로 열화상 카메라를 이용한 사람검출 방법을 제안한다. 일반적인 열화상에서 사람은 주변 배경에 비해 밝게 표현되는 특징을 이용하여, 밝기 히스토그램 상의 사람의 열화상의 신뢰 구간을 계산해 1차적으로 사람 영역을 추정한 뒤, 가우시안 필터링 및 레이블링을 통해 불필요한 잡음을 제거한다. 그 이후에 Self-occlusion 등에 의해 분리된 사람 영역을 각 blob별 무게중심 및 분포정보를 이용하여 하나의 객체 영역을 추정한다. 최종적으로 추정 영역에 대한 가로와 세로의 비율 및 크기 정보와 주성분분석(PCA; principal component analysis)를 이용하여 추정된 영역에 대하여 사람인지 여부를 결정한다. 실험결과를 통하여, 제안된 방법은 가시영상에서 검출하기 힘든 환경들에 대하여 좋은 성능을 나타내는 것을 알 수 있었다.

Haar-like Feature 및 CLNF 알고리즘을 이용한 차량 번호판 인식 (A Vehicle License Plate Recognition Using the Haar-like Feature and CLNF Algorithm)

  • 박승현;조성원
    • 스마트미디어저널
    • /
    • 제5권1호
    • /
    • pp.15-23
    • /
    • 2016
  • 본 논문은 한국의 차량 번호판 인식에 효과적인 방법을 제안한다. 획득한 자동차 이미지로부터 Haar-Like Feature를 이용해 대략적인 번호판 후보 영역을 찾아낸 후, 랭크 필터를 사용하여 전처리를 하고 캐니 에지 추출 (Canny Edge Detecting) 알고리즘을 이용하여 연결된 사각형을 찾아 번호판을 추출한다. 추출된 번호판의 색상 정보를 이용하여 흰색/녹색 번호판을 구분하고, 각 번호판을 OTSU 이진화와 주변 전경 픽셀 전파 알고리즘인 CLNF (CCLUF with NFPP)을 통해 문자를 제외한 잡음을 제거하고 레이블링하여 숫자 및 문자 영역을 분리한다. 분리된 문자 영역은 메쉬 방법 및 세선화 후 X-Y 투영 방법으로 특징 벡터를 추출한다. 추출된 특징 벡터는 역전파 알고리즘을 사용하여 학습된 신경망을 이용하여 문자 인식을 수행한다. 제안된 차량 번호판 인식 알고리즘의 효과적 동작은 실험을 통해 확인하였다.