• 제목/요약/키워드: Vision-based control

검색결과 688건 처리시간 0.028초

Development of On-line Quality Sorting System for Dried Oak Mushroom - 3rd Prototype-

  • 김철수;김기동;조기현;이정택;김진현
    • Agricultural and Biosystems Engineering
    • /
    • 제4권1호
    • /
    • pp.8-15
    • /
    • 2003
  • In Korea, quality evaluation of dried oak mushrooms are done first by classifying them into more than 10 different categories based on the state of opening of the cap, surface pattern, and colors. And mushrooms of each category are further classified into 3 or 4 groups based on its shape and size, resulting into total 30 to 40 different grades. Quality evaluation and sorting based on the external visual features are usually done manually. Since visual features of mushroom affecting quality grades are distributed over the entire surface of the mushroom, both front (cap) and back (stem and gill) surfaces should be inspected thoroughly. In fact, it is almost impossible for human to inspect every mushroom, especially when they are fed continuously via conveyor. In this paper, considering real time on-line system implementation, image processing algorithms utilizing artificial neural network have been developed for the quality grading of a mushroom. The neural network based image processing utilized the raw gray value image of fed mushrooms captured by the camera without any complex image processing such as feature enhancement and extraction to identify the feeding state and to grade the quality of a mushroom. Developed algorithms were implemented to the prototype on-line grading and sorting system. The prototype was developed to simplify the system requirement and the overall mechanism. The system was composed of automatic devices for mushroom feeding and handling, a set of computer vision system with lighting chamber, one chip microprocessor based controller, and pneumatic actuators. The proposed grading scheme was tested using the prototype. Network training for the feeding state recognition and grading was done using static images. 200 samples (20 grade levels and 10 per each grade) were used for training. 300 samples (20 grade levels and 15 per each grade) were used to validate the trained network. By changing orientation of each sample, 600 data sets were made for the test and the trained network showed around 91 % of the grading accuracy. Though image processing itself required approximately less than 0.3 second depending on a mushroom, because of the actuating device and control response, average 0.6 to 0.7 second was required for grading and sorting of a mushroom resulting into the processing capability of 5,000/hr to 6,000/hr.

  • PDF

디스플레이에서 배경의 밝기와 색채 자극의 크기에 따른 컬러 어피어런스 모델링 (Colour Appearance Modelling based on Background Lightness and Colour Stimulus Size in Displays)

  • 홍지영
    • 한국인터넷방송통신학회논문지
    • /
    • 제18권4호
    • /
    • pp.43-48
    • /
    • 2018
  • 본 연구는 배경의 밝기와 색채 자극의 크기에 따라 색채를 동일하게 지각 할 수 있도록 디지털 색채 재현을 목적으로 수행되었다. 디스플레이의 진화에 따라 다양한 크기의 디스플레이 디바이스에서 보다 정확한 색채와 향상된 영상 재현은 화질에 전반적인 영향을 미치고 있다. 본 연구는 디지털 미디어 환경에서 시각적 특성을 반영한 디지털 색채 재현을 위해 중심와 시각과 주변시 시각의 특성을 분리하고 배경의 밝기와 색채 자극의 크기에 따른 기존 연구결과를 바탕으로 컬러 어피어런스 모델링을 계발하였다. 도출된 실험 결과를 바탕으로 분산분석을 통해 배경의 밝기와 색채 자극의 크기에 따른 컬러 어피어런스 모델링을 제안하였으며 제안된 모델을 근거로 하여 알고리즘 및 모델링 검증 작업을 실시하였다. 또한 디스플레이 접목을 위해 제안한 모델을 이용하여 실질적인 색채 제어 시스템을 구성하고 복합적인 화상이 입력 영상으로 제시될 경우의 방법도 제안하였다. 본 연구를 통해 입력 영상이 디스플레이 크기에 따라 전환 될 때 발생할 수 있는 색채 변환 오류를 인간의 시지각 관점에서 해결 하여 보다 정확한 색채 표현과 향상된 화질 영상 재현이 가능하다.

A modified U-net for crack segmentation by Self-Attention-Self-Adaption neuron and random elastic deformation

  • Zhao, Jin;Hu, Fangqiao;Qiao, Weidong;Zhai, Weida;Xu, Yang;Bao, Yuequan;Li, Hui
    • Smart Structures and Systems
    • /
    • 제29권1호
    • /
    • pp.1-16
    • /
    • 2022
  • Despite recent breakthroughs in deep learning and computer vision fields, the pixel-wise identification of tiny objects in high-resolution images with complex disturbances remains challenging. This study proposes a modified U-net for tiny crack segmentation in real-world steel-box-girder bridges. The modified U-net adopts the common U-net framework and a novel Self-Attention-Self-Adaption (SASA) neuron as the fundamental computing element. The Self-Attention module applies softmax and gate operations to obtain the attention vector. It enables the neuron to focus on the most significant receptive fields when processing large-scale feature maps. The Self-Adaption module consists of a multiplayer perceptron subnet and achieves deeper feature extraction inside a single neuron. For data augmentation, a grid-based crack random elastic deformation (CRED) algorithm is designed to enrich the diversities and irregular shapes of distributed cracks. Grid-based uniform control nodes are first set on both input images and binary labels, random offsets are then employed on these control nodes, and bilinear interpolation is performed for the rest pixels. The proposed SASA neuron and CRED algorithm are simultaneously deployed to train the modified U-net. 200 raw images with a high resolution of 4928 × 3264 are collected, 160 for training and the rest 40 for the test. 512 × 512 patches are generated from the original images by a sliding window with an overlap of 256 as inputs. Results show that the average IoU between the recognized and ground-truth cracks reaches 0.409, which is 29.8% higher than the regular U-net. A five-fold cross-validation study is performed to verify that the proposed method is robust to different training and test images. Ablation experiments further demonstrate the effectiveness of the proposed SASA neuron and CRED algorithm. Promotions of the average IoU individually utilizing the SASA and CRED module add up to the final promotion of the full model, indicating that the SASA and CRED modules contribute to the different stages of model and data in the training process.

Algorithm to determine injection position in olive flounder, Paralichthys olivaceus

  • Cha, Bong-Jin;Kwon, Mun-Gyeong;Kim, Hyun-Young;Park, Myoung-Ae
    • 한국어병학회지
    • /
    • 제26권2호
    • /
    • pp.59-64
    • /
    • 2013
  • This study aimed to develop an algorithm to determine the optimal injection position in olive flounder, Paralichthys olivaceus when a vaccine is injected into the fish by using a vision-based automatic equipment measruing the total length (TL), width and weight of the fish. Over a 5-month period, 500 olive flounders were examined to analyze the relation of the fish size and to the shape and location of its abdomen, using radiography, a ruler plate and scale. There were significant correlations between the TL and the shape and location of the abdomen. The abdomen was located 0.232TL - 2.7221 mm ($R^2$=0.8787) from the end of the mouth of the fish. The height and width of the abdomen in the fish were 0.1292TL + 1.8768 mm ($R^2$=0.7935) and 0.183TL-5.9791 mm ($R^2$=0.8641), respectively. The injection point in the abdominal region avoiding organs was determined by calculating the center of gravity of the abdomen volume. This can be expressed as g (0.2759TL - 2.0965, 0.1295TL - 4.2325) on the basis of TL line coordinates. The injection point by the expressed coordinates had errors for the x and y axes as 12.15 mm and 8.28 mm, respectively. These were enough to use the algorithm to injection for the equipment. This automated method to determine the position of any part in the fish can also be used for other purposes, for example, intramuscular injection or auto-tagging of fish.

안개발생시 운전자의 안전을 위한 멀티센서 기반의 차량 안전 시스템 설계 (Design of Vehicle Safety System based on Multi-sensor for Driver's Safety to Fog)

  • 박건영;전민호;오창헌
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2012년도 춘계학술대회
    • /
    • pp.837-839
    • /
    • 2012
  • 안개가 발생하였을 시 운전자는 시야가 확보되지 않아 운전에 어려움을 가지게 되고 이 경우 교통사고의 발생 확률이 매우 높다. 이러한 사고를 줄이고 운전자의 안전을 확보하기위한 방안으로는 운전자에게 현재의 상황을 인지하여 서비스를 제공하는 것이다. 본 논문에서는 안개가 발생할 경우 사고를 방지하기 위해 차량 안전 시스템을 이용하여 적절한 경고 및 제어를 하는 시스템을 제안한다. 제안하는 시스템은 차량외부에 설치된 습도, 조도 센서로부터 수집된 정보를 자동차 내부의 안개검출 시스템 컨트롤러에서 조건을 확인한 후 영상장비를 이용하여 최종적으로 안개가 발생하여 운전자의 시야가 확보되지 않을 경우 이벤트를 발생시키는 시스템이다.

  • PDF

Recognizing a polyhedron by network constraint analysis

  • Ishikawa, Seiji;Kubota, Mayumi;Nishimura, Hiroshi;Kato, Kiyoshi
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1991년도 한국자동제어학술회의논문집(국제학술편); KOEX, Seoul; 22-24 Oct. 1991
    • /
    • pp.1591-1596
    • /
    • 1991
  • The present paper describes a method of recognizing a polyhedron employing the notion of network constraint analysis. Typical difficulties in three-dimensional object recognition, other than shading, reflection, and hidden line problems, include the case where appearances of an object vary according to observation points and the case where an object to be recognized is occluded by other objects placed in its front, resulting in incomplete information on the object shape. These difficulties can, however, be solved to a large extent, by taking account of certain local constraints defined on a polyhedral shape. The present paper assumes a model-based vision employing an appearance-oriented model of a polyhedron which is provided by placing it at the origin of a large sphere and observing it from various positions on the surface of the sphere. The model is actually represented by the sets of adjacent faces pairs of the polyhedron observed from those positions. Since the shape of a projected face gives constraint to that of its adjacent face, this results in a local constraint relation between these faces. Each projected face of an unknown polyhedron on an acquired image is examined its match with those faces in the model, producing network constraint relations between faces in the image and faces in the model. Taking adjacency of faces into consideration, these network constraint relations are analyzed. And if the analysis finally provides a solution telling existence of one to one match of the faces between the unknown polyhedron and the model, the unknown polyhedron is understood to be one of those memorized models placed in a certain posture. In the performed experiment, a polyhedron was observed from 320 regularly arranged points on a sphere to provide its appearance model and a polyhedron with arbitrarily postured, occluded, or imposed another difficulty was successfully recognized.

  • PDF

가격 함수 및 비젼 정보를 이용한 이동매니퓰레이터의 작업 수행 (Task Performance of a Mobile Manipulator using Cost Function and Vision Information)

  • 강진구;이관형
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.345-354
    • /
    • 2005
  • 이동매니퓰레이터는 -이동로봇과 작업로봇이 직렬로 결합된 형태 - 작업 공간 밖에 존재하는 작업에 대하여 높은 성능으로 작업을 수행할 수 있으므로 고정 베이스 구조의 매니이퓰레이터에 비하여 다양한 작업 환경에서 유용하다. 임의의 위치에 있는 물체를 인식하기 위하여 이동매니퓰레이터에 부착된 2자유도의 능동카메라에 의해 입력되는 영상과 능동카메라의 기구학적 관계에 기초를 두는 직각좌표계를 이용하여 물체의 위치와 이동로봇의 위치를 구하는 방법을 제시한다. 동차행렬을 이용하여 이미지정보와 물체의 위치를 해석하므로 이동매니퓰레이터의 최적경로를 생성한다. 최종적으로, 물체의 인식을 통하여 작업로봇을 제어할 수 있는 조인트변수의 값을 계산한다. 제안된 방법은 제작된 이동매니퓰레이터로 시뮬레이션과 실험을 통하여 확인되어지고 논의된다.

  • PDF

허프 변환과 초점정보를 이용한 경계면 깊이 추정 (Boundary Depth Estimation Using Hough Transform and Focus Measure)

  • 권대순;이대종;전명근
    • 한국지능시스템학회논문지
    • /
    • 제25권1호
    • /
    • pp.78-84
    • /
    • 2015
  • 로봇 비전, 3차원 형상 모델링 그리고 모션 제어를 하기 위해 3차원 깊이 추정이 필요하다. 기존에 제안 되었던 깊이 추정 방법은 렌즈와 물체사이의 거리를 변화시켜 가면서 취득된, 일련의 전체영상에 대해서 초점값을 계산하는 방법에 기초하고 있다. 그러나 이러한 방법은 전체 영상에 대해서 초점값 계산을 위한 마스크 연산을 하기에 수행 시간이 오래 걸리는 단점이 있다. 이에 반해서 본 논문에서 제안하는 방법은 물체간의 깊이를 추정하는 시간을 개선하기 위하여 전체 영상을 고려하지 않고, 물체간의 경계면과 경계면 부근의 영상 정보만을 이용하여 깊이를 추정한다. 특히 직선과 원으로 구성된 물체의 경계면을 검출하기 위해서 허프 변환을 이용하였으며, 깊이 추정은 초점 정보를 이용하였다. PCB 영상을 이용하여 실험을 수행한 결과, 이전에 비해서 더욱 효과적인 깊이 추정이 가능함을 알 수 있었다.

비전 센서 기반의 사람 검출 및 계수 시스템 (Detecting and Counting People system based on Vision Sensor)

  • 박호식
    • 한국정보전자통신기술학회논문지
    • /
    • 제6권1호
    • /
    • pp.1-5
    • /
    • 2013
  • 보행자의 수는 건물의 출입자 제어, 보행자 소통 관리, 지역 내 유동량 측정 등에 있어서 매우 중요하게 이용되는 정보이다. 그러나 기존의 사람 검출 및 계수 시스템은 겹침이나 그림자나 조명에 의한 부정확한 검출로 인하여 정확한 계수의 어려움이 있었다. 본 논문에서는 카메라로부터 영상을 입력받아 적응적으로 배경 영상을 생성하여 처리함으로써 조명의 변화나 그림자 영향을 최소화 하였다. 또한 Kalman 필터와 Mean-Shift 알고리즘을 이용하여 중복 계수를 방지하여 계수의 정확도를 높일 수 있었다. 실험 결과 95.4%의 계수 정확도를 나타내어 제안된 방법이 사람의 검출 및 계수에 효율적임을 증명하였다.

에지 기반 영역확장 기법을 이용한 다양한 크기의 번호판 검출 (Detection of Various Sized Car Number Plates using Edge-based Region Growing)

  • 김재도;한영준;한헌수
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권2호
    • /
    • pp.122-130
    • /
    • 2009
  • 기존의 번호판 검출 기법들은 대부분 일정한 거리와 방향에서 촬영되어 번호판의 크기가 유사하고, 배경이 단순한 차량 전면 영상에 적용되는 한계를 가지고 있어서 번호판의 위치가 변하거나 조명 혹은 크기의 변화에 매우 취약하다. 본 논문에서는 이러한 기존 기법들의 문제점들을 극복하기 위하여 에지기반 영역확장 기법을 사용하는 번호판 검출기법을 제안한다. 1단계에서는 입력영상에서 예지영상을 얻고 번호판의 기하학적 특성을 갖는 에지 영역들을 검출하여 이들을 번호판 검색영역으로 정한다. 검색영역의 에지들을 기반으로 주변의 화소들을 색상을 기반으로 영역확장을 통해 분할하여 번호판의 기하학적 특성을 만족하는 영역들을 번호판 후보영역으로 정한다. 후보영역들은 자동차의 조명등과 같은 구조물과의 위상특성을 고려하여 최종결정한다. 본 논문에서 제안하는 기법은 번호판의 문자가 검출되지 않는 경우에도 번호판 위치의 검출이 가능하고 특히 작은 크기의 번호판 검출에 유리하며, 크기와 상관없이 번호판을 검출할 수 있음을 실험을 통해 입증하였다.