• 제목/요약/키워드: robot harvest

검색결과 18건 처리시간 0.025초

ICT Agriculture Support System for Chili Pepper Harvesting

  • Byun, Younghwan;Oh, Sechang;Choi, Min
    • Journal of Information Processing Systems
    • /
    • 제16권3호
    • /
    • pp.629-638
    • /
    • 2020
  • In this paper, an unmanned automation system for harvesting chili peppers through image recognition in the color space is proposed. We developed a cutting-edge technology in terms of convergence between information and communication technology (ICT) and agriculture. Agriculture requires a lot of manpower and entails hard work by the laborers. In this study, we developed an autonomous application that can obtain the head coordinates of a chili pepper using image recognition based on the OpenCV library. As an alternative solution to labor shortages in rural areas, a robot-based chili pepper harvester is proposed as a convergence technology between ICT and agriculture requiring hard labor. Although agriculture is currently a very important industry for human workers, in the future, we expect robots to have the capability of harvesting chili peppers autonomously.

Initial report of extraperitoneal pedicle dissection in deep inferior epigastric perforator flap breast reconstruction using the da Vinci SP

  • Jung, Ji Hyuk;Jeon, Yeo Reum;Lee, Dong Won;Park, Hyung Seok;Lew, Dae Hyun;Roh, Tae Suk;Song, Seung Yong
    • Archives of Plastic Surgery
    • /
    • 제49권1호
    • /
    • pp.34-38
    • /
    • 2022
  • The deep inferior epigastric perforator (DIEP) flap has been widely used for autologous breast reconstruction after mastectomy. In the conventional surgical method, a long incision is needed at the anterior fascia of the rectus abdominis muscle to obtain sufficient pedicle length; this may increase the risk of incisional hernia. To shorten the incision, several trials have investigated the use of endoscopic/robotic devices for pedicle harvest; however, making multiple additional incisions for port insertion and operating in the intraperitoneal field were inevitable. Here, we describe the first case, in which a DIEP free flap was successfully made using the da Vinci SP model. Our findings can help surgeons perform operations in smaller fields with a single port in the extraperitoneal space. Moreover, this method is expected to lead to fewer donor-related complications and faster healing.

시설재배 참외 수확 로봇 개발 (Development of Oriental Melon Harvesting Robot in Greenhouse Cultivation)

  • 하유신;김태욱
    • 생물환경조절학회지
    • /
    • 제23권2호
    • /
    • pp.123-130
    • /
    • 2014
  • 참외 재배환경은 토양 위의 수평바닥에서 재배된 것을 수확하여야 하며, 참외가 잎으로 덮여져 있어 인식이 어렵고, 덩굴성 줄기로 인해 참외를 그립하기에도 매우 불리하다. 이러한 재배환경에 적합하도록 엔드이펙트, 머니퓰레이터, 인식장치 등의 참외 수확 로봇을 개발하였고 이를 시험하였다. 엔드이펙터는 수확물을 잡기 위한 그립퍼와 줄기를 절단하는 커터로 구분되며, 그립퍼는 4개의 핑거가 동시에 구동하고, 커터는 2개로 전후진 동작이 되도록 설계하여 파지력과 절단력을 제어할 수 있도록 하였다. 머니퓰레이터는 중심축을 기준으로 회전을 하는 L-R형 모델에 직교 좌표형과 셔틀형 머니퓰레이터를 조합한 4축 매니플레이트 구조로 설계하였다. 인식장치는 1차 인식장치인 GVC와 2차 인식장치인 LVC를 이용하여 참외를 식별하고 그 중에서 당도나 숙도를 예측하여 선별하였다. 이 장치를 이용하여 로봇의 성능시험을 한 결과 수확시간은 평균 18.2sec/ea, 픽업율은 평균 91.4%, 손상율은 평균 8.2%, 선별율은 평균 72.6%로 나타났다.

오이수확로봇의 영상처리를 위한 형상인식 알고리즘에 관한 연구 (The Research of Shape Recognition Algorithm for Image Processing of Cucumber Harvest Robot)

  • 민병로;임기택;이대원
    • 생물환경조절학회지
    • /
    • 제20권2호
    • /
    • pp.63-71
    • /
    • 2011
  • 영상처리는 정확한 오이의 형상 및 위치를 인식하기 위하여 형상인식 알고리즘에 대한 연구를 수행하였다. 다양한 오이형상을 인식하기 위한 방법으로는 신경회로망의 연상 메모리 알고리즘을 이용하여 오이의 특정형상을 인식하였다. 형상인식은 실제영상에서 오이의 형상과 위치를 판정할 수 있도록 알고리즘을 개발한 결과, 다음과 같은 결론을 얻었다. 본 알고리즘에서는 일정한 학습패턴의 수를 2개, 3개, 4개를 각각 기억시켜 샘플패턴 20개를 실험하여 연상시킨 결과, 학습패턴으로 복원된 출력패턴의 비율은 각각 65.0%, 45.0%, 12.5%로 나타났다. 이는 학습패턴의 수가 많을수록 수렴할 때, 다른 출력패턴으로 많이 검출되었다. 오이의 특정형상 검출은 $30{\times}30$간격으로 자동검출 되도록 처리하였다. 실제영상에서 자동 검출로 처리한 결과, 오이인식의 처리시간은 약 0.5~1초/1개(패턴) 빠르게 검출되었다. 또한, 다섯 개의 실제 영상에서 실험한 결과, 학습패턴에 대한 다른 출력패턴은 96~99%의 제거율을 나타내었다. 오이로 인식된 출력패턴 중에서, 오검출된 출력패턴의 비율은 0.1~4.2%를 나타내었다. 본 연구에서는 신경회로망을 이용하여 오이의 형상 및 위치를 인식할 수 있도록 알고리즘을 개발하였다. 오이의 위치측정은 실제영상에서 학습패턴과 유사한 출력패턴의 좌표를 가지고, 오이의 위치좌표를 추정할 수 있었다.

포도수확용 로봇 개발을 위한 영상처리시스템 (An Image Processing System for the Harvesting robot$^{1)}$ )

  • Lee, Dae-Weon;Kim, Dong-Woo;Kim, Hyun-Tae;Lee, Yong-Kuk;Si-Heung
    • 생물환경조절학회지
    • /
    • 제10권3호
    • /
    • pp.172-180
    • /
    • 2001
  • 본 연구에서는 포도 수확기 개발을 위하여 가장 중요한 영상처리 알고리즘을 개발하고자 두 대의 카메라를 이용한 스트레오 영상 시스템을 개발하였다. 따라서 3차원 공간상의 포도를 카메라로부터 얻어진 2차원 평면 영상을 분석한 후 알고리즘을 개발하였다. 이를 이용하여 포도 수확을 위한 3차원 공간영상의 거리정보를 획득할 수 있도록 알고리즘을 연구한 결과, 다음과 같은 결론을 얻었다. 가. 모형 포도를 이용한 실내에서의 스트레오 영상 거리 계측 결과 실제거리 1100mm까지는 오차가 5mm 이하로 비교적 정확하게 계측할 수 있었다. 그러나 실제거리 1200mm이상에서는 10mm 이상으로 비교적 오차가 크게 나타났다. 이는 거리가 멀어지면서 영상의 화소값을 통한 거리 계측에서 단위화소에 해당하는 실제거리의 정확도가 감소하였기 때문인 것으로 판단되었다. 나. 현장에서 획득한 포도 영상을 이용한 스트레오 영상 거리계측 결과 실제거리와 계측거리간의 오차가 5mm 이내로서 비교적 정확하게 측정되었다. 따라스 스트레오 영상을 이용한 포도까지의 거리계측용 영상처리 시스템은 현장에서도 적용가능 할 것으로 판단되었다.

  • PDF

인공신경망 기반 온실 외부 온도 예측을 통한 난방부하 추정 (Outside Temperature Prediction Based on Artificial Neural Network for Estimating the Heating Load in Greenhouse)

  • 김상엽;박경섭;류근호
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권4호
    • /
    • pp.129-134
    • /
    • 2018
  • 최근, 인공신경망 모델은 예측, 수치제어, 로봇제어, 패턴인식 등의 분야에서 촉망되는 기술이다. 본 연구에서는 인공신경망 모델을 이용하여 온실 외부 온도를 예측하고 이를 온실제어에 활용하는데 목적이 있다. 예측 모델의 성능 평가를 위해 다중회귀모델과 SVM 모델과의 비교분석을 수행하였다. 평가 방법으로는 10-Fold Cross Validation을 사용하였으며, 예측 성능 향상을 위해 상관관계분석 통해 데이터 축소를 수행하였고, 측정 데이터로부터 새로운 Factor 추출하여 데이터의 신뢰성을 확보하였다. 인공신경망 구축을 위해 Backpropagation algorithm을 사용하였으며, 다중회귀모델은 M5 method로 구축하였고, SVM 모델을 epsilon-SVM으로 구축하였다. 각 모델의 비교분석 결과 각각 0.9256, 1.8503과 7.5521로 나타났다. 또한 예측모델을 온실 난방부하 계산에 적용함으로써 온실에 사용되는 에너지 비용 절감을 통한 수입증대에 기여할 수 있다. 실험한 온실의 난방부하는 3326.4kcal/h이며, 총 난방시간이 $10000^{\circ}C/h$일 때 연료소비량은 453.8L로 예측된다. 아울러 데이터 마이닝 기술 중 하나인 인공신경망을 정밀온실제어, 재배기법, 수확예측 등 다양한 농업 분야에 적용함으로써 스마트 농업으로의 발전에 기여할 수 있다.

UAV 항공 영상에서의 딥러닝 기반 잣송이 검출 (Deep Learning Based Pine Nut Detection in UAV Aerial Video)

  • 김규민;박성준;황승준;김희영;백중환
    • 한국항행학회논문지
    • /
    • 제25권1호
    • /
    • pp.115-123
    • /
    • 2021
  • 잣은 우리나라 대표적인 견과류 임산물이자 수익형 작물이다. 그러나 잣송이는 사람이 직접 나무 위로 올라가 수확하기 때문에 위험성이 높다. 이러한 문제를 해결하기 위해서 로봇 또는 UAV(unmanned aerial vehicle)를 이용한 잣송이 수확이 필요하다. 본 논문에서는 UAV를 이용한 잣송이 수확을 위해 UAV 항공 영상에서 딥러닝(deep learning) 기반의 잣송이 검출 기법을 제안한다. 이를 위해, UAV를 이용하여 실제 잣나무 숲에서 동영상을 촬영했으며, 적은 수의 데이터 보완을 위해 데이터 증강기법을 사용했다. 3D 검출을 위한 데이터로는 Unity3D을 이용하여 가상 잣송이 및 가상환경을 3D 모델링 하였으며 라벨링은 좌표계의 3차원 변환법을 이용해 구축했다. 잣 분포 영역 검출, 잣 객체에 대한 2D 및 3D 검출을 위한 딥러닝 알고리즘은 DeepLabV3, YOLOv4, CenterNet을 각각 이용하였다. 실험 결과, 잣송이 분포 영역 검출률은 82.15%, 2D 검출률은 86.93%, 3D 검출률은 59.45%이었다.

합성곱 신경망을 이용한 '미황' 복숭아 과실의 성숙도 분류 (Grading of Harvested 'Mihwang' Peach Maturity with Convolutional Neural Network)

  • 신미희;장경은;이슬기;조정건;송상준;김진국
    • 생물환경조절학회지
    • /
    • 제31권4호
    • /
    • pp.270-278
    • /
    • 2022
  • 본 연구는 무대재배 복숭아 '미황'을 대상으로 성숙기간 중 RGB 영상을 취득한 후 다양한 품질 지표를 측정하고 이를 딥러닝 기술에 적용하여 복숭아 과실 숙도 분류의 가능성을 탐색하고자 실시하였다. 취득 영상 730개의 데이터를 training과 validation에 사용하였고, 170개는 최종테스트 이미지로 사용하였다. 본 연구에서는 딥러닝을 활용한 성숙도 자동 분류를 위하여 조사된 품질 지표 중 경도, Hue 값, a*값을 최종 선발하여 이미지를 수동으로 미성숙(immature), 성숙(mature), 과숙(over mature)으로 분류하였다. 이미지 자동 분류는 CNN(Convolutional Neural Networks, 컨볼루션 신경망) 모델 중에서 이미지 분류 및 탐지에서 우수한 성능을 보이고 있는 VGG16, GoogLeNet의 InceptionV3 두종류의 모델을 사용하여 복숭아 품질 지표 값의 분류 이미지별 성능을 측정하였다. 딥러닝을 통한 성숙도 이미지 분석 결과, VGG16과 InceptionV3 모델에서 Hue_left 특성이 각각 87.1%, 83.6%의 성능(F1 기준)을 나타냈고, 그에 비해 Firmness 특성이 각각 72.2%, 76.9%를 나타냈고, Loss율이 각각 54.3%, 62.1%로 Firmness를 기준으로 한 성숙도 분류는 적용성이 낮음을 확인하였다. 추후에 더 많은 종류의 이미지와 다양한 품질 지표를 가지고 학습이 진행된다면 이전 연구보다 향상된 정확도와 세밀한 성숙도 판별이 가능할 것으로 판단되었다.