• 제목/요약/키워드: 작물 이미지 정보

검색결과 16건 처리시간 0.024초

비파괴 작물 생육측정장치 개발 및 활용방법

  • 정수호;이형석;조혜성;조연진;안호섭;정종모;김희곤
    • 한국작물학회:학술대회논문집
    • /
    • 한국작물학회 2023년도 춘계학술대회
    • /
    • pp.24-24
    • /
    • 2023
  • 현대화된 재배법은 작물의 생육을 위해 시설내부의 환경을 제어하고 실시간 센싱 정보를 저장하는 시스템을 구축하고 이를 활용하고 있으나, 작물의 생육·생장에 미치는 직접적인 영향에 대한 생육데이터 취득은 아직까지도 전문 재배사·농민이 수작업을 통해 조사되고 있다. 본 연구는 작물의 생육데이터 자동 취득을 위한 장치를 개발하고 이를 실용화하기 위한 정확도 측정 시험을 진행하였다. 실험을 위한 장치구성은 3D Depth 카메라(Intel D415)와 운용 PC이며 딥러닝 모델을 이용하여 작물의 세부기관을 자동으로 인식하는 모델을 포함한다. 장치는 다양한 재배환경의 작물 생육데이터 취득을 위하여 휴대용, 고정형, 로봇형 3가지 유형으로 개발하였고 측정 정확도 검증은 휴대용 생육측정장치를 활용하여 조사하였다. 이러한 연구를 통해 수작업이 아닌 영상에 의한 생육 데이터수집으로 작물의 생육정보(측정값+이미지)를 확보함으로써 환경데이터와 함께 객관적인 정보에 의한 작물의 생산량, 수확시기 등을 예측하는데 활용될 수 있을것으로 예상된다.

  • PDF

블루베리 잎 이미지를 이용한 잎맥 밀도 산출 시스템의 구현 (A Leaf Vein Density Calculation System Using Blueberry Leaf Images)

  • 장경주;박은석;최동환;김영균
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.295-297
    • /
    • 2023
  • 채식이 점차 보편화되어감에 따라 소비자를 만족시키기 위한 양질의 작물 생산 및 신품종 개발 필요성도 커져가고 있다. 이 때 식물의 건강 상태나 당도, 식감 등의 품질 조사를 위해서는 표현형 데이터 획득이 필수적이다. 표현형이란 식물의 잎과 줄기, 과실 등에서 겉으로 드러나는 형질을 의미하며, 잎맥밀도도 중요한 표현형 중 하나이다. 하지만 이를 연구자가 수작업으로 조사할 경우에는 시간과 노동력 소모가 크며 측정 인력이나 측정 환경에 따른 오차도 큰 문제점이 있다. 따라서 본 연구에서는 디지털 기술을 통해 잎 이미지에서 잎맥을 추출하여 잎맥 밀도를 분석하는 시스템을 구현함으로써 작물 생산 자동화 및 신품종 개발 효율성 향상에 기여하고자 한다.

작물 생산률 향상을 위한 생장 환경 변화 탐지 CCMS(Crop Classification Management System) (CCMS (Crop Classification Management System) Detecting Growth Environment Changes to Improve Crop Production Rate)

  • 최호길;이병관;손수락;안희학
    • 한국정보전자통신기술학회논문지
    • /
    • 제13권2호
    • /
    • pp.145-152
    • /
    • 2020
  • 본 논문에서는 작물의 생산 비율 향상을 위하여 생장 환경 변화를 탐지하는 CCMS(Crop Classification Management System)를 제안한다. CCMS는 첫째, CNN을 이용하여 이미지를 통해 작물의 종류를 구분하는 Crop Classification Module(CCM)과 둘째, 농장의 누적 데이터를 비교하여 농작물의 이상을 탐지하는 FADM(Farm Anomaly Detection Module)로 구성된다. CCMS의 CCM은 잎 이미지를 통하여 현재 농장에서 재배되는 작물을 인식하고 FADM에 전송하고, FADM은 해당 작물을 재배하는 농장의 과거부터 현재까지 기상데이터를 선택하여 그것을 넬슨 규칙에 적용한다. FADM은 넬슨 규칙을 통하여 이상이 발생한 기상데이터를 찾아내고, IoT 디바이스를 통하여 농장의 환경을 조절한다. CCMS의 성능분석 결과 CCMS의 CCM은 약 90%의 작물 분류 정확도를 갖고, FADM은 예측 수확량을 최대 약 30%가량 향상시키는 것으로 나타났다. 즉, CCMS를 통해 농장을 관리하는 것이 스마트 팜의 수확량 증가에 도움을 줄 수 있다.

모바일 환경에서의 3D 가상공간 농업 시뮬레이션 게임 (3D Virtual Space Agriculture Education Game on Mobile Environment)

  • 유환수;김성환
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2009년도 추계학술발표대회
    • /
    • pp.909-910
    • /
    • 2009
  • 본 논문은 모바일 단말 환경에서 3D 가상공간상에 접속하여 작물재배, 가축사육 등을 체험 할 수 있는 환경을 제공할 수 있도록 한다. 기존의 웹 형태를 통한 온라인 농작물재배/가축사육 시뮬레이션에서는 각종 자료와 정지화상(사진이미지)를 제공하고 있으며 사용자는 웹 접속을 통하여 학습 및 게임을 할 수 있다. 본 논문에서는 고정된 장소에서의 체험을 벗어나 이동환경인 모바일 단말에서도 3D 그래픽 기술을 통한 현실감있는 가상의 농장 환경을 제공하여, 작물재배에서부터 토지 환경까지 간단하고 직관적인 인터페이스로 쉽게 접근할 수 있는 시뮬레이션 환경을 제공하며, 농작물 재배가 실제 환경과 유사하도록 시뮬레이션 엔진을 구성하였다. 특히 Open GL 같은 범용 라이브러리가 탑재되지 못하는 저 사양의 모바일 단말을 위하여 3D 엔진을 자체적으로 구성하여 범용성을 도모하였다.

특징 융합을 이용한 농작물 다중 분광 이미지의 의미론적 분할 (Semantic Segmentation of Agricultural Crop Multispectral Image Using Feature Fusion)

  • 문준렬;박성준;백중환
    • 한국항행학회논문지
    • /
    • 제28권2호
    • /
    • pp.238-245
    • /
    • 2024
  • 본 논문에서는 농작물 다중 분광 이미지에 대해 특징 융합 기법을 이용하여 의미론적 분할 성능을 향상시키기 위한 프레임워크를 제안한다. 스마트팜 분야에서 연구 중인 딥러닝 기술 중 의미론적 분할 모델 대부분은 RGB(red-green-blue)로 학습을 진행하고 있고 성능을 높이기 위해 모델의 깊이와 복잡성을 증가시키는 데에 집중하고 있다. 본 연구는 기존 방식과 달리 다중 분광과 어텐션 메커니즘을 통해 모델을 최적화하여 설계한다. 제안하는 방식은 RGB 단일 이미지와 함께 UAV (unmanned aerial vehicle)에서 수집된 여러 채널의 특징을 융합하여 특징 추출 성능을 높이고 상호보완적인 특징을 인식하여 학습 효과를 증대시킨다. 특징 융합에 집중할 수 있도록 모델 구조를 개선하고, 작물 이미지에 유리한 채널 및 조합을 실험하여 다른 모델과의 성능을 비교한다. 실험 결과 RGB와 NDVI (normalized difference vegetation index)가 융합된 모델이 다른 채널과의 조합보다 성능이 우수함을 보였다.

사과 병해충 분류를 위한 CNN 기반 모델 비교 (Comparison of CNN-based models for apple pest classification)

  • 이수민;이유현;이은솔;한세윤
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.460-463
    • /
    • 2022
  • 세계에서 가장 중요한 온대 과일 작물 중 하나인 사과의 생산성과 품질은 병해충 여부에 큰 영향을 받는다. 이를 진단하기 위해서는 효율적이고 많은 전문 지식과 상당한 시간이 필요하다. 그러므로 이를 해결하기 위해 효율적이고 정확하게 다양한 병해충을 진단하는 시스템이 필요하다. 본 논문에서는 이미지 분석에 큰 효율을 보인 딥러닝 기반 CNN 들을 비교 분석하여 사과의 병해충 여부를 판별하고 최적의 모델을 제시한다. 딥러닝 기반 CNN 구조를 가진 AlexNet, VGGNet, Inception-ResNet-v2, DenseNet 을 채택해 사과 병해충 분류 성능 평가를 진행했다. 그 결과 DenseNet 이 가장 우수한 성능을 보여주었다.

농작물 병해충 진단을 위한 인공지능 앱, Dr. Vegetable (Dr. Vegetable: an AI-based Mobile Application for Diagnosis of Plant Diseases and Insect Pests)

  • 김수환;정대기;이승준;정성엽;양동재;정근영;황석형;황세웅
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제67차 동계학술대회논문집 31권1호
    • /
    • pp.457-460
    • /
    • 2023
  • 본 연구는 시설작물의 병충해 진단을 위해 딥러닝 모델을 응용한 인공지능 서비스 앱, Dr. Vegetable을 제안하고자 한다. 농업 현장에서 숙련된 농부는 한눈에 농작물의 병충해를 판단할 수 있지만 미숙련된 농부는 병충해 피해를 발견하더라도 그 종류와 해결 방법을 찾아내기가 매우 어렵다. 또한 아무리 숙련된 농부라고 할지라도 육안검사만으로 병충해를 조기에 발견하는 것은 쉽지 않다. 한편 시설작물의 경우 병충해에 의한 연쇄피해가 발생할 우려가 있으므로 병충해의 조기 발견 및 방제가 매우 중요하다. 즉, 농부의 경험에 따른 농작물 병해충 진단은 정확성을 장담할 수 없으며 비용과 시간적인 측면에서 위험성이 높다고 할 수 있다. 본 논문에서는 YOLOv5를 활용하여 상추, 고추, 토마토 등 농작물의 병충해를 진단하는 인공지능 서비스를 제안한다. 특히 한국지능정보사회진흥원이 운영하고 있는 AI 통합 플랫폼인 AI 허브에서 제공하는 노지 작물 질병 및 해충 진단 이미지를 사용하여 딥러닝 모델을 학습하였다. 본 연구를 통해 개발된 모바일 어플리케이션을 이용하여 실제 시설농장에서 병충해 진단 서비스를 적용한 결과 약 86%의 정확도, F1 Score 0.84, 그리고 0.98의 mAP 값을 얻을 수 있었다. 본 연구에서 개발한 병충해 진단 딥러닝 모델을 다양한 조도에서 강인하게 동작하도록 개선한다면 농업 현장에서 널리 활용될 수 있을 것으로 기대한다.

  • PDF

드론 다중분광영상과 컴퓨터 비전 기술을 이용한 배추 객체 탐지 알고리즘 개발 (Development of Chinese Cabbage Detection Algorithm Based on Drone Multi-spectral Image and Computer Vision Techniques)

  • 류재현;한중곤;안호용;나상일;이병모;이경도
    • 대한원격탐사학회지
    • /
    • 제38권5_1호
    • /
    • pp.535-543
    • /
    • 2022
  • 농업분야에서 드론을 활용하여 작물의 생육을 진단하고 정보를 영상으로 제공하고 있다. 들녘 단위에 대한 고해상도 드론 영상을 활용하는 경우 객체별 생육정보를 생산할 수 있으나 정확하게 작물을 탐지하고 인접한 객체를 효율적으로 구분하기 위한 작업이 요구된다. 본 연구에서는 작물 객체를 탐지하고 위치 정보를 추출하는 알고리즘을 개발하는 것이 목적이다. 드론 다중분광영상과 컴퓨터 비전 기술을 활용하여 객체 탐지를 위한 알고리즘을 개발하였으며, 대상 작물은 가을배추로 선정하였다. 2018년~2020년까지 가을배추를 대상으로 정식 후 7일~15일 사이의 드론 영상을 취득하였으며, 2019년 영상 기반으로 객체 탐지 알고리즘을 개발한 뒤 2018년, 2020년 영상을 기반으로 알고리즘 평가를 수행하였다. 분광반사도 기반 지수와 식생의 분광반사도 특성을 고려하여 식생 지역을 추출하였다. 이후 추출된 식생 지역에서 객체의 크기를 고려하여 팽창(Dilatation), 침식(Erosion), 이미지 분할 등과 같은 모폴로지(Morphology) 기법을 통해 객체 탐지 정확도를 향상시켰다. 개발된 객체 탐지 알고리즘의 정밀도는 95.19% 이상이었으며, 재현율과 정확도는 각각 95.4%, 93.68% 이상이었다. 객체 탐지 알고리즘의 F1-Score는 0.967 이상으로 나타났다. 본 연구에서 개발한 알고리즘을 이용하여 추출된 배추 객체 중심에 대한 위치 정보는 작물의 재배시기에 따라 영농단계별 의사결정 정보를 제공하기 위한 자료로써 활용될 것이다.

YOLOv3을 이용한 과일표피 불량검출 모델: 복숭아 사례 (Detection Model of Fruit Epidermal Defects Using YOLOv3: A Case of Peach)

  • 이희준;이원석;최인혁;이충권
    • 경영정보학연구
    • /
    • 제22권1호
    • /
    • pp.113-124
    • /
    • 2020
  • 농가를 운영함에 있어서 수확한 작물에 대한 품질을 평가하여 불량품을 분류하는 작업은 매우 중요하다. 그러나, 농가는 부족한 자본과 인력으로 인하여 품질평가에 소요되는 비용과 시간을 감당하는데 어려움이 있다. 이에 본 연구는 인공지능 기술인 딥 러닝 알고리즘을 이용하여 과일의 표피를 분석함으로써 불량을 검출하고자 한다. 과일을 촬영한 동영상 이미지에 대하여 영역기반 합성곱 신경망(Region Convolutional Neural Network)을 기반으로 한 YOLOv3 알고리즘을 적용하여 표피를 분석할 수 있는 모델을 개발하였다. 총 4개의 클래스를 정해서 학습을 진행하였고, 총 97,600번의 epoch을 통해서 우수한 성능의 불량검출 모델을 얻을 수 있었다. 본 연구에서 제안한 농작물 불량검출 모델은 데이터 수집, 분석된 데이터를 통한 품질평가, 그리고 불량검출에 이르는 과정의 자동화에 활용될 수 있다. 특히, 농작물들 중에서도 외상에 가장 취약한 복숭아를 대상으로 분석모델을 개발하였기 때문에, 다른 작물에도 적용될 수 있을 것으로 기대된다.