1. 서론
지난 10년 동안 한·육우 50두 이상 사육 농가는 4배 이상 증가하고, 20두 미만의 사육 농가는 절반 이상 줄어들면서 축산 농가의 대형화가 진행되고 있다. 축산 농가의 대형화가 진행되면서 사육 개체 수가 증가하여 가축에 대한 관리가 어려워지고 있다. 이러한 가축 관리를 위해서 다양한 IT기술을 축산 농가에 적용하기 위한 다양한 연구들이 진행되고 있다[1-7].
대표적으로 축사 모니터링 시스템에 대한 많은 연구가 진행되고 있다. 축사 모니터링 시스템은 대형화된 축사를 효율적으로 운영하기 위해서 24시간 축사모니터링을 통해 이상 상태가 있는 가축을 신속하게 발견하고 조치를 취할 수 있도록 지원하는 시스템이다. 가축이 최적의 환경에서 성장할 수 있도록 최적의 사육환경을 유지해야 하며, 외부침입 등을 감지하여 보호해줄 수 있어야 한다. 이를 위해서 다양한 IoT센서를 활용하여 축사의 온도, 습도, 이산화탄소, 가스 등의 정보를 실시간으로 수집하고 환경조절장치 및 축사 제어를 통해 최적의 사육환경을 유지하며, CCTV영상을 활용하여 축사의 외부침입을 감지하는 연구가 진행되고 있다. 일부 연구에서는 가축에 센서를 직접 부착하여 가축의 생체정보 및 활동 정보를 모니터링하여 질병을 예방하고 가축의 운동량을 측정하여 가축을 관리하는 연구가 진행되고 있다[1-5]. 축산 농가에서 가축의 건강 및 이상 상태를 파악하는 것은 매우 중요하다[6]. 가축의 건강 및 이상상태를 확인하는 방법은 움직임을 분석하는 것이다. 몸에 이상이 있는 가축의 경우 이상이 없는 가축들에 비해 활동량이 적기 때문에 가축의 움직임을 분석하여 몸의 이상 여부와 가축의 발정상태를 확인할 수 있다. 암소의 경우 발정행위가 여러 가지로 분석되며, 명확한 발정행위는 승가 행위로 정의한다. 승가행위는 암소가 다른 암소 위에 올라타는 행동을 의미한다. 이러한 발정상태를 파악하는 것이 축산 농가에서는 매우 중요하다. 발정상태를 파악하여 최적의 인공 수정 시기를 결정하여 번식률을 높일 수 있으며, 승가 행위는 축산 농가의 수입으로 귀결된다. 소 축산 농가의 주요 수입원은 모두 소의 수태와 관련이 있어 발정상태를 적기에 파악하는 것이 매우 중요하다.
기존의 동물들의 움직임을 파악하기 위한 연구들이 진행되었다. 무선 주파수 송수신기를 활용하여 동물의 먹이와 식수 공급의 주기를 결정할 때 활용되었고 이 데이터를 활용하여 동물의 건강 상태를 파악하는 연구가 진행되었다. 그리고 3D가속도 센서를 소에 부착하여 소의 자세 변화 패턴을 분석하기도 하였고 소에 collar센서를 부착하여 소의 활동에 따른 클러스터링 데이터를 수집하고 소의 시간 보행 특성을 파악하여 소의 행동을 감지하는 연구가 진행되었다[7-10].
하지만, 이러한 센서 또는 송수신기를 동물들에게 부착할 경우 동물들이 활발한 움직임을 하거나 주변 구조물에 부딪힐 때 파손되기도 한다. 기기의 파손뿐만 아니라 동물의 몸에 부착하는 것으로 인해 동물들에게 스트레스를 유발하여 여러 방면에서 문제가 발생할 수 있다. 이러한 문제로 인해 컴퓨터 비전 기술을 활용한 동물 행동 분석 기술이 필요하다[11].
본 논문에서는 대형화된 축산 농가의 가축 관리를 위해 IoT센서를 활용한 출입 차량 관리 및 축사 모니터링 시스템과 소의 발정상태를 파악하기 위한 객체탐지 알고리즘에 관한 연구를 제안한다. 이를 위해 IoT센서를 활용하여 축사의 환경을 제어하여 최적 환경을 유지할 수 있는 시스템을 제안한다. 그리고 차량 출입관리를 통해 외부 차량의 출입을 관리할 수 있다. 그리고 객체탐지 알고리즘을 활용하여 소의 발정상태를 탐지하여 적기에 인공 수정할 수 있는 모듈을 포함한다.
본 논문의 구성은 다음과 같다. 2장에서는 소의 발정상태 및 승가 행위를 탐지하는 방법과 축사 모니터링 시스템과 관련된 연구를 조사하고, 3장에서는 제안하는 시스템에 대하여 설명한다. 제안하는 시스템은 모니터링 시스템과 소의 발정상태 탐지를 위한 객체 탐지 알고리즘으로 구성되며, 4장에서는 구현 결과 및 성능평가를 진행하고, 5장에서는 결론 및 향후 연구를 제시한다.
2. 관련 연구
2.1 소 발정 및 승가 행위에 관한 연구
H.Cho의 연구[12]에서는 카메라의 영상 입력을 통한 특이행동 및 이상징후를 통해 소의 발정을 판별하는 연구를 진행하였다. 카메라를 통해 수집된 데이터 9,024시간의 영상 데이터를 분석하여 총 3,757회의 승가 행위를 분류하였고 총 15,028개의 승가 행위 영상 데이터 형태를 확보하였다. 검증 데이터 5,028개를 제외한 10,000개의 영상 데이터를 10프레임 간격으로 추출하여 102,400장의 학습을 위한 승가 행위 프레임 이미지 데이터를 획득하였다. 실시간 영상처리를 위해 객체 인식 알고리즘으로는 YOLOv3(You OnlyLookOnce)올사용하였다. 승가 행위 행동 인식을 위한 학습은 총 53개의 Convolution계층으로 구성된 YOLOv3 모듈의 백본망(Backbone Net-work)Darknet-53은 통해 이루어졌다. 학습률(Learn-ingRate)은 0.001로 설정하였다. 정확도가 떨어지는 오버피팅을 방지하기 위해 디케이(Decay)값은 0.0005로 설정하였다. 2,048의 Batch Size로 11,000번의 Iteration, 220번의 Epoch가 진행되었다. Accuracy값은 약 96%의 수치를 나타냈으며, Recall값도 약95%로 준수한 성능을 보였다.
H.Kim의 연구[13]는 무인 발정·발현 관찰을 통해 수정 적기를 판단하여 번식률을 향상하는 연구를 진행하였다. 평상시와 발정시의 행동량 변화 그래프를 분석하고 이를 평균화 수치화하였다. 활동량 수집으로는 소의 활동량을 수집하고 전송하는 센서 모듈과 전송된 활동량 데이터를 개체별로 데이터베이스에 저장하여 소의 정보를 관리하였다. 센서 모듈의 경우 활동량 수집을 위해 447.875MHz주파수 대역을 사용한 목걸이 형태를 사용하였다. 모듈 모드는 소의 동작 상태에 따라 구분하였다. 데이터 전송 과정으로는 송신 센서에서 자신의 정보, 현재시간, 활동량을 수집하였다. 송신 센서에 설정된 송신 시간이 되면, 수신기에 수집 데이터들을 전송하는 것을 반복하였다. 평균 활동량보다 활동량이 4배 이상이고, 4시간 이상 유지될 시 발정상태로, 활동량이 2배 이상이고, 9시간 이상 유지될 시 미약 발정상태로 알람을 보냈다. 발정일 경우 약 90% 이상의 정확도를 보였고, 미약 발정일 경우 약 80%이상의 정확도를 보였다.
S.Ahn의 연구[14]에서는 여러 소의 움직임을 효과적으로 관찰하여 최적의 인공 수정 적기를 결정하고 모션을 인식하기 위한 MHI(MotionHistoryIma-ge)에 표현되는 움직이는 물체의 면적 정보를 활용하는 새로운 특징을 제안하였다. 소의 승가 및 발정행위를 관심 행동으로 정의하고 승가 행위, 걷기, 꼬리 흔들기, 제자리걸음으로 세분화하였다. 모션 패턴은 기본적으로 다른 MHI모션 패턴보다 면적 크기가 크고, 시간의 흐름에 따라 갑작스럽게 면적의 크기가 증가한 뒤 감소하였다. MHI자체를 학습시키는 데 있어 차원 수가 높아 많은 양의 데이터와 시간이 필요하였다. 이러한 문제를 완화하기 위해 HMI로부터 저차원 특징을 제안하고, 승가 및 발정행위의 고유패턴을 SVM분류기를 통해 학습시켰다. 승가 및 발정행위가 포함된 초당 20프레임의 비디오 클립 104개를 실험 데이터로 사용하였다. 성능평가를 위해서, 물체의 길이 변화를 이용한 motionstrength방법과 MHIHoG(MHI-HistogramofGradients)기반 인식방법을 이용해 비교 실험을 진행하였다. 제안된 연구 방법에서 94%의 정확도로 분류되면서 MHIHoG방법보다 18%, motionstrength방법보다 24%더 우수한 성능을 보이는 것을 확인하였다.
H.Cho의 연구[15]는 소 개체 번식 향상과 농가 소득의 증가를 위해 소의 발정을 감지해 사용자에게 알리는 발정 관리 시스템 연구이다. 소의 행동 관찰을 위해 소의 목에 센서부를 부착하였다. 소의 활동 정보는 10분 단위로 갱신되며, 하루 단위로 누적하였다가 일자가 바뀔 때 초기화되는 것으로 시작한다. 수신된 행동 정보는 데이터베이스로 RF신호를 송신하며 송신기에서 RS485신호로 전환하였다. RS485 신호로 전환하게 되면 RF신호에 비해 먼 거리까지의 통신이 가능하게 되어 메인 제어기까지와 통신이 원활하게 하였다. 행동 정보 중 발정 유무에 대한 알고리즘의 경우에는 소에 따라 크게 최초 발정 예정일, 재 발정 예정일, 분만 후 발정 예정일로 구분하여 발정 예정일에 대한 알람을 인터페이스를 통해 제공한다.
B.Son의 연구[16]에서는 한우의 모니터링을 통해 행동특성 정보와 이상 상태를 신속히 포착하고, 수집된 행동특성 정보를 토대로 개체 중심의 과학적 사양관리를 활용하는 시스템을 구축하였다. 한우 행동특성을 수집하기 위해 축사 내 여러 개의 안테나를 인식범위가 중첩되도록 배치하고 축사 내 가축 개체에 대한 실시간 영상을 모니터링 서버로 전송하였다. 수집된 영상과 개체의 영역 판단 규칙·영역 중심 좌표를 데이터베이스에 저장한다. 개체의 위치를 탐색하기 위한 단위운동량과 동일 영역에 위치하는 개체를 판단하기 위한 단위 군집도를 계산하여 저장한다. 가축 개체별 운동량 및 군집도를 기반으로 이상 상태를 판별하였다. 제안된 연구는 RFID태그가 내장된 이정표를 가축에 귀에 부착하기 때문에, 전원 공급이 필요 없이 영구적인 사용이 가능하며, 설치 및 유지 비용이 낮고, 시스템 오류가 낮다는 장점이 있다.
2.2 축사 관리 시스템에 관한 연구
J.Chang의 연구[17]에서는 상시 축사 모니터링, 침입 감지 시스템, 전기기기의 자동제어를 필수 요구사항으로 구분하고 적외선 무선 센서 노드 및 무인감시카메라를 이용해 축사 관리 시스템을 제안하였다. 축사 모니터링을 위해 서버 및 데스크탑 클라이언트는 ActiveX를 이용하여 영상 모니터링 및 카메라 상하·좌우 회전을 제어한다. 수신기인 스마트폰은 Mpeg코덱을 이용하여 영상을 수신하고, 싱글 터치와 멀티 터치를 할용하여 PTZ(PanTiltZoom)영상을 제어한다. 침입 감지를 위해 적외선 무선센서노드를 이용하였고, 침입 감지 시 SMS를 통해 경고문자를 스마트폰에 전송한다. 축사의 온도, 조도, 습도 등의 환경을 파악하기 위해 무선센서 노드를 사용한다. 전자기기의 자동제어를 위해 축사 내 전자기기를 컴퓨터에서 제어하는 것이 필수적으로 필요하다. 이를 통해 전원제어기의 자동제어 전원을 제어한다. 그리고 외부 제어 신호가 전자기기의 신호를 인터럽트할 경우 전원을 컴퓨터에서 제어할 수 있고, 축사 내부 전자기기의 자동제어가 가능해진다.
Y.Hyun의 연구[18]에서는 유비쿼터스 환경이 구축된 축사에서 다량으로 발생하는 환경정보 데이터를 처리하기 위해 빅데이터 기반 축사 환경관리 아키텍처를 제안하였다. 축사에서 발생하는 환경정보 파라미터로는 온도, 습도, 조도, 일사량, 이산화탄소, 산소농도, 암모니아, 일산화탄소, 황화수소로 정의하였다. 제안하는 시스템은 실시간 데이터를 데이터베이스에 저장하고 단위 시간별 분석이 필요한 데이터는 MongoDB에 별도로 저장하는 방식을 제안하였다. 장시간 축적된 데이터는 Hadoop기반 분석 모듈에 의해서 처리하였다.
Y.Hyun의 연구[19]에서는 열화상 정보를 활용하여 스마트 축사 관리 시스템을 제안하였다. 열화상 정보와 센서 정보를 활용하여 가축의 상태 및 환경 변화를 확인하는 모듈과 수집된 데이터를 분석 및 예측하여 최적의 생장 환경을 제공하는 시스템을 제안하였다. 센서 모듈은 열화상 카메라를 통해 가축의 체온, 질병 유무 등의 상태 데이터를 수집한다. 온/습도/가스 수집 모듈은 가축의 건강에 가장 민감한 온/습도 데이터를 수집하고 축사에서 발생하는 악취의 농도를 측정한다. 영상 수집 모듈에서는 원격지에서도 축사환경을 모니터링할 수 있도록 영상을 수집한다. 수집된 모든 로우데이터를 데이터 전송 모듈을 통해 통합관리 데이터베이스로 전송한다.
3. 제안하는 스마트 축사 관리 시스템 설계
3.1 스마트 축사 관리 시스템 구성도
Fig.1은 제안하는 스마트 축사 관리 시스템의 구성도로 스마트 축사의 모니터링 및 제어 시스템, 차량 출입 통제 시스템, 분석 시스템으로 구분된다. 모니터링 및 제어 시스템은 축사의 내부 상태정보를 수집하며 이를 활용하여 축사 내부를 환경 모니터링과 제어를 담당하는 모듈이다. 차량 출입 통제 시스템은 외부 차량과 출입자를 탐지하며 통제 및 관리하는 모듈이다. 스마트 축사관리 시스템을 통해 수집된 정보를 분석하여 스마트 축사를 제어하여 최적의 축사 환경 정보를 처리하는 모듈이다. 그리고 소의 발정 및 승가 행위 발생 시 이를 탐지하여 농가에 알림을 처리한다.
Fig. 1. Remote control of livestock houses and vehicle access management system configuration.
3.2 모니터링 및 원격 제어 시스템 설계
Fig.2는 스마트 축사의 모니터링 및 원격 제어시스템이다. 제안하는 시스템의 구조는 크게 스마트 축사, ControlUnit, ControlCenter로 구분된다. 스마트 축사는 내부에 설치된 TemperatureandHumid-ityDetector, Airpollution level Detector, Photo-electric type illuminance Detector센서와 Internal CCTV를 사용하여 온·습도, 공기 오염도, 조도, 축사의 영상 정보를 수집하며, 실시간으로 ControlCen-ter의 데이터베이스에 저장 및 관리가 가능하도록 구성된다.
Fig. 2. Smart ban monitoring and remote control system.
데이터베이스에 저장된 데이터는 모니터링과 분석에 활용되며, 모니터링을 위해 시스템을 웹 기반으로 구축한다. 실시간으로 PC와 스마트폰을 통해 축사의 환경정보에 대한 모니터링이 가능하도록 구성한다. 원격 제어 시스템을 활용하여 Winchcurtain opening and closing switch와 Interior lighting, Ventilator를 제어하여 스마트 축사의 온·습도, CO2 등을 관리할 수 있다. 데이터베이스에 저장된 데이터를 분석하여 ControlUnit을 통해 설정한 조건에 따라 자동으로 축사의 환경을 유지하도록 구성한다.
3.3 차량 출입 통제 시스템 설계
Fig.3은 외부의 차량 출입 통제 시스템의 흐름도이다. LPR(차량번호인식)카메라를 통해 출입하는 차량의 방문 시간과 차량 번호를 실시간으로 기록하고 정보를 데이터베이스에 저장한다. 사전 등록된 차량과 미등록 차량을 구분하기 위하여 메인 서버로 차량과 탑승자 사진 데이터를 전송하고 사전 등록된 차량인지 분석한다. 사전 등록된 차량일 경우 출입을 허가해준다. 또한, 관리자 알림 기능을 설정하여 관리자에게 판단 결과를 알림으로 알려주며, 사전 등록된 차량에 대한 일치 여부를 모니터링 시스템으로 전송하여 관리자가 판단 결과에 쉽게 접근 할 수 있도록 한다. 출입 차량 및 출입인에 대한 출입 시간 기록과 사진, 영상 자료는 실시간으로 데이터베이스 서버에 저장한다. 만약 사전에 등록된 차량이 아닌 경우 IR센서를 통해 차량의 접근을 인식하고 출입기록을 위해 고해상도 사진 이미지를 촬영하여 이미지 데이터를 데이터베이스에 저장한다.
Fig. 3. Vehicle access control system.
3.4 통신 시스템 설계
스마트 축사에 설치된 센서 모듈은 9개의 센서로 구성된다. TemperatureandHumidityDetector, Air pollutionlevelDetector, Photoelectrictypeillumi-nance Detector, Internal CCTV, Winch curtain openingandclosingswitch, Interiorlighting, Ven-tilator로써 수집되는 데이터는 RSAAlgorithm방식의 암호화 알고리즘을 적용하여 데이터의 보안을 유지한다. 센서 데이터를 직접 서버로 전송할 경우 통신 인터페이스인 LAN 및 WLAN으로 선택해서 보낼 수 있도록 구성되어 있으며 원격지의 서버로 데이터를 전송한다.
Fig.4는 독립형 데이터 수집 및 저장장치의 구성도이다. 독립형 데이터 수집 및 저장 흐름은 입력단 신호의 잡음을 제거하는 LPF(LowPassFilter)를 거쳐 필요한 주파수 대역의 신호 성분을 검출한다. 검출된 신호는 연산 증폭기(OPAmp)를 통한 증폭을 처리한다. 증폭된 신호는 아날로그 신호의 성분을 디지털 신호 변환(ADC)으로 처리한다.
Fig. 4. Diagram of stand-alone data collection and storage device.
고속 실시간 신호처리 연산은 디지털 시그널 프로세서(DSP)를 이용하여 필요한 디지털 필터 및 연산 기능을 수행한다. 연산 기능이 수행된 데이터는 FPGA(FieldProgrammableGateArray)를 통해 DRAM에 저장한다. 저장된 데이터는 내부 메모리 저장장치를 통해 저장하거나 직접 전송방식을 선택할 수 있다. 그리고 직접 전송방식일 경우 데이터를 마이크로프로세서 유닛(MPU) 외부의 직접 메모리 전송방식(DMAC)을 통해 LAN또는 WLAN방식을 선택하고 최종 Village Hall에 데이터를 전송한다.
3.5 소 발정 및 승가 행위 탐지 시스템 설계
Fig.5는 한우 축사 내 번식우 발정을 감지하기 위한 시스템이다. 소의 발정 및 승가 행위를 탐지하기 위해 축사 내 CCTV를 설치하고 영상 데이터를 수집한다. 수집한 영상 데이터를 활용하여 객체탐지 모델을 학습시키기 위해 이미지 라벨링 작업을 진행한다. 라벨링이 포함된 데이터를 학습 데이터로 분류하고 객체탐지 모델에 학습시킨다. 객체탐지 모델은 새롭게 입력되는 테스트 데이터의 객체들을 탐지하고 탐지 결과를 데이터베이스에 저장한다.
Fig. 5. Beef cattle estrus detection system.
객체 인식을 위해 한우 축사 내 번식우 발정에 따른 이미지 전처리 작업을 진행한다. 이미지 전처리 작업은 객체의 특징과 형태에 따라 승가(mount), 머리 기댐(head_lean), 소(cow)3가지로 구분하여 Table 1과 같이 라벨링을 진행한다. 승가는 소가 다른 소위에 올라타는 행위를 뜻하며 머리 기댐은 소가 다른 소 주위를 돌아다니며 다른 소의 등이나 머리 위에 자신의 머리를 올리는 행위를 뜻하고, 다른 특징이 없는 소들은 일반 소로 구분한다.
Table 1. Components of the Image Labeling classes
객체탐지 모델[20-21]은 Darknet-19를 Backbron network로 사용하는 YOLOv2 모델을 활용하며 Table2와 같이 레이어를 구성한다. Darknet-19를 사용하여 중간계층에 1×1 Convolutional 레이어를 통해 특징맵의 채널수를 절반으로 줄여 연산량을 줄였다. Convolutional레이어 진행 후 Batchnormal-ization을 통해 미니배치를 사용하여 학습 속도를 높이도록 구성한다. 또한 MaxPooling레이어를 통해 과적합을 억제하고 연산량을 줄이도록 설계한다. Route레이어는 이전의 특정 레이어층을 가져와 합쳐주는 레이어로 출력을 재구성하고 서로 다른 크기의 출력을 연결해주어 정확도를 높이는 역할을 한다. 마지막으로 Reorg레이어는 입력 크기로 나누어 특징을 줄여주는 역할을 한다.
Table 2. YOLOv2 network structure
4. 구현 결과 및 성능평가
4.1 모니터링 시스템 구현 결과
Fig.6은 스마트 축사 모니터링 및 제어 시스템의 관리자 인터페이스이다. 축사에서 수집되는 온·습도, CO2의 데이터를 모니터링할 수 있으며, 축사 제어 기능을 활용하여 조명, 환기팬, 윈치 커튼 등을 수동 또는 자동으로 제어할 수 있다. 자동제어의 경우 설정 온·습도, CO2값에 따라 동작, 정지 등의 제어 명령을 전달하고 제어할 수 있도록 구현하였다. 이를 통해 축사 내의 환경을 일정하게 혹은 계절에 맞게 조절함으로써 가축들의 최적 환경을 제공할 수 있도록 한다.
Fig. 6. Smart barn monitoring & control system.
4.2 차량 출입관리 시스템 구현 결과
Fig.7은 차량 출입관리 시스템의 관리자 인터페이스이다. 차량 출입관리 시스템은 LPR카메라를 통해 출입 차량의 번호판을 인식한다. 출입 차량들에 대해 정기 출입 차량을 지정할 수 있고 인식된 번호판이 사전 등록된 차량일 경우 출입을 허가하고, 사전 등록되지 않은 차량일 경우 농가에 알림을 주어 확인할 수 있도록 한다. 또한, 출입 차량에 관한 데이터를 데이터베이스에 저장하여 전체 차량 출입관리를 할 수 있도록 한다.
Fig. 7. Vehicle access management program.
4.3 소 발정 및 승가 객체탐지 모델 구현
스마트 축사에서 번식우의 발정관리를 위해 YOLOv2를 활용한 객체탐지 모델을 구현하였다. Table3과 같이 객체탐지 모델의 학습을 위해 총 2,100장의 이미지 데이터 및 라벨링 데이터를 활용한다. 2,100장의 이미지에서 8,475개의 Cow객체, 220개의 Head_lean객체, 97개의 Mount객체의 라벨링 데이터를 적용한다. 입력 이미지의 크기는 608×608로 전처리 하였으며, 객체탐지 모델의 학습률은 0.001, 최적화기로 Adam을 사용하여 학습한다.
Table 3. Components of the dataset volume
Fig.8은 학습한 객체탐지 모델을 사용하여 객체 탐지를 수행한 결과 인터페이스이다. Fig.8과 같이 객체탐지 모델을 사용하여 소의 승가 행위, 머리 기댐 행위를 탐지할 수 있으며, 이러한 승가 및 발정행위가 발견됐을 시 농가에 알림을 제공하여 적기에 인공 수정 등 수태 관리를 할 수 있도록 도움을 줄 수 있도록 한다.
Fig. 8. Cow object detection result.
4.4 기존 시스템과의 정성적 평가
Table4는 기존 축사관리 시스템과 본 연구에서 제안한 시스템을 정성 평가한 비교표이다. 본 연구와 비교한 관련 연구에서는 모두 출입 차량 관리와 번식우 발정인식 시스템이 존재하지 않았으며, 이에 본 연구에서는 출입 차량 관리 및 번식우 발정인식 시스템을 적용하였다. 적용된 출입 차량 관리 시스템을 통해 축사 내 출입하는 차량을 관리자는 판단 및 식별을 할 수 있다. 그리고 번식우 발정인식 시스템을 통해 관리자는 수집된 번식우 발정 인식 객체를 식별 후 소들의 발정 시기를 관리할 수 있다.
Table 4. Comparison with Existing Systems
5. 결론
축산 농가의 대형화가 진행되고 농가당 사육 개체 수가 증가하면서 가축에 대한 관리가 어려워지고 있다. 이를 해결하기 위해 IoT및 데이터 분석 기술을 이용한 축사관리 시스템이 요구되고 있다. 축산 농가에서는 축사를 24시간 모니터링할 수 있는 시스템과 축산 농가에 외부 인원이 접근할 수 없는 출입관리시스템이 필요하다. 그리고 축사를 24시간 직접 보고있을 수 없기 때문에 관리자의 외출 또는 다른 작업을 진행할 경우 가축들의 이상 행동을 탐지하고 알림을 받을 수 있는 시스템을 요구하고 있다. 특히, 소축사의 경우 주요 수입원이 소의 수태와 관련된 것이 대부분이기 때문에 소의 발정상태를 확인하는 것이 중요하다. 소의 발정행위에 대한 행동은 승가 행위가 있으며, 그 외에도 머리 기댐, 활동량이 많아지는 등 다양한 행동이 있다. 이러한 행동들을 적기에 발견하여 최적의 인공 수정 시기를 놓치지 않도록 하는 것이 중요하다. 본 논문에서는 축산 농가의 관리를 위해 소 축사 모니터링 및 제어 시스템과 차량 출입관리 시스템, 소 발정행위 탐지 시스템을 적용한 스마트 한우 축사관리 시스템을 제안하였다. 모니터링 및 제어 시스템을 이용하여 축사 내부 환경 데이터를 수집하고 수집한 데이터를 바탕으로 여러 장치들을 제어함으로써 최적의 환경을 제공한다. 차량 출입관리 시스템을 이용하여 축사에 방문하는 차량들에 대한 관리할 수 있는 통합 시스템을 개발하였다. 모니터링 시스템을 통해 저장된 영상들을 활용하여 소발정행위 탐지 시스템을 개발하였다.
향후 연구에서는 소의 발정행위에 대한 데이터를 세분화하여 소의 발정행위 탐지 시스템을 고도화하고 성능 향상에 대한 추가적인 연구를 통해 소의 발정행위 탐지 정확도를 개선할 것이다.
References
- J.H. Kim, Y.S. Kim, and J.S. Kim, "A Design and Implementation for a Realtime Monitoring and Controlling System in the Stockyard," Korea Society of Computer and Information, Vol. 14, No. 10, pp. 167-174, 2009.
- D.H. Kwak, T.W. Kim, A.N. Kang, S.M. Park, M.S. Kim, et al., "Design of the Communication Protocol for a Stall Management System Based on IT," Korean of Information Technology, Vol. 9, No. 7, pp. 105-110, 2011.
- J.H. Hwang, M.H. Lee, H.D. Ju, H.C. Lee, H.J. Kang, and H. Yoe, "Implementation of Swinery Integrated Management System in Ubiquitous Agricultural Environments," Korea Information and Communications Society, Vol. 35, No. 2, pp. 252-262, 2010.
- Y.J. Kang and D.H. Choi, "Cattle Bioinformation Monitoring System Based on Context Awareness," Korea Entertainment Industry Association, Vol. 6, No. 2, pp. 92-100, 2012. https://doi.org/10.21184/jkeia.2012.06.6.2.92
- H.B. Jun, H.J. Kim, and J.O. Kim, "Development of Pulse Measurement Method for Health Monitoring of Dairy Cows," Korea Contents Association, Vol. 13, No. 12, pp. 27-37, 2013.
- M.S. Dawkins, "A User's Guide to Animal Welfare Science," Trends in Ecology & Evolution, Vol. 21, No. 2, pp. 77-82, 2006. https://doi.org/10.1016/j.tree.2005.10.017
- B. Wolfger, B.J. Manns, H.W. Barkema, K.S. Schwartzkopf-Genswein, C. Dorin, and K. Orsel, "Evaluating the Cost Implications of a Radio Frequency Identification Feeding System for Early Detection of Bovine Respiratory Disease in Feedlot Cattle," Preventive Veterinary Medicine, Vol. 118, No. 4, pp. 285-292, 2015. https://doi.org/10.1016/j.prevetmed.2014.12.001
- D.D. Shane, B.J. White, R.L. Larson, D.E. Amrine, and J.L. Kramer, "Probabilities of Cattle Participating in Eating and Drinking Behavior When Located at Feeding and Watering Locations by a Real Time Location System," Proceeding of Computers and Electronics in Agriculture 127, pp. 460-466, 2016. https://doi.org/10.1016/j.compag.2016.07.005
- C.J. Rutten, A.G.J. Velthuis, W. Steeneveld, and H. Hogeveen, "Invited Review: Sensors to Support Health Management on Dairy Farms," Journal of Dairy Science, Vol. 96, No. 4, pp. 1928-1952, 2013. https://doi.org/10.3168/jds.2012-6107
- M. Pastell, J. Tiusanen, M. Hakojarvi, and L. Hanninen, "A wireless Accelerometer System with Wavelet Analysis for Assessing Lameness in Cattle," Biosystems Engineering, Vol. 104, No. 4, pp. 545-551, 2009. https://doi.org/10.1016/j.biosystemseng.2009.09.007
- A. Nasirahmadi, S.A. Edwards, and B. Sturm, "Implementation of Machine Vision for Detecting Behaviour of Cattle and Pigs," Livestock Science 202, pp. 25-38, 2017. https://doi.org/10.1016/j.livsci.2017.05.014
- J. Chae and H. Cho, "Detecting Abnormal Behavior of Cattle Based on Object Detection Algorithm," The Transactions of The Korean Institute of Electrical Engineers, Vol. 69, No. 3, pp. 468-473, 2020. https://doi.org/10.5370/KIEE.2020.69.3.468
- S. Kim, S. Jee, H. Cho, C. Kim, and H. Kim, "Implementation of Unmanned Cow Estrus Detection System for Improving Impregnation Rate," Journal of The Korea Academy Industrial Cooperation Society, Vol. 16, No. 9, pp. 6236-6246, 2015. https://doi.org/10.5762/KAIS.2015.16.9.6236
- S. Ahn, Cattle Behavior Recognition and its Estrus Detection, Master's Thesis of Korea University of Technology and Education, 2018.
- C. Kim, S. Jee, and H. Cho, "Design of Unmanned Heating Observation and Management System," Proceeding of the Korean Society for Precision Engineering, pp. 362-362, 2014.
- B. Son, "Cattle Shed Monitoring System based on Behavioral Characteristics of Hanwoo," Journal of Korea Entertainment Industry Association, Vol. 8, No. 4, pp. 395-404, 2014. https://doi.org/10.21184/jkeia.2014.12.8.4.395
- M. Yoon and J. Chang, "Design and Implementation of an Advanced Cattle Shed Management System Using a Infrared Wireless Sensor nodes and Surveillance Camera," Journal of the Korea Contents Association, Vol. 12, No. 10, pp. 22-34, 2012. https://doi.org/10.5392/JKCA.2012.12.10.022
- D. Kim and Y. Hyun "System Architecture for Environment Management in Livestock Farm based on Big Data," Proceeding of Symposium of the Korean Institute of communications and Information Sciences, pp. 75-76, 2015.
- J. Lee and Y. Hyun "Design of Smart Barn management System Using Thermal Image Informations," Proceeding of Symposium of the Korean Institute of communications and Information Sciences, pp. 87-88, 2011.
- J.Y. Jeon, D.Y. Park, S.Y. Lim, Y.S. Ji, and S.B. Lim, "Automatic Extraction of Hangul Stroke Element Using Faster R-CNN for Font Similarity," Journal of Korea Multimedia Society, Vol 23, No. 8, pp. 953-964, 2020. https://doi.org/10.9717/KMMS.2020.23.8.953
- K.S. Yoon and J.Y. Choi, "Compressed Ensemble of Deep Convolutional Neural Networks with Global and Local Facial Features for Improved FaceRecognition," Journal of Korea Multimedia Society, Vol. 23, No. 8, pp. 1019-1029, 2020. https://doi.org/10.9717/KMMS.2020.23.8.1019