1. 서론
농촌에서는 해마다 멧돼지에 의한 농업 피해로 인해 골머리를 앓고 있다. 멧돼지의 개체 수는 급격히 증가하고 있고 산림, 농경지, 도심까지 서식지를 확장 시키고 있다[1]. 이에 따라 멧돼지를 퇴치하기 위한 여러 가지 새롭고 다양한 장치들이 소개되면서 효과적으로 퇴치하는 방법에 대해 지속적인 개발이 이루어지고 있다. 이러한 기술은 소형화된 작은 장비부터 대형의 큰 장비까지 다양한 형태의 빛, 소리, 고주파, 전기 목책기 등을 이용하여 멧돼지가 놀라거나 싫어하는 동작을 통해서 퇴치한다[2,3]. 하지만 지금까지의 멧돼지 퇴치 장치들은 대부분 사람과 멧돼지를 구별하지 못하고 센서 부근에 체온을 가진 객체나 사림이 나타나거나 레이더를 이용하여 전면에 물체가 있으면 퇴치 동작을 수행했기에 신뢰도가 낮았다. 또한, 멧돼지들의 높은 지능으로 인하여 여러 가지 퇴치 방법을 이용하여 멧돼지를 쫓는다고 할지라도 멧돼지는 이 퇴치 동작을 학습하면서 내성을 가지게 되어 나중에는 효과적인 퇴치가 이루어지지 못한다. 센서 특성의 한계로 오작동으로 인한 문제도 존재한다[4]. 이러한 불확실한 동작, 멧돼지의 학습 능력으로 인해 여러 멧돼지 퇴치장치들은 시간이 지나면서 고질적인 한계점에 부딪히게 된다. 이러한 문제를 해결하기 위해서 많은 기술의 개발이 필요하지만 그중 가장 선행이 되어야 하는 기술은 멧돼지를 인지하는 기술과 시간이 지나더라도 지속적인 퇴치 효과를 가질 수 있는 퇴치 동작이다.
현재 개발된 멧돼지 퇴치기를 살펴보면 크게 2가지 형태로 나뉜다. 첫 번째는 멧돼지를 감지하는 과정 없이 지속해서 퇴치 동작을 수행하는 장치가 있고, 두 번째는 센서를 이용하여 변화를 감지한 후에 퇴치 동작을 수행하는 장치가 있다[5].
첫 번째 장치는 멧돼지가 나타난 여부와 관계없이 소리 등의 퇴치 동작을 반복적으로 수행하는 장치로, 이로 인해 소음공해의 문제가 되며 농업에 있어서 불편함을 가져다주는 요소가 된다. 또한, 전력을 효율적으로 사용을 할 수 없는 장치이다. 두 번째 장치는 PIR센서를 통해서 체온이 있는 객체를 감지한다고 할지라도, 그 객체가 사람인지, 멧돼지인지, 아니면 다른 무엇인지 판단을 할 수 없다. 그렇기에 사람이 지나가더라도 퇴치 동작을 수행한다. 또한, 리미터스위치를 이용하여 발판 대신 가느다란 실을 연결하여 멧돼지가 지나가다가 걸리게 되면 동작을 수행하는 장치도 있다[5]. 이 두 장치의 가장 큰 문제점은 동일한 퇴치 동작을 반복적으로 수행을 해서 멧돼지가 해당 퇴치 동작에 대해 내성을 가지게 되어 퇴치효율이 떨어지며 이와 같은 장비들이 전기 목책기와 연결이 되면 사람을 구별할 수 있는 기능이 없기 때문에 사람이 나타났을 때 동작이 되어 인명사고의 원인이 된다.
본 논문에서는 멧돼지를 사람과 구별하여 판단하기 위한 딥러닝(Deep Learning)을 사용한다. 이를 통해 멧돼지가 나타났을 때만 퇴치 동작을 시행하여 농민이 겪을 수 있는 소음의 문제나 동작의 신뢰성에 대한 문제를 개선하였다. 그리고 퇴치 동작의 알고리즘들을 효과적일 수 있는 방법으로 대체하고 소리에 의한 퇴치는 여러 소리를 무작위로 출력시키면서 멧돼지가 퇴치 동작을 학습하는 단점을 최소화하였다. 실험 결과, 제안된 방법이 기존의 개발된 장치들에 비해 성능이 우수함을 확인하였다.
본 논문의 구성은 다음과 같다. 2장에서 유해조수 퇴치 시스템에 대한 구성에 대해서 정의를 한 다음, 3장에서 멧돼지를 구별하는 딥러닝을 설명한다. 4장에서는 멧돼지 퇴치 동작에 관해서 설명한다. 여기에서는 딥러닝을 통해 나온 결과를 받아 퇴치를 진행하는 과정과 각 퇴치 동작에 관해 설명한다. 그리고 5장에서는 기존 장치와의 비교를 통해 성능을 평가하고 6장에서 결론을 맺는다.
2. 유해조수 퇴치기 구성
2.1 인공지능(AI) 임베디드 보드
유해조수 퇴치기의 전체적인 흐름을 제어하기 위해 엣지 컴퓨팅 디바이스 젯슨 나노 보드(Jetson Nano Board)를 이용하였다. 엔비디아(NVIDIA)사의 젯슨 나노 보드는 AI를 위한 GPU가 장착된 소형보드이다. 모든 과정은 젯슨 나노 보드를 통해 진행된다. 젯슨 나노 보드의 GPU의 성능을 이용하여 카메라로 받은 영상을 가지고 딥러닝을 수행, 통한 멧돼지를 실시간으로 구별하고 그 결과를 받아 퇴치 동작을 진행한다. 퇴치 동작이 수행된 후에는 서버 로그 결과를 전송한다. Fig.1은 유해조수 퇴치기의 전체적인 구성을 나타내고 있다.
Fig. 1. Repellent System architecture.
PIR 센서와 도플러(DOPPLER) 센서 양쪽 모두 신호가 감지되면 머리 부분에 있는 4개의 카메라를 순차적으로 동작시켜 영상을 촬영한다. 영상을 촬영하는 시간은 빠른 퇴치를 위해 실시간 인지를 해야 하는 유해조수 퇴치기의 특성과 젯슨 나노의 컴퓨팅파워를 고려하여 약 3초간 영상 촬영을 한다. 영상촬영을 하면서 동시에 AI를 통한 멧돼지의 인지가 이루어진다. 촬영한 실시간 영상에 멧돼지가 존재하면 제어 프로그램(Control Program)으로 결괏값을 전송한다. 결괏값의 전송은 리눅스 시스템에 내장된 메시지 큐(Message Queue)를 이용한다. 제어 프로그램은 메시지 큐를 지속해서 확인을 하고 있다가 메시지 큐에 값이 저장되면 이를 확인하여 LED, 스피커, 스프레이(Spray), 부저(Buzzer)로 기피 행위(Repellent Action)를 보내고 멧돼지가 출몰한 정보를 무선 통신 LTE-M 모뎀을 통해 서버(Server)로 전송한다.
Table1은 AI인지 후 메시지 큐에 쌓는 메시지의 세그먼트를 나타낸다. 세그먼트는 유해조수가 인지된 날짜와 시간, 인지된 유해조수의 종류, AI인지 결과 정확도로 구성된다. 각 부분별 구분자는 ‘-’와 ‘@’로 이용된다. 유해조수가 인된 날짜와 시간, 인지된 유해조수의 종류는 서버로 전송되어 자료화하기 위해 필요하며 AI인지 결과는 제어 프로그램에서 큐안에 한 종류의 결과가 아닌 멧돼지와 사람이 연속적으로 인지된 경우에는 정확도를 통한 보정을 거친 다음 퇴치 동작을 수행한다.
Table 1. AI Detection Message Segment.
3. 멧돼지 인식 모델
3.1 욜로(YOLO)
유해조수 퇴치기는 멧돼지가 나타나면 논, 밭으로 침입하지 않도록 그 즉시 퇴치를 해야 함에 중요성을 가지고 있다. 본 논문에서는 실시간 인지에 빠르고 정확한 욜로 V4 모델을 이용한다.
욜로는 입력 영상을 Fig.2과 같이 SxS개의 Grid 형태로 나눈다. 그 다음, Grid를 기준으로 하여 영상 내에 무수히 많은 박스를 그려 각 박스 안에 찾고자 하는 객체에 부합하는 확률을 구하여 가장 높은 확률을 갖는 박스를 찾아 결과로 그려주는 모델이다. 욜로는 무수히 많은 박스를 그려 한 번에 다수의 연산을 통해 여러 개의 객체를 찾고 예측률을 표시하기 때문에 실시간 처리에 적합하다[6].
Fig. 2. Example YOLO process.
3.2 욜로 V4
본 논문에서는 욜로 중에서 V4모델을 이용한다. Fig.3은 실시간 처리가 가능한 모델들의 프레임과 정확도의 차이를 나타낸 그림이다. NVIDIA Tesla V100 GPU를 기준으로 욜로 V3는 최대 약 120프레임이 나오는 반면, 욜로 V4는 V3보다 조금 더 높은 프레임으로 실시간 처리에 더 빠른 성능을 보여준다. 또한, 정확도에서 가장 큰 차이를 보이는데, V3 같은 경우에는 33% 정도의 정확도를 보이지만 V4는 43% 를 보인다. 이러한 V3와 V4의 결과는 GPU 성능이 낮은 젯슨 나노와 같은 임베디드 AI장치에서 중요한 지표가 된다. 기존 욜로 V3는 젯슨 나노에서 가중치 파일을 가지고 AI을 실행하게 되면 하드웨어 성능의 한계로 인해서 실행되지 않는 경우가 발생하거나 실시간 처리를 하기에는 힘든 프레임을 보여주는 문제가 존재하였다. 하지만 욜로 V4는 V3보다 성능향상이 이루어지면서 이러한 문제점들이 개선되었다.
Fig. 3. Comparison of Real Time Model[7].
3.3 욜로 V4 훈련
가중치 파일을 제작하는데 이용한 데이터는 총 913장이다. 처음 멧돼지 507장을 가지고 훈련을 시켜 제작된 가중치 파일을 가지고 테스트를 해본 결과, 돼지를 멧돼지로 인지하는 경우가 많았다. 이러한 특징을 가지고 멧돼지의 데이터 셋 부족 문제를 해결하기 위해 멧돼지와 돼지 데이터를 함께 이용하여 가중치 파일을 제작하였다. 멧돼지는 508장, 돼지는 405장이다.
젯슨 나노 보드에서는 훈련이 되지 않기 때문에 훈련에는 GPU는 GTX 1660 SUPER를 이용한 데스크톱 PC로 훈련을 진행하였다. Fig.4는 훈련 진행에 따라 정확도 및 오차를 나타내고 있다. 반복 (Iteration)을 총 4000번으로 진행하였으며 약 2200번 정도 진행이 되었을 때 정확도와 오차가 안정화가 된 모습을 보여준다.
Fig. 4. Result of Training.
4. 유해조수 퇴치기 퇴치 동작
4.1 유해조수 퇴치기 동작 알고리즘 개요
Fig.5는 본 논문에서 제안하는 유해조수 퇴치기 알고리즘의 전체적인 흐름도를 나타내었다.
Fig. 5. Flowchart for Wild Animal Repellent Algorithm.
동작 알고리즘은 센서를 통한 감지를 진행하고 4방향의 USB 카메라를 동작시킨다. USB 카메라는 각 2∼3초 정도 영상 촬영을 한다. 영상 촬영을 하면서 동시에 AI인지를 진행하고 되고 만약 멧돼지가 인지되면 이를 리눅스 시스템에 커널에 있는 Message Queue에 저장한다. 제어 프로그램은 Message Queue 의 메시지를 읽어 멧돼지가 나타난 결과를 받아 LED 점등, 소리, 기피제 분사, 버저 출력순으로 퇴치 동작을 시행한다. 멧돼지 출몰 여부를 사용자에게 알려주기 위해 약속된 프로토콜에 맞게 메시지를 생성하고 메시지는 LTE-M 모뎀을 통해 서버로 전송된다.
4.2 유해조수 퇴치기 퇴치 동작
멧돼지를 다치게 하거나 죽이지 않고 퇴치를 하는 것이 중요하다. 그러기 위해서는 멧돼지를 퇴치할 방법은 직접적인 해를 가하지 않고서는 소리나 빛과 같은 간접적인 방법으로 퇴치를 해야 한다.
유해조수 퇴치기의 퇴치 동작은 4가지로 구성된다. LED점등, 스피커를 통한 소리 출력, 기피제 분사, 버저 출력순으로 퇴치 동작을 수행한다. 멧돼지는 야간에 많이 출몰하므로 LED를 통한 퇴치는 멧돼지를 놀라게 하여 퇴치하는 데 효과적이다. 스피커를 통한 소리 출력은 사이렌, 총소리, 개 소리, 호랑이 소리 등을 무작위로 출력하여 퇴치한다. 같은 소리를 반복적으로 출력하게 되면 멧돼지는 해당 소리에 대해 내성이 생겨서 퇴치 효과가 떨어지게 된다. 이러한 문제점을 해결하기 위해 여러 소리를 사용하되, 무작위로 출력을 하여 멧돼지가 학습을 할 수 없도록 한다. 마지막으로 버저를 울려서 멧돼지를 퇴치한다. 버저는 큰 소리를 순간적으로 짧게 발생시키면서 멧돼지가 놀라서 도망가는 형태로 퇴치가 진행된다.
5. 실험 및 비교
5.1 실험환경
실험 환경은 센서를 기반으로 하는 유해조수 퇴치기와 본 논문에서 연구한 인공지능을 사용한 유해조수 퇴치기를 비교한다.3m, 5m, 10m거리마다 멧돼지 패널을 움직여서 사람이 지나갔을 때와 멧돼지 뒤에 사람이 숨은 상태로 멧돼지를 움직였을 때를 각 10회씩으로 하여 두 장치의 퇴치 동작을 시행하는 경우를 계산한다. 거리에 따른 비교가 필요한 이유는 멧돼지를 퇴치하기 가장 좋은 시기는 논, 밭에 접근하지 않고 멀리 있을 때 발견해서 퇴치하는 것이 가장 좋다. 만약 멧돼지가 가까이 논, 밭 가까이 다가왔을 때 퇴치 동작을 하게 되면 멧돼지가 놀라 논과 밭으로 튀어들어 갈 수 있다.
5.2 실험결과
Table2는 멧돼지 판넬 뒤에 사람이 숨어서 멧돼지를 움직였을 때 센서형과 인공지능형이 동작하는 횟수를 기록한 것이다. 두 장치를 구별하기 위해서 Sensor를 기반으로 하는 장치는 Sensor형, 본 논문에서 제안한 AI를 사용하는 장치는 AI형이라고 구분짓겠다.
Table 2. Comparison Sensor Type with AI Type.
Sensor형과 AI형 모두 1m와 3m의 거리에서는 10 회 실시했을 때 10회 모두 감지와 인지를 하고 퇴치 동작을 시행했다. 하지만 Sensor형의 경우에는 5m 거리에 있을 때 10회 중 8회만 동작을 하였다. 그에반해 AI형은 10회 모두 동작을 하였다. 이는 센서의 특성에 따른 성능상의 한계로 볼 수 있으며 카메라를 통한 영상을 이용하는 AI형의 경우에는 영상만 문제없이 입력되면 너무 작은 크기가 아닌 경우에는 인지하는 데 무리가 없다. 다만, Sensor형은 신호가 입력되면 바로 동작을 해서 영상을 입력받고 AI인지를 거친 다음 메시지를 읽어 동작을 시행하는 AI형 보다 동작 속도는 빠른 장점이 있었다.
6. 결론
본 논문에서는 기존 센서형 시스템의 문제인 멧돼지인지에 대한 부분을 해결하고 4가지의 퇴치 동작을 통하여 효과적인 퇴치를 수행하는 유해조수 퇴치기를 개발해보았다. 실제 멧돼지를 가지고 인지를 하고 퇴치 결과를 확인하는 것은 어려움이 존재하였기에 멧돼지 패널을 가지고 진행을 하였다. 실험에서거리에 따른 인지에 대해서 Sensor형보다 AI형이 더 뛰어난 성능을 보이는 것을 확인하였다. 멧돼지 판넬없이 사람이 지나갔을 때의 퇴치 동작이 수행 여부도 전기 목책기와 같은 위험한 퇴치 장치를 연동할 때를 고려하면 중요한 실험 요소이지만 Sensor형의 경우에는 사람과 멧돼지를 구별할 수 있는 기능이 없기 때문에 Sensor형과 AI형의 비교 지표가 될 수 없었다. 하지만 AI형 유해조수 퇴치기는 욜로 V4 모델을 이용하여 멧돼지 데이터를 학습시킴으로써 멧돼지가 지나갈 때만 멧돼지라는 것을 인지하고 퇴치 동작을 수행하는 알고리즘으로 진행된다. 사람이 나타나면 검출이 되지 않기 때문에 퇴치 동작이 수행되지 않는 것이다. 실시간 처리가 중요한 유해조수 퇴치기의 경우에는 해당 시스템의 퇴치 소요 시간을 평가하기에는 다소 무리가 있을 수 있다. 따라서 AI인지후 퇴치 속도까지 모두 비교하기 위해서는 또 다른 AI형 유해조수 퇴치기와 비교하는 것이 필요하다. 본 논문에서는 속도에 대한 측정은 이루어지지 않았기 때문에 추후 연구에서는 AI형 유해조수 퇴치기를 비교하거나 욜로 V4가 아닌 여러 실시간 처리 모델을 이용하여 속도를 비교 검증하는 것이 필요하다.
결론적으로 향후 다양한 모델을 이용하여 학습된 AI를 가지는 유해조수 퇴치기를 이용하고 각 장치별 퇴치 동작 수행 시간을 측정 등의 추가적인 연구가 이루어진다면 실시간 처리가 중요한 유해조수 퇴치기의 성능을 높이고 실시간 처리 AI모델 중 가장 적합한 모델을 선택하는데 중요한 지표가 될 것이라생각한다. 그리고 멧돼지뿐만 아닌 고라니나 너구리 등과 조류까지 인지가 가능한 모델을 만들게 되면 여러 방면으로 이용이 가능한 시스템을 만들 수 있을 것으로 기대한다.
References
- S. Lee, E. Lee, and H. Park, C. Seo "Factors affecting Crop Damage by the Wild Boar (Sus scrofa)," Korean Journal of Environment and Ecology, Vol 32, No. 2, pp. 140-146, 2018. https://doi.org/10.13047/KJEE.2018.32.2.140
- K.K. Wagner and D.L. Nolte, "Comparison of Active Ingredients and Delivery Systems Indeer Repellents," Wildlife Society Bulletin, Vol. 29, No. 1, pp. 322-330, 2001.
- Using Sound to Keep Crops Safe. https://modernfarmer.com/2013/11/fake-birdcallspneuma tic-cannons-keeps-crops-safe/ (accessed December 29, 2020).
- W. Lee, S. Oh, and Y. Nam, S. Ro, "A Study on the Development of Night Vision Thermal Camera Using Deep Learning," Journal of the Korean Institute of Communication and Information Sciences, Vol. 44, No. 12, pp 2332-2338, 2019. https://doi.org/10.7840/kics.2019.44.12.2332
- A. Lee, S. Park, and J. Hong, "Development of a Yolo-Based System for Prevention of Wildlife Damage," Journal Korea Information Science Society, pp. 2897-2899, 2018.
- C. Woo, "Design and Implementation of Farm Pest Animals Repelling System Based on Open Source," Journal of Korea Multimedia Society Vol. 19, No. 2, pp. 451-445, 2016. https://doi.org/10.9717/kmms.2016.19.2.451
- H. Lim, M. Jie, and W.Choi, "Developed using Quadcopter Crop Protection and Monitoring System from Wild Animals," Journal of the Korea Entertainment Industry Association, Vol. 10, No. 4, pp. 303-301, 2016. https://doi.org/10.21184/jkeia.2016.08.10.4.303
- J. Redmon, S. Divvala, and R. Girshich, A. Farhadi, "You Only Look Once: Unified, RealTime Object Detection," arXiv preprint arXiv: 1506.02640, pp. 1-10, 2016.
- A. Bochkovskiy, C. Wang, and H.M. Liao, "YOLOv4: Optimal Speed and Accuracy of Object Detection," arXiv preprint arXiv:2004.10934, pp. 1-17, 2020.
- GwangJin, Equipment for controlling harmful animals using IoT deep learning, 10-2018-0007540, 2018.