DOI QR코드

DOI QR Code

Generating an Autonomous Landing Testbed of Simulated UAV applied by GA

GA를 적용한 모의 UAV의 자율착륙 테스트베드 구축

  • Received : 2019.01.25
  • Accepted : 2019.03.29
  • Published : 2019.03.31

Abstract

In case of unmanned aerial vehicles used in modern society, there has been a problem where a human operator should be still needed to control the UAV because of a lower level of autonomy. In this paper, genetic algorithm is selected as a methodology for the autonomy accomplishment and then we verify a possibility of UAV autonomy by applying the GA. The landing is one of the important classical tasks on aerial vehicle and the lunar Landing is one of the most historical events. Autonomy possibility of computer-simulated UAV is verified by landing autonomy method of a falling body equipped with a propulsion system similar to the lunar Lander. When applying the GA, the genom is encoded only with 4 actions (left-turn, right-turn, thrust, and free-fall) and applied onto the falling body, Then we applied the major operations of GA and achieved a success experiment. A major contribution is to construct a simulated UAV where an autonomy of UAV can be accomplished while minimizing the sensor dependency. Also we implemented a test-bed where the possibility of autonomy accomplishment by applying the GA can be verified.

현대에서 사용되는 무인 비행체의 경우 자율화수준이 떨어져 사용자의 개입이 필요하다는 문제가 있다. 이에 본 연구는 자율화 달성의 방법론으로 유전자 알고리즘을 선택하고, 이것을 적용해 무인 착륙체의 자율화 가능성을 확인해 보는 것이다. 특별히 무인 비행체의 착륙은 비행체에서 매우 중요한 고전적인 과업 중의 하나이며, 착륙에 있어서 역사적 사건 중의 하나가 달착륙이라고 할 수 있다. 달 착륙선의 추동 메카니즘을 장착한 낙하체의 착륙 자율화 방법을 이용해 무인 착륙체의 자율화 가능성을 확인한다. 본 논문에서는 유전자알고리즘 적용시 게놈을 단지 4가지 액션 (좌회전, 우회전, 분출, 자유낙하) 으로 인코딩하여 무인 착륙체에 적용하고, 유전자 알고리즘의 주요 연산을 접목하여 실험을 성공적으로 진행하였으며 센서에 대한 의존도를 최소화할 수 있는 무인 비행체의 모의 UAV를 제작하였고, 유전자알고리즘을 적용해 그 가능성을 확인하는 테스트 베드를 구축하였다.

Keywords

SMROBX_2019_v28n1_93_f0001.png 이미지

Fig. 1. Classical landing mechanism of drone with error modification for horizontal distance(Bart et al., 2014)

SMROBX_2019_v28n1_93_f0002.png 이미지

Fig. 2. Falling body experimental environment(Base, Falling body, Landing pad).A thrust action performed in the image on the right

SMROBX_2019_v28n1_93_f0003.png 이미지

Fig. 3. Major module for left-rotate, right-rotate, and thrust

SMROBX_2019_v28n1_93_f0004.png 이미지

Fig. 4. Genom data structure

SMROBX_2019_v28n1_93_f0005.png 이미지

Fig. 5. Mutate mechanism

SMROBX_2019_v28n1_93_f0006.png 이미지

Fig. 6. Genom encoding and decoding

SMROBX_2019_v28n1_93_f0007.png 이미지

Fig. 7. Actions of left-rotate and right-rotate.The thrust can be checked in the Fig. 2

SMROBX_2019_v28n1_93_f0008.png 이미지

Fig. 8. Success landing on the left, and failure one on the right

Table 1. Result of manned landing

SMROBX_2019_v28n1_93_t0001.png 이미지

Table 2. Result of unmanned landing

SMROBX_2019_v28n1_93_t0002.png 이미지

References

  1. Thiang, It Nun, Dr.LuMaw, and Hla Myo Tun (2016) "Vision-Based Object Tracking Algorithm With AR. Drone", Intl', Journal of Scientific & Technology Research, Vol. 5, Iss. 6.
  2. Bartak, Roman, Andrej Hrasko, and David Obdrzalek (2014) "A Controller for Autonomous Landing of AR.Drone", 26th Chinese Control and Decision Conference (CCDC).
  3. Bart, Roman lk, Andrej Hrasko, and David Obdrzalek (2014) "On Autonomous Landing of AR.Drone: Hands-on Experience", Proc. of the 27th Intl' Florida Artificial Intelligence Research Society Conference.
  4. Jin, Shaogang, Jiyang Zhang, Lincheng Shen, and Tengxiang Li (2016) "On-board Vision Autonomous Landing Techniques for Quadrotor: A Survey", Proceedings of the 35th Chinese Control Conference.
  5. Ebner, Marc, John Levine, Simon M. Lucas, and Tom Schaul, Tommy Thompson, and Julian Togelius (2013) "Towards a Video Game Description Language", Dagstuhl Publishing, Wadern, pp. 85-100.
  6. Han, Changhee, K.M. Kim, D.H. Yoo, and Y.M. Eum (2017), "Framework integration specification necessary for simulation object rendering", Fall conference of Korean Entertainment Industry Association.