Les drones sont de plus en plus utilisés, notamment dans des opérations militaires. Ils sont généralement commandés par des pilotes humains à terre, communiquant avec eux par radio. Seuls ceux que l’on nomme des drones suicides peuvent se jeter sur un objectif sans intervention humaine à condition d’avoir été programmés avec précision à l’avance.
Des scientifiques suisses de l’Université de Zurich viennent de présenter un programme d’Intelligence Artificielle qu’ils ont nommé Swift, capable de piloter seul un drone quadroptère engagé dans une course de vitesse sur parcours complexe comportant des obstacles variés difficiles à éviter, même pour les pilotes humains expérimentés des autres drones.
Les drones étaient engagés dans une course dite Drone Racing League World Champion. Les drones doivent y pratiquer couramment une vitesse de 100 km/h et y supporter des accélérations de 5g. Ils doivent évidemment ne pas se heurter.
Swift, l’AI, a gagné 15 courses sur 25, à une vitesse souvent supérieure à celle des autres drones compétiteurs. Swift utilise un programme comportant des éléments d’AI et des sous-programmes informatiques classiques.
Les possibles usages militaires de tels drones intelligents ont évidemment été évoqués. On peut prévoir que l’infatigable président de l’Ukraine Volodomir Zélinsky demandera à la Suisse de lui en fournir quelques exemplaires.
Article
Champion-level drone racing using deep reinforcement learning
- Elia Kaufmann,
- Leonard Bauersfeld,
- Antonio Loquercio,
- Matthias Müller,
- Vladlen Koltun &
- Davide Scaramuzza
volume620,
pages 982–987 (2023)Cite this article
- Abstract
First-person view (FPV) drone racing is a televised sport in which professional competitors pilot high-speed aircraft through a 3D circuit. Each pilot sees the environment from the perspective of their drone by means of video streamed from an onboard camera. Reaching the level of professional pilots with an autonomous drone is challenging because the robot needs to fly at its physical limits while estimating its speed and location in the circuit exclusively from onboard sensors1. Here we introduce Swift, an autonomous system that can race physical vehicles at the level of the human world champions. The system combines deep reinforcement learning (RL) in simulation with data collected in the physical world. Swift competed against three human champions, including the world champions of two international leagues, in real-world head-to-head races. Swift won several races against each of the human champions and demonstrated the fastest recorded race time. This work represents a milestone for mobile robotics and machine intelligence2, which may inspire the deployment of hybrid learning-based solutions in other physical systems.
