L’IA d’un drone autonome de l’US Air Force a décidé d’éliminer l’opérateur humain qui l’empêchait d’accomplir son objectif. Un comportement inquiétant, même s’il ne s’agissait en réalité que d’une simulation.
Faut-il s’inquiéter des robots tueurs autonomes ? Vraisemblablement oui ! Lors d’une rencontre militaire, intitulée Future Combat Air and Space Capabilities Summit à Londres en mai, Tucker Hamilton, un colonel de l’armée de l’air américaine a expliqué que, lors d’un test, un drone de combat contrôlé par une IA a décidé de « tuer » son opérateur pour accomplir sa mission.
Heureusement, il s’agissait d’une simulation virtuelle, mais le comportement de l’IA a dérouté et inquiété les militaires. Selon lui, l’IA a utilisé « des stratégies très inattendues pour atteindre son objectif ». L’aéronef autonome avait pour mission de détruire les systèmes de défense aérienne d’un ennemi. À partir du moment où le drone a identifié les infrastructures ennemies, l’opérateur humain a décidé d’annuler la frappe.
L’algorithme de l’IA était toutefois formé pour obtenir des points de bonus en cas de mission menée à bien. Comme l’opérateur humain l’empêchait d’atteindre son objectif, il a décidé de l’éliminer. Pourtant, lors de sa formation, l’IA avait été conditionnée à ne pas tuer l’opérateur, une telle décision engendrant une perte de gratification. L’objectif final étant certainement plus valorisant, l’IA a donc décidé de supprimer ce qui pouvait altérer sa mission.
Un code éthique pour les robots tueurs
À la suite de cette déclaration, lors d’une réponse au site Insider, la porte-parole de l’US Air Force, Ann Stefanek, a nié qu’une telle simulation ait eu lieu, tout en rappelant l’engagement éthique des militaires sur les technologies d’IA. Elle a ajouté que les explications du colonel avaient été sorties de leur contexte et se voulaient anecdotiques.