La course à l'armement dotée d'IA: un enjeu majeur pour l'humanité dans les années à venir

L’apparition soudaine des nouvelles armes intelligentes créer de nouveaux obstacles notamment au niveau du budget, au niveau législatif ou vis avis de la concurrence entre les États pour avoir l’exclusivité sur les meilleures technologies. A l’heure actuelle, la France n’interdit pas les armes intelligentes mais émet tout de même des réticences et limites leur utilisation sur le terrain. En effet, ces nouvelles technologies doivent être des équipiers et des soutiens et non des machines autonomes. Ces dernières peuvent porter des armes mais ne peuvent prendre de leur propre chef la décision de tuer. Dans le magazine DSI (« Défense et Sécurité internationale est le principal magazine mensuel français spécialisé dans les questions de défense, de géostratégie et d’armements » d’après Wikipedia), le général Charles Beaudouin (sous-chef plan « programmes » à l’état-major de l’armée de Terre) nous confirme que l’intelligence artificielle est un « outil essentiel pour répondre aux défis imposés aux armées ». Il ajoute également que « les instabilités géopolitiques de notre monde, combinées à la libre disposition des technologies hier réservées aux puissances de premier rang, ont rendu notre environnement plus dangereux et nécessitent de nous assurer des moyens nous permettant de garantir notre supériorité technologique, opérationnelle, informationnelle, décisionnelle. Cette transformation de la menace, conjuguée à nos propres limites [vitalité démographique, compétitivité économique] et impératifs [référentiel politique, droit et éthique], nous impose de saisir les opportunités capacitaires offertes par l’IA et à tirer tout le parti de son potentiel en tant que multiplicateur d’efficacité opérationnelle », car, faute de quoi, le « risque n’est rien moins que le déclassement ». De ce fait, le ministère des Armées a lancé des programmes tels que MMT (Man-Machine Teaming ou Collaboration Homme-Machine) ou Artemis (Architecture de traitement et d’exploitation massive de l’information multi-source), incitant ainsi le gouvernement à augmenter le budget de la défense sur plusieurs années. Le but est de devenir pionnier voire premier dans le domaine de l’IA militaire afin de rivaliser avec des puissances comme les États Unis (595 projets militaires), le Royaume Uni (projet Nelson mené par la Royal Navy, par exemple), la Russie ou encore la Chine. En effet, les machines autonomes en sont encore à leur permise que les États se font déjà concurrence, ce n’est pas un hasard si la marine américaine a lancé des programmes de développement de drones en parallèle de l’annonce de plans similaires de la Corée et de la Russie.
"MMT est une initiative lancée et financée par la Direction générale de l’armement (DGA). Elle est animée par Dassault Aviation et Thales.
Dans le cadre de la définition du système de combat aérien futur (SCAF), le projet Man-Machine Teaming (MMT) explore la possibilité de développer un système aérien cognitif.
Avec MMT, repensons l’autonomie de la machine et son interaction avec l’Humain."
man-machine-teaming.com


« La nécessité de sécuriser, de traiter et d’exploiter les flux d’informations en croissance exponentielle, est facilitée par le recours à l’intelligence artificielle. Dans un univers industriel dominé par des entreprises étrangères et caractérisé par des innovations technologiques rapides, le développement de ces technologies s’avère ainsi un enjeu majeur de souveraineté. »
La Loi de Programmation Militaire 2019-2025
« Armes Autonomes : une lettre ouverte de la part de chercheurs en Intelligence Artificielle et en Robotique »
Cette course à l’armement n’est pas sans rappeler celle de la Guerre Froide et de nombreux scientifiques, ingénieurs ou encore chercheurs essaient de s’accorder sur les démarches à suivre et si cette utilisation de l’IA est un bienfait pour l’humaine ou si cette dernière court à sa perte. En effet on peut prendre deux événements majeurs de la communauté scientifique. En premier lieu, on peut parler de l’International Joint Conference on Artificial Intelligence (IJCAI), qui est une conférence sélective rassemblant les grands esprits de la communauté scientifique autour de l’intelligence artificielle. Lors de cette conférence en 2015, une lettre ouverte signée par des Milliers de personnes du monde scientifique a été écrite et vivement relayée. Cette lettre portée par de grands noms tels que Stephen Hawking, Elon Musk ou encore Steve Wozniak se nomme « Autonomous Weapons : An open letter from AI and Robotics Reaserchers » ou en français « Armes Autonomes : une lettre ouverte de la part de chercheurs en Intelligence Artificielle et en Robotique ». Dans cette lettre, ces scientifiques s’adressent à la communauté internationale ainsi qu’à la communauté scientifique, et d’une manière plus large a la population. Ils alertent sur les dérives et les dangers que peuvent susciter une mauvaise utilisation de l’intelligence artificielle ainsi qu’une course à l’armement entre les États. Vous pouvez trouver une traduction de la lettre ci-dessous, la lettre original étant disponible sur le site du Future of Life Institute.
« Les armes autonomes sélectionnent et engagent le combat contre des cibles sans intervention humaine. Elles peuvent inclure, par exemple, des quadri rotors armés qui peuvent chercher et éliminer des personnes rassemblant certains critères prédéfinis, mais n’incluent pas des missiles de croisière ou des drones pilotés à distance pour lesquels les humains prennent toutes les décisions de ciblage. L’intelligence artificielle a atteint un point ou le dépotement de tels systèmes est -pratiquement si ce n’est légal - faisable dans les années à venir, voire décennies, et les enjeux sont élevés : les armes autonomes ont été décrites comme la troisième révolution guerrière, après la poudre à canon et l’arme nucléaire.
Beaucoup d’arguments ont été soulevés pour et contre les armes autonomes, par exemple, que remplacer des soldats humains par des machines est bénéfique en réduisant ainsi les pertes humaines mais à l’inverse réduit la limite pour aller combattre. L’humanité doit aujourd’hui effectuer un choix décisif entre débuter une course à l’armement autonome ou l’empêcher des maintenant de commencer. Il suffit qu’une seule des puissances militaires majeurs décide d’investir massivement dans de développement d’armes dotées d’IA, pour qu’une course à l’armement globale soit inévitable, et la finalité de cette trajectoire technologique est sans appel : les armes autonomes deviendront les Kalashnikovs de demain.
A l’inverse des armes nucléaires, ces armes sont peu couteuses et ne nécessitent pas de matériaux rares, elles deviendront donc omniprésentes et peu onéreuses à produire en masse pour n’importe quelle puissance militaire signifiante. Ce ne sera qu’une question de temps avant qu’elles fassent leur entrée sur le marché noir ou dans les mains de terroristes, de dictateurs désireux de contrôler leur population, ou de seigneurs de guerre souhaitant perpétrer des nettoyages ethniques, etc. Les armes autonomes sont idéales pour des taches telles que l’assassinat, la déstabilisation de nation, l’assujettissement de populations et tuer de manière sélective un groupe ethnique particulier. Nous pensons donc qu’une course à l’armement dotée d’IA ne serait pas bénéfique pour l’humanité. Il y a plein de manières pour lesquelles l’IA peut rendre le champ de bataille plus sûr pour les humains, surtout les civils, et ce sanscréer de nouveaux outils tour tuer la population.
Tout comme la majorité des chimistes et biologistes n’ont pas d’intérêt à créer des armes chimiques ou biologiques, la plupart des chercheurs en IA ne souhaitent pas construire d’armes autonomes et ne veulent pas que d’autres ternissent leur domaine en le faisant, créant potentiellement un contrecoup majeur à l’encontre de l’intelligence Artificielle qui limiterait ses futurs bénéfices sociétaux. En effet, chimistes et biologistes ont largement supporté les accords internationaux qui ont prohibe les armes chimiques et biologiques avec succès, tout comme la plupart des physiciens soutiennent les traités bannissant les armes nucléaires spatiales et les lasers aveuglants.
En résumé, nous croyons que l’IA a un grand potentiel pour profiter à l’humanité de pleins de manières, et que le but du domaine devrait être de mettre en œuvre cela. Débuter une course à l’armement doté d’IA est une mauvaise idée, et devrait être empêchée par un bannissement des armes autonomes offensives au de la du control humain. »
AYACHI Hassina, étudiante en DUT informatique.

