Quels sont les enjeux et les risques de l'intelligence artificielle militaire ?

L’utilisation de machines dotées d’IA pose problème car elle peut être à la fois extrêmement bénéfique mais également destructrice. L’objectif premier de l’IA dans le domaine militaire est de limiter les pertes humaines et d’aider les soldats. De plus, les usages de l’IA peuvent être multiples ; en effet pourquoi la machine devrait porter une arme ? Pourquoi devrait-elle avoir la capacité de tuer ? Même en effectuant des taches plus pacifiques, elle pourrait soutenir grandement les forces armées. Elle pourrait éventuellement s’occuper de la maintenance de certains véhicules tout en identifiant en avance les éventuelles pannes. Elle pourrait également s’occuper de la gestion et de la classification des documents, en fournissant les dossiers les plus adéquats aux différentes situations ou en classant elle-même les documents suivant leur pourcentage de données sensibles ou leur importance pour déterminer s’ils doivent être classés secret défense ou non par exemple. Encore mieux, l’IA militaire pourrait même détecter les états de stress post-traumatique et aider dans branches médicales de l’armée. De la même manière, elle pourrait aider sur le front en rapatriant des blessés, en effectuant des missions de reconnaissance, en évaluant les différentes stratégies possibles lors des missions, en portant de lourdes charges à la place des soldats. En bref, les possibilités sont diverses et multiples.
​
A la vue de ces nouvelles machines, de nombreux mouvements anti IA militaire ont vu le jour afin d’interdire les armes intelligentes. Ils estiment « qu’une fois ouverte cette boite de Pandore sera difficile à refermer » et que ces armes « défient les règles du droit international humanitaire ». Le rapprochement entre l’IA et l’armée inquiète et le gouvernement a dû agir en conséquence en creant un comité d’éthique ministériel qui permettra d’avoir une meilleure approche juridique et éthique de l’utilisation de l’IA militaire.
​
De plus, l’IA pose de plus en plus de problèmes aux chercheurs. Paradoxalement, plus elle devient intelligente, moins on la comprend. "Sur ce genre de plateformes complexes, on a souvent une intrication d'algorithmes différents. Il est donc difficile d'avoir une compréhension globale du fonctionnement", prévient Frédéric Coste. De nos jours, la machine base ses connaissances sur celles de l’être humain mais commence à apprendre par elle-même. Bientôt, elle sera en capacité de traiter les données d’une nouvelle manière, sans même prendre la peine d’en informer son constructeur. Comment réussir à comprendre ces nouveaux mécanismes, cette nouvelle façon de penser ? Pouvez-vous imaginer, devoir combattre une machine impossible à comprendre ? Cela ressemble de plus en plus à un scénario de science-fiction me direz-vous, et vous avez raison, la batailles pour ou contre les Sala [« système d'arme létale autonome »] ne fait que commencer.
« Parvenir à créer des intelligences artificielles serait le plus grand accomplissement de l’histoire humaine. Malheureusement, il pourrait aussi s’agir du dernier, à moins que nous apprenions à éviter les risques. »
Avertissement lancé en 2014 par l’astrophysicien britannique Stephen Hawking
"Les 23 principes d'Asilomar"
Les enjeux et risques sont tels que lors de la conférence d’Asilomar en 2017, les chercheurs ont convenu de créer une sorte de guide éthique sur le développement de l’IA. Ce guide nommé « les 23 principes d’Asilomar » approuvé par Elon Musk et Stephen Hawking, liste 23 principes et lignes de conduite à adopter afin de continuer à créer des IA performantes tout en limitant les dangers pour l’humanité. Voici une traduction de ces principes juste en dessous la version originale étant disponible sur le site du Future of Life Institute.
L'intelligence artificielle a déjà fourni des outils bénéfiques qui sont utilisés tous les jours par les populations autour du monde. Son développement perpétuel , guidé par les principes suivants, va offrir d'incroyables opportunités pour aider et habilité les gens dans les décennies et siècles à venir.
PROBLEMATIQUES DES RECHERCHES
​
1. But des recherches : l’objectif de la recherche en IA ne doit pas être de créer une IA non contrôlée mais bénéfique.
​
2. Financement des recherches : Les investissements dans l’IA doivent être accompagnés de financements dans la recherche pour s’assurer de son usage bénéfique, incluant des questions épineuses en informatique, économie, droit, éthique, sciences sociales tels que :
-
Comment crée des systèmes hautement robustes pour qu’ils fassent ce qu’on veut sans qu’ils dysfonctionnent ou soient piratés ?
-
Comment améliorer notre prospérité à travers cette automatisation tout en maintenant les ressources et but de la population ?
-
Comment mettre à jour notre système légal pour qu’il soit plus juste et efficace, afin de garder une paix avec intelligence artificielle et de gérer les risques associés à l’IA ?
-
Avec quelles valeurs l’IA doit-elle être en accord, et quels statuts légal et éthique devrait-elle avoir ?
​
3. Liens Science-Loi : il doit y avoir un échange constructif et sain entre les chercheurs en IA et les législateurs.
​
4. Culture de la recherche : une culture de coopération, confiance, et transparence doit être favorisée entre chercheurs et développeurs d’IA.
​
5. Éviter une course : les équipes développant ses systèmes dotés d’IA doivent activement coopérer pour éviterons raccourcis sur les standards de sécurité.
​
ETHIQUES ET VALEURS
​
6. Sécurité : les IA doivent être sur et sans danger durant leur vie.
​
7. Transparence sur les échecs : si une IA cause du tort, il faut en trouver la cause.
​
8. Transparence judiciaire : tout participation par une IA à une décision judiciaire doit pouvoir fournir des explications satisfaisantes et contrôlés par une autorité humaine compétente..
​
9. Responsabilité : concepteurs et constructeurs en IA sont responsable des implications morales de leur utilisation, de leur abus et agissements, ils ont ainsi la responsabilité et l’opportunité de d’influencer ces implications.
​
10. Concordance des valeurs : les IA autonomes doivent être conçus pour que leur but et comportement soient surs de s’aligner avec les valeurs humaines.
​
11. Valeurs humaines : l’IA doit être conçu pour être compatible avec les idéaux de la dignité, des droits, des libertés et de la diversité culturelle de l’être humain.
​
12. Données personnelles : toute personne doit avoir le droit d’accéder, de gérer et de contrôler les données générées et transmises à une IA pour analyse et utilisation de ces dites données.
​
13. Liberté et vie privée : les utilisations de l’IA des données personnelles ne doivent pas être en désaccord avec les libertés réelles ou perçues des citoyens.
​
14. Bénéfice collectif : l’IA doit bénéficier et favoriser le plus grand nombre.
​
15. Prospérité partagée : la prospérité économique crées par l’intelligence artificielle doit être largement partagée pour bénéficier a toute l’humanité.
​
16. Contrôle humain : les humains doivent choisir si et comment déléguer les décisions à l’IA, pour accomplir des objectifs de leur choix.
​
17. Non subversion : le pouvoir obtenu en contrôlant des IA très avancées doit respecter et améliorer les procédés sociaux et civiques sur lesquels la santé de sa société dépend.
​
18. Course aux IA d’armement : une course à l’arme létale autonome doit être évitée.
​
PROBLEMATIQUES SUR LE LONG TERME
​
19. Avertissement sur les capacités : étant donné qu’il n’y a pas de consensus, nous devons éviter de fortes hypothèses à propos les limites des futures IA.
​
20. Importance : les IA avances peuvent représenter un profond changement dans l’histoire de la vie sur terre, et doit être planifier avec grands soins et ressources.
​
21. Risques : les risques soulevés par l’IA, en particulier catastrophiques ou existentiels ; doivent être sujets à des efforts commensurables pour la préparation et l’atténuation de leur impact attendu.
​
22. Auto-développement infini : les systèmes sont conçus pour s’auto-améliorer et s’auto-répliquer de telle manière que cela pourrait rapidement augmenter leur qualité et quantité ce qui doit être sujet à des précautions strictes et des mesures contrôlées.
​
23. Bien commun : la super intelligence doit être seulement développée au service d’idéaux éthiques largement partagés, et pour le bénéfice de tout l’humanité plutôt qu’un groupe ou organisation.
AYACHI Hassina, étudiante en DUT informatique.

