Intelligence artificielle : Vers une révolution des affaires militaires?

Reading Time: 10 minutes

Ce n’est un secret pour personne, depuis le début du siècle dernier les machines ont pris dans la conduite de la guerre une importance cruciale : du taxi de la Marne au SNLE en passant par la panzer division, le chasseur à réaction ou la militarisation du cyberespace, il semble que la victoire militaire relève aujourd’hui davantage du travail des scientifiques et des industriels que de celui des militaires.

Pourtant force est de constater que, malgré ces évolutions brutales sur un laps de temps aussi réduit, les armées modernes ont su trouver, via la professionnalisation et la formation technique plus avancée des soldats qui en a découlé, une forme d’équilibre, laissant au final la machine au rang d’outil malgré toute son importance.

Et c’est en raison de cette caractéristique que l’Intelligence artificielle, au sens d’un programme fondé autour d’un objectif de compréhension de la cognition humaine et de sa reproduction afin de créer des processus cognitifs comparables à ceux d’un être humain pour reprendre la définition que lui donnait Cédric Villani, sera une véritable révolution. Elle va rompre cet équilibre car plus qu’un outil, elle sera au minimum un assistant absolument nécessaire, voire même un remplaçant bien plus performant. Ce qui permet de comprendre aisément pourquoi Vladimir Poutine déclarait en 2017 que « celui qui deviendra le leader de cette sphère deviendra le maître du monde ». Le ton est donné, la course lancée.

Pourtant ces innovations ne manquent pas de créer, en Occident du moins, d’importantes controverses éthiques articulées autour d’un point central : pour la première fois dans l’histoire de la guerre, l’homme sortira peut être complètement de la boucle de prise de décision, que ce soit au niveau tactique, avec la décision d’engager ou non le combat, ou stratégique, avec l’optimisation de l’affectation des ressources productives, humaines et matérielles.

Au cœur du fonctionnement de l’IA : des apprentissages

Pour comprendre son impact et les enjeux en lien avec elle, il faut comprendre l’IA elle-même, et en particulier la façon dont elle acquiert son « intelligence ».

Très schématiquement, le principe de l’apprentissage de l’IA (machine learning), est la confrontation préalable de cette dernière à une multitude de données qui correspondront à des catégories. Cette analyse lui permettra ensuite d’identifier des objets comme appartenant à ces mêmes catégories dans des situations futures inconnues. Le cœur même de cet apprentissage est donc un raisonnement inductif. Fondamentalement c’est un raisonnement très similaire à celui qu’opère les êtres humains avec leurs expériences personnelles, mais à une échelle évidemment bien plus importante, d’où les performances souvent bien supérieures des IA.

Prenons l’exemple d’une IA à qui l’on apprendrait à identifier visuellement un char Abrams M1A2. Elle va initialement être confrontée à une multitude de données, d’images ici, où on lui indiquera si elles représentent ou non un char M1A2. S’ensuit un processus complexe où elle va attribuer une valeur numérique à ces données (par exemple un certain nombre pour un motif particulier formé par des éléments du char) puis additionner ces valeurs pour en définir une correspondant à notre char M1A2, à chacune de ses erreurs elle corrigera cette valeur. Et ainsi plus elle analysera un nombre important de données, plus elle pourra affiner et préciser cette valeur, de telle façon que l’identification de notre cher M1A2 va lui être de plus en plus aisée. Il s’agit là de ce qu’on qualifie d’apprentissage simple.

Mais, depuis plusieurs années est développée une technique dite d’apprentissage profond, ou deep learning. Elle correspond à une architecture de l’algorithme de l’IA mettant en lien différentes “couches“ de neurones, correspondant en quelque sorte chacune à un apprentissage simple. Cela va permettre à l’IA d’être extrêmement précise en multipliant les critères d’identification.

Elle va aussi pouvoir créer elle-même des catégories en faisant des rapprochements sans intervention humaine, dans notre exemple cela pourrait être celle des chars d’assauts, ou la distinction d’un véhicule américain d’un autre russe ou français. Et plus elle va être confrontée à un nombre de données, plus elle sera à même d’identifier des éléments qu’elle n’a jamais rencontré, c’est ce qui explique qu’une IA puisse identifier avec précision supérieure à celle d’un être humain la nationalité ou le type d’un véhicule qu’elle n’a jamais “vu“.

C’est la même méthode qui s’applique en matière d’aide à la prise de décisions, en identifiant  des catégories de bonnes et de mauvaises conséquences pour chaque décisions, et en retenant les effets de chaque action.

Course à la puissance d’analyse et Big Data

Cette méthode d’apprentissage nécessite 2 éléments absolument déterminants pour la performance d’une Intelligence Artificielle : la capacité technique d’analyse et la quantité de données disponibles.

Ce premier élément de  la capacité technique d’analyse vise à permettre à l’IA de traiter le plus vite possible un maximum de données possible. Cela passe principalement par la puissance de calcul disponible, d’où l’intérêt marqué porté récemment aux ordinateurs quantiques par les grandes puissances et les investissements conséquents en la matière, notamment de la part de la Chine.

Le second élément est lui constitué par le Big Data, c’est-à-dire la capacité à collecter, stocker et rendre analysables des masses extrêmement importantes de données, qui une fois analysées permettront d’obtenir des résultats toujours plus précis.

L’obtention d’un volume d’information toujours plus croissant, si elle a précédé l’apparition de l’Intelligence Artificielle, s’est considérablement accélérée pendant le développement de cette dernière, d’autant plus que les évolutions technologiques civiles, au premier rang desquelles Internet ont permis de constituer des bases de données au volume encore inimaginable il y a quelques décennies.

L’utilisation de ces masses d’information a donné la doctrine de guerre en réseau infocentré (Network Centric Warfare), qui passe notamment par des outils comme les liaisons de données tactiques, qui visent à mettre en commun et partager l’ensemble des données récupérées par chaque acteur du champ de bataille. Initialement limitée à un partage d’informations simple (position radar d’un avion communiquée d’un navire à l’autre par exemple), elles permettent aujourd’hui des actions complexes comme le guidage d’un missile tiré par un avion de chasse par le radar d’un avion AWACS situé à plusieurs centaines de kilomètres de l’avion tireur, permettant à ce dernier de viser plus précisément, plus loin et de ne pas utiliser son radar, lui garantissant une meilleure furtivité

Mais finalement même s’il s’agit d’une formidable optimisation de leur utilisation, ces données restent principalement destinées à un usage humain, la révolution que promet l’IA va elle bien plus loin.

L’IA, une révolution tactique annoncée

La particularité de l’IA est qu’elle aura un impact sur absolument tous les domaines liés de près ou de loin à la guerre, renforçant d’autant plus son caractère indispensable pour la défense du futur.

Sur le plan tactique, ces évolutions s’articulent sur 3 points principaux :

L’obtention d’une supériorité décisionnelle (Quand, Comment et Où engager le combat ?), pouvant aller de conseils et recommandations dans le cadre d’une IA faible (limitée au rôle d’assistant) à une autonomie presque complète, avec des drones armées. Les États-Unis ont ainsi annoncé travailler sur des essaims de drone à capacité létale, capable d’identifier collectivement des cibles ennemies, les premiers essais semblant particulièrement efficaces. Ces innovations permettant une meilleure vitesse, précision, performance et furtivité.

Un autre exemple assez éloquent serait le programme ALPHA américain, conçu initialement comme un outil d’entraînement pour les pilotes de chasse en fournissant un adversaire virtuel en simulateur. Cette IA, dans sa version la plus performante, confrontée à un pilote de chasse chevronné a remporté tous les engagements, à la grande stupéfaction du pilote, qui n’hésita pas à affirmer qu’il avait l’impression que l’IA anticipait systématiquement ses mouvements et savait toujours à quel moment éviter ses tirs puis contre-attaquer.

L’obtention d’une supériorité dans l’information : Avec un traitement et une répartition optimisée des données. Ce qui pose un problème majeur dans la mesure où aujourd’hui, même dans le cadre des liaisons tactiques de données, les données sont d’abord centralisées puis réparties en essayant d’anticiper les besoins de chaque unité. Si demain les données sont universellement partagées, du fantassin au général, et gérées par une IA pour offrir à tous la vision la plus complète possible du champ de bataille, cela nécessitera de fait un “aplanissement“ de la hiérarchie militaire, qui imposera probablement des réformes importantes de cette dernière et de la structure même d’une armée moderne. Dans cette optique les États-Unis ont annoncé récemment l’usage d’IA orientées vers l’analyse de renseignements sur des zones de guerre.

L’obtention d’une supériorité logistique : Il s’agit là d’une évolution moins évidente que les deux précédentes, mais absolument cruciale d’autant plus que le combat moderne sera davantage encore basé sur des machines, intelligentes ou non. Or une machine s’use, s’abîme, peut souffrir de défaillances, qui la rendent indisponible sur des périodes potentiellement importantes. On se souviendra ainsi de l’exemple des multiples ITER du Porte-Avion Charles de Gaulle pour des problèmes techniques, ce genre de problèmes est normal sur des systèmes de combat aussi complexes. L’IA permettra, en collectant et analysant un volume important de données sur ces systèmes, d’anticiper les défaillances futures, de prévoir le temps restant avant une panne, de détecter des failles.

On notera d’ailleurs que ce type d’amélioration permettra également d’améliorer les capacités cyber des armées de demain, en analysant les vulnérabilités de différents réseaux et en détectant mieux les attaques et intrusions. Point essentiel au vu de l’importance dans la collecte de l’information et donc l’IA de ces derniers, et c’est d’ailleurs aujourd’hui l’une des principales critiques adressées à l’IA : sa potentielle vulnérabilité à un large éventail de contre-mesures de brouillage et de piratage.

L’IA, entre potentiel et doute stratégique

Mais au-delà de ses perspectives tactiques, relativement visibles et perçues par le grand public, la vraie révolution viendra peut-être davantage de l’impact de l’IA sur la stratégie au sens large et la façon de penser et gagner la guerre plutôt que la bataille.

Comme évoqué précédemment, les domaines civils et militaires apparaissent comme de plus en plus indissociables depuis l’émergence du concept de guerre totale avec les deux conflits mondiaux et l’apparition de vrais complexes militaro-industriels au tournant du siècle dernier. L’IA n’y échappe pas, au contraire, et ses nombreuses applications civiles auront sans aucun doute un rôle à jouer dans la conduite d’une guerre future, notamment dans l’optimisation de la production industrielle, de la recherche et de l’utilisation des ressources humaines et matérielles, la gestion des soins, des hôpitaux militaires.

On constate aussi que des IA d’aide à la décision commencent à être utilisées par des grandes entreprises civiles dans leur choix stratégiques, principalement aux États-Unis et en Chine, leader incontestés dans le domaine. Y aura-t-il de même demain des IA au sein des états-majors participant à la détermination des orientations stratégiques ? Nous sommes en droit de nous poser la question.

Si ce point relève déjà largement de la réalité et du présent, une grande question à la réponse beaucoup plus complexe se pose au théoricien d’aujourd’hui : quel visage aura la guerre de demain ?

Les conflits d’aujourd’hui sont principalement des guerres asymétriques, opposant des armées régulières à des forces irrégulières usant de techniques de guérilla et de terrorisme. Or l’IA va poser deux questions par rapport à la réalité actuelle de ces conflits :

D’une part quel rôle aura l’impact de l’IA sur l’équilibre technologique des forces ? On pourrait en effet penser que ces technologies à haut coût de développement et emploi complexe permettraient d’accentuer l’avantage technologique des armées régulières les possédant. Mais force est de constater que jusque-là elles ont au contraire réduit cette avantage (d’où le terme de « technologies nivelantes »). Ainsi n’importe quel groupe terroriste ou presque peut aujourd’hui se fournir des drones et les armer, des ordinateurs très puissants sont disponibles dans le commerce civil, tout comme le GPS ou les imprimantes 3D, et l’on peut supposer que l’IA du futur, qui sera développée, au moins en parallèle, par des acteurs civils, suivra le même chemin (notamment avec la masse de données et algorithmes mis en ligne en open source).

D’autre part, si la doctrine contre-insurrectionnelle a bien évolué depuis sa naissance lors de la guerre d’Algérie, elle reste fondée sur l’idée de « gagner les cœurs et les esprits », notamment en partageant les risques de la population et en maintenant un contact cordial avec elle. Or l’on peut se demander, au vu de la difficulté de l’appliquer même dans les conditions actuelles, si la déshumanisation des combattants ne rendra pas son application impossible, en supprimant ou réduisant considérablement le contact humain et en donnant l’impression d’une armée qui se cache et envoie à sa place des machines. L’enfermement des soldats américains dans leurs bases et leur incapacité à bâtir une relation de confiance avec la population a ainsi été l’une des principales causes de leur échec en Afghanistan. L’arrivée de l’IA et la robotisation potentielle des armées qui pourraient en découler posent donc la question de savoir comment gagner les conflits asymétriques de demain.

Mais si les conflits d’aujourd’hui sont majoritairement asymétriques et d’ampleur limitée, le risque d’un conflit interétatique n’est pas pour autant nul, que ce soit à une échelle réduite ou mondiale. La question de penser cette guerre se pose aussi, une idée souvent retenue aujourd’hui étant celle que les drones des deux armées s’affronteraient jusqu’à épuisement des capacités de l’un des belligérant, qui serait forcé de demander la paix dans la mesure où aucun soldat humain ne souhaiterait ou pourrait s’opposer à des machines et que son opinion public y serait de toute façon très défavorable.10

L’impact de l’IA au niveau stratégique pourrait aussi se faire ressentir par une mutation des capacités nucléaires militaires, avec le développement de contre-mesures toujours plus performantes, risquant de mettre à mal “l’équilibre de la terreur“ existant, fondé sur la destruction mutuelle assurée en cas d’emploi de ces armes, rendant la guerre moins risquée.

De manière générale on peut craindre qu’en déshumanisant la guerre, en limitant son impact sur les humains et en renversant l’équilibre actuel de puissance, paradoxalement l’IA puisse pousser les états à y avoir davantage recours, triste rappel de la célèbre formule de Clausewitz selon laquelle la guerre est la continuation de la politique par d’autres moyens.

Interrogations occidentales, ambitions orientales

Mais cette évolution pourrait être tout autre, au vu notamment des différentes positions adoptées à travers le monde. En effet l’on s’interroge de plus en plus en Occident sur l’aspect éthique d’armes dotées d’une capacité létale autonome, et si fort heureusement nous sommes loin d’avoir créé l’équivalent d’un Terminator, cette idée et la crainte de l’IA restent extrêmement prégnants dans la culture occidentale. Crainte accentuée par l’image de déshumanisation de la guerre que renvoie l’usage de drones au Moyen-Orient, téléguidés depuis des milliers de kilomètres, qui séparent le combattant des conséquences concrètes de son action sur le champ de bataille. Ainsi a récemment été signé par plusieurs milliers d’acteurs du domaine un manifeste appelant à interdire la fabrication d’armes létales autonomes. 11

Au niveau stratégique, une IA peut-elle décider quelle unité affecter à un secteur plus dangereux ? Qui sacrifier ? Tout cela pose la question de la quantification de la valeur d’une vie.

De même de plus en plus de questions se posent quant à la collecte massive de données et son usage, on peut ainsi penser aux scandales récents liés à la NSA ou à la mise en place du Règlement Général de la Protection des Données dans l’Union Européenne. Or comme vu plus haut, ces données sont indissociables du développement des performances de l’IA.

A l’inverse de ces freins éthiques et moraux force est de constater qu’en Orient ces questions ne font absolument pas partie du débat public, et qu’au contraire l’objectif est à un développement massif des capacités de l’IA. Cela se ressent fortement dans les investissements publics dans le domaine, malgré la volonté affichée des États-Unis d’utiliser l’IA dans leur « third offset strategy » et l’intérêt que manifeste à propos de l’IA des puissances européennes, les investissements chinois sont pour l’instant très largement supérieurs.

Au final reste à savoir si le prix de cette éthique sera de subir une hégémonie militaire des pays qui ne s’en préoccupe pas, seul le futur nous le dira.

SOURCES

1 – VILLANI Cédric, « Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne »

2 – NOËL Jean-Christophe, « Intelligence artificielle, vers une nouvelle révolution militaire ? », étude de l’Institut Français des Relations Internationales (IFRI)

3 – TUAL Morgane, « Comment le Deep Learning révolutionne l’Intelligence artificielle ?, Le Monde,

4 – EZRATTY Olivier, « Qui gagnera la bataille de l’ordinateur quantique ? », La Tribune, 25/07/2018

5 – ROSENBERG Matthew and MARKOFF John, « The Pentagon’s “Terminator Conundrum“ : Robots that can kill on their own », The New York Times, 25/10/2016

6 – RAULINE Nicolas, « Quand l’armée américaine livre sa vision de la guerre du futur », Les Échos, 12/09/2018

7 – REILLY M. B., « Beyond video games: New artificial intelligence beats tactical experts in combat simulation », University of Cincinnati magazine, 27/06/2016

8 – PELLERIN Cheryl, « Project Maven to deploy Computer Algorithms to War Zone by Year’s End », U.S. Department of Defense, 21/07/2017

9 – Radio France Culture, « Dimanche et Après », le 01/04/2018 à 18h15

10 – DYEVRE Axel, GOETZ Pierre, FERRANDO Florence, « Intelligence Artificielle, Applications et enjeux pour les armées », note CEIS, septembre 2018

11 – « An open letter to the united nations convention on certain conventional weapons », Future of Life Institute

12 – GROS Philippe, « La Third Offset strategy américaine », Fondation pour la recherche stratégique, Juin 2016

13 – CAPPELLI Patrick, « La France reste dans la course aux armements », La Tribune, 27/06/2018

14 – BRAUNSTEIN Juergen, LABOURE Marion, ZHANG Haiyang, « La Chine a une chance de devenir leadeur de l’intelligence artificielle », Le Monde, 18/04/2018

15 – GUIBERT Nathalie, « Les défis militaires de l’intelligence artificielle », Le Monde, 18/10/2018

Laisser un commentaire

Fermer le menu