Marcquer : Bienvenue dans Le Monde selon l'Ifri, un podcast de l'Institut français des relations internationales. Je suis Marcquer, directeur adjoint de l'Ifri et rédacteur en chef de la revue Politique étrangère. Je coanime ce podcast avec Cathy Hamilton, chargée de projet à l'Ifri. Bonjour Cathy. Cathy Hamilton : Bonjour Marc, bonjour à tous. L'objectif de ce podcast est de vous donner un aperçu de la richesse de la production de l'Ifri et de vous offrir des clés de compréhension du monde dans lequel nous vivons. Pour cet épisode, nous avons le plaisir de recevoir Laure Deroussy, responsable du programme Géopolitique des Technologies à l'Ifri. Elle vient de publier dans le nouveau numéro de la revue Politique étrangère un article co-écrit avec Amélie Ferret intitulé De l'Ukraine à Gaza : l'intelligence artificielle en guerre. Son livre, tiré de sa thèse de doctorat, paraîtra en octobre aux Presses universitaires de France sous le titre La guerre à l'ère de l'intelligence artificielle. Laure, bonjour et merci d'être avec nous. Laure Deroussy : Bonjour, merci de m'avoir invitée. Marcquer : Rentrons tout de suite dans le vif du sujet. Pouvez-vous nous expliquer à quoi ressemble la guerre à l'ère de l'intelligence artificielle, et plus précisément, quelles sont les principales innovations que vous avez observées en Ukraine et à Gaza ? Laure Deroussy : Oui, bien sûr. Ce qui est important de souligner, c'est que le recours à l'intelligence artificielle dans les systèmes de défense n'est pas aussi récent qu'on pourrait le penser. Cela fait plus d'une décennie que cette ambition est poursuivie. En 2009 puis en 2012, les États-Unis ont élaboré une première stratégie en la matière. Depuis, de nombreuses technologies ont été intégrées dans divers systèmes d'armes. Jusqu'à l'invasion de l'Ukraine, les États-Unis, la Chine et, dans une moindre mesure, la Russie étaient considérés comme les leaders dans ce domaine. Marcquer : Et qu'a-t-on observé au moment de l'invasion de l'Ukraine ? Laure Deroussy : Ce qui a surpris les observateurs, c'est le manque d'avancées technologiques de la Russie. Contrairement à ce que l'on pensait, la Russie n'a pas brillé par l'utilisation d'outils high-tech sur le terrain. À l'inverse, l'Ukraine a mis en place une stratégie innovante en s'associant à de grandes entreprises américaines. Ils misent sur un rattrapage technologique pour compenser leur infériorité numérique, notamment en intégrant l'intelligence artificielle dans leurs systèmes d'armement. Cathy Hamilton : Comment cette intelligence artificielle est-elle utilisée concrètement sur le champ de bataille ? Laure Deroussy : Il y a plusieurs niveaux d'application. D'abord, il faut savoir que les champs de bataille actuels sont saturés de capteurs, qu'il s'agisse de satellites, de drones ou même de smartphones et caméras embarquées par les soldats. Cela génère une quantité énorme de données, et l'intelligence artificielle est cruciale pour les analyser rapidement et efficacement. Elle permet de tirer des conclusions qui aident à la prise de décision, par exemple en matière de ciblage. Marcquer : Et en ce qui concerne Gaza, quelles différences avez-vous notées ? Laure Deroussy : À Gaza, l'intelligence artificielle est utilisée de manière différente. Israël avait déjà largement investi dans ces technologies avant même le début de l'opération Glaive de fer. Ce qui distingue Israël, c'est l'intégration de l'IA avec la surveillance de masse, notamment en utilisant des algorithmes pour évaluer la menace que représente chaque habitant de Gaza. Un des programmes les plus controversés, LaVender, a même été associé à des accusations de crimes de guerre. Cathy Hamilton : Pouvez-vous nous en dire plus sur LaVender et les autres programmes algorithmiques mis en place ? Laure Deroussy : LaVender est l'un des programmes qui ont fait l'objet de nombreuses enquêtes journalistiques. Ces programmes permettent, entre autres, de cartographier les tunnels à Gaza, mais aussi de déterminer la dangerosité potentielle des individus en fonction de leur profil. Cela soulève évidemment des questions éthiques importantes, notamment en termes de protection des droits humains. ________________________________________ Laure Deroussy : Le programme LaVender fonctionne en cohérence avec deux autres programmes informatiques. Je vais donc parler des trois ensemble, car ils sont vraiment intégrés. Le premier, c'est Absora (qui signifie "l'Évangile" en hébreu), qui permet d'identifier les habitations à Gaza où résident des membres du Hamas. Ce programme a notamment été associé à des frappes sur des habitations, ce qui a suscité une controverse liée au principe de proportionnalité du droit international humanitaire. Parfois, pour éliminer un membre du Hamas habitant à un étage d'un immeuble de plusieurs étages, l'immeuble entier était détruit. Le second programme, c'est LaVender, qui permet d'identifier précisément les combattants. Il s'appuie sur les fameuses notes de sécurité que j'évoquais précédemment, et qui permettent de cibler de manière très précise les combattants potentiels. Le dernier programme, et probablement le plus problématique sur le plan moral, s'appelle Where's Daddy? (Où est papa?). Ce nom déjà assez morbide reflète le fait que ce programme permet de cibler les combattants du Hamas lorsqu'ils sont chez eux. L'idée est de frapper la nuit, car le taux de létalité est plus élevé lorsque les combattants sont dans leur domicile. Cependant, cela pose un problème évident de distinction entre civils et combattants, car ces frappes touchent également leurs enfants, voisins, et familles. C'est là que le principe du droit international humanitaire, qui impose de distinguer les civils des combattants, est mis en question. Marcquer : Vous soulevez des points critiques. Cela nous ramène aux risques associés à l'intelligence artificielle dans la guerre. Pouvez-vous nous en dire plus sur ces risques ? Laure Deroussy : Oui, plusieurs risques sont régulièrement discutés dans la littérature sur l'IA militaire. Le premier est lié aux biais dans les algorithmes. Par exemple, les notes de sécurité de LaVender peuvent être basées sur des informations obsolètes ou erronées. Beaucoup de ces notes reposent sur des numéros de téléphone, or dans un contexte de guerre, les téléphones sont souvent volés, prêtés ou perdus. Cela soulève des questions sur la fiabilité de ces données. Un autre problème est celui de la surconfiance des opérateurs dans les recommandations algorithmiques. Ce qu'on appelle le "biais d'automatisation" fait que, lorsqu'un opérateur reçoit une recommandation de la part d'un algorithme, il a tendance à la suivre sans la remettre en question. Cela est aggravé par la complexité des systèmes, qui sont souvent des "boîtes noires" même pour leurs développeurs. Il est difficile de comprendre exactement comment l'algorithme est arrivé à sa décision. Enfin, il y a la pression du rythme rapide des opérations militaires. Les décisions doivent parfois être prises en quelques secondes. Dans le cas de LaVender, les opérateurs avaient souvent seulement 20 secondes pour vérifier une cible, ce qui est extrêmement court. Cela ne leur laissait pratiquement le temps que de vérifier le sexe de la personne ciblée. Cathy Hamilton : Cela rejoint la question plus large du contrôle humain sur les systèmes d'armes autonomes. Votre thèse traite de la théorie du contrôle de la force. Pouvez-vous nous en dire plus ? Laure Deroussy : Oui, dans ma thèse, je m'interroge sur la capacité des humains à maintenir un contrôle sur des systèmes de plus en plus autonomes. Il y a trois principaux facteurs qui compliquent ce contrôle. Premièrement, le rythme rapide des opérations, qui rend difficile pour l'humain de réfléchir pleinement aux décisions à prendre. Ensuite, l'environnement de plus en plus complexe dans lequel évoluent ces systèmes, avec des données très variées à prendre en compte. Enfin, la quantité massive de cibles à traiter, notamment en Ukraine et à Gaza, qui ajoute une pression supplémentaire sur les opérateurs. L'une des grandes questions concerne l'apprentissage autonome des machines, ou "métacognition", où les machines apprennent par elles-mêmes sans supervision humaine. Cela rend encore plus difficile de comprendre et de contrôler les décisions qu'elles prennent. Marcquer : Quelles sont les perspectives pour encadrer l'utilisation de l'IA dans les conflits, notamment au niveau international ? Laure Deroussy : Il y a effectivement des discussions sur la mise en place de cadres internationaux pour limiter l'utilisation de l'IA dans les conflits. Ces débats existent depuis un certain temps et impliquent diverses instances, y compris les Nations Unies... Laure Deroussy : À peu près en même temps, les efforts d'arsenalisation de l'intelligence artificielle et ceux visant à interdire l'IA militaire ont émergé. Les débats sur l'IA militarisée ont commencé par la question des armes autonomes, ce qu’on appelle les systèmes d'armes létaux autonomes (les SALA). Ces systèmes font l'objet de discussions internationales depuis 2013. En 2013, une coalition d'ONG s'est formée sous le nom de Campaign to Stop Killer Robots, avec pour objectif d'interdire ces armes autonomes. Cette campagne a aussi élargi ses préoccupations à des usages plus vastes de l'intelligence artificielle. L'effet de cette campagne a été d'inscrire la question à l'agenda international, notamment à l'ONU, dans le cadre de la Convention sur certaines armes classiques à Genève. Depuis 2017, un groupe d'experts gouvernementaux y discute des meilleures manières de réguler ces technologies. Cependant, les militants anti-SALA sont insatisfaits du processus multilatéral en cours et estiment que d’autres forums seraient plus favorables à une interdiction. Cela s'est déjà produit avec le Traité d'interdiction des armes nucléaires en 2017 ou encore avec les conventions sur les armes à sous-munitions. On pourrait voir des initiatives similaires pour l'IA militaire, notamment via l'Assemblée générale des Nations Unies. L'année dernière, une résolution a été largement votée à l'ONU sur ce sujet, bien qu'elle reste encore très large. Elle marque cependant une prise de conscience, y compris par le Secrétaire général de l'ONU, António Guterres, qui plaide régulièrement pour une régulation. Il a récemment appelé à une mise en place de régulation d'ici 2026, et même le Conseil de sécurité s'est penché sur ce sujet en juillet 2023. En parallèle, il y a eu le sommet REAIM (Responsible AI in the Military Domain), une rencontre transnationale qui inclut la société civile et d'autres acteurs pour réfléchir à la meilleure manière de réguler l'IA dans le domaine militaire. Marcquer : Dans la conclusion de votre livre, vous plaidez pour plus de régulation, voire d’interdiction. Cependant, quand on regarde l'actualité, on constate de nombreuses violations du droit international sans sanctions. Cela n’incite guère à l’optimisme. Pensez-vous que le droit international soit une solution solide ? Laure Deroussy : Je crois beaucoup au cadre juridique. Certes, les violations sont nombreuses, mais les références au droit se multiplient, ce qui montre que le droit reste pertinent. Que ce soit en Ukraine ou à Gaza, nous voyons de plus en plus de recours aux institutions comme la Cour internationale de justice ou la Cour pénale internationale (CPI). Ces références permettent de qualifier les faits, de déterminer ce qui est légal ou illégal, et donc de limiter certains comportements. Le droit est aussi crucial pour la sanction. C'est une question centrale dans les cas de l'Ukraine et de Gaza, notamment sur la responsabilité pénale internationale. Avec l'autonomisation croissante des systèmes d'armes, il devient de plus en plus difficile d'attribuer la responsabilité en cas de défaillance technique ou d’exactions commises avec l’aide d’un système autonome. Le droit peut aider à établir un "tabou" autour de certaines armes, comme cela a été fait avec les armes chimiques après la Première Guerre mondiale. Même si cela ne signifie pas que toutes les violations cessent, cela fortifie un consensus international contre leur utilisation. Sans un cadre juridique clair, on risque de voir un "fait accompli". Cela s’est déjà produit avec les drones, où la régulation a pris du retard par rapport à leur usage militaire. Aujourd'hui, nous parlons d’armes qui succèdent aux drones et qui échappent de plus en plus au contrôle humain. Ce qui est particulièrement inquiétant, c'est l'intégration de l'intelligence artificielle dans la chaîne de commandement nucléaire, un sujet qui peut mener à des scénarios dystopiques s’il n’est pas régulé. Marcquer : Dans votre livre, vous notez que l'émergence de nouvelles capacités technologiques ne suffit pas à provoquer une révolution militaire. Selon vous, l'utilisation de l'IA est-elle susceptible de révolutionner la guerre et de transformer la nature même des conflits ? Laure Deroussy : C’est une question complexe. Personnellement, je pense que oui. Bien que cette opinion ne soit pas partagée par tous les experts, j’ai étudié dans ma thèse trois domaines : le droit de la guerre, l'éthique de la guerre et la stratégie militaire. Il me semble que ces trois corpus, essentiels pour comprendre la guerre, sont bouleversés par l’autonomisation croissante du recours à la force. Ils ne sont pas encore complètement adaptés pour intégrer cette innovation. Un enjeu majeur est la question de l'agentivité : qui est responsable du recours à la force ? Avec les armes autonomes, l’humain n’est plus l’agent direct, c'est la machine qui prend la décision. Cela pose des questions fondamentales sur la responsabilité et la moralité dans les conflits modernes. Laure Deroussy : Cela bouleverse complètement la manière dont les corpus que j’ai évoqués sont pensés. Cela change également beaucoup de choses sur l'éthos guerrier, qui est traditionnellement conçu autour de l'idée de sacrifice suprême. Si l'on ne risque plus sa vie au combat, que devient cet éthos ? Ces questions ont déjà été soulevées avec l'usage des drones, mais elles sont encore plus criantes avec les armes autonomes. Avec les drones, il y avait une distance physique, mais ici, il n’y a même plus de distance psychologique. Il n’y a plus de conscience humaine qui porte le fardeau de la vie ôtée. Cela pose une question fondamentale de dignité humaine. Je pense que la guerre a toujours été une activité profondément humaine, dans ce qu’elle peut avoir de meilleur et de pire. Quand on parle d’humanité, on peut le voir sous deux aspects. Le premier est ontologique : ce que sont les humains. Dans le cas des armes, ce sont bien des humains qui les utilisent. Le second aspect est axiologique : l’humanité comme norme de conduite. Agir avec humanité, c’est éviter la cruauté. Il y a un débat sur la question de savoir si l’utilisation croissante de l’intelligence artificielle et des systèmes autonomes rend la guerre plus "propre". C’est une question qui mériterait un podcast entier. Mais ce qui est certain, et c'est aussi la conclusion de notre article dans Politique étrangère avec Amélie Ferret, c'est que changer d’outils à ce point ne peut qu'avoir des conséquences sur le phénomène guerrier lui-même. Il y a une longue histoire sur la question de la distance dans la guerre, depuis les armes de jet, et comment cela modifie certaines qualités intrinsèques à la guerre. Mais ici, il semble y avoir un changement beaucoup plus fondamental. Marcquer : Si vous deviez résumer en quelques phrases l'idée principale de ce changement de nature de la guerre avec l'autonomisation des armes, comment le formuleriez-vous ? Laure Deroussy : C'est difficile de résumer en quelques phrases — il faut lire mon livre (rires). Mais pour faire simple, je pense que la guerre et les trois corpus que j’ai mentionnés (droit, éthique, stratégie) sont structurés autour de l’idée de contrôle de la force. C’est à cela que servent ces corpus : contrôler l’usage de la force. Ce que j’essaie de montrer dans mon livre, c’est que ce contrôle de la force se manifeste de différentes façons, notamment à travers trois dimensions. Premièrement, il y a le contrôle humain, et nous avons vu comment celui-ci s’érode avec les armes autonomes. Ensuite, il y a le contrôle politique, qui a deux aspects. Le premier est l’influence des acteurs non étatiques, comme la société civile, qui peuvent faire pression sur les gouvernements pour arrêter ou mener une guerre. L’usage d’armes autonomes, comme on l’a vu à Gaza, peut faire basculer l’opinion publique. Le second aspect est le contrôle démocratique. Par exemple, lors de l’intervention des États-Unis en Libye, ils ont utilisé exclusivement des drones, ce qui leur a permis de contourner la War Powers Resolution, sous prétexte qu'aucune vie américaine n’était engagée. Enfin, la troisième dimension est internationale. Elle concerne l'interaction stratégique entre compétiteurs. La dialectique stratégique, jusqu’à présent, reposait sur une psychologie humaine, avec des signaux et des contre-signaux, des escalades maîtrisées. Mais avec des systèmes autonomes, cela peut changer. Des signaux pourraient être mal interprétés, ce qui bouleverserait la manière dont les conflits sont menés. Et enfin, il y a la maîtrise des armements. Comme on l’a déjà évoqué, c'est un aspect très complexe, notamment avec l’intelligence artificielle, car c’est une technologie duale, comme le nucléaire ou le chimique. Il est difficile de dire qu’un algorithme est exclusivement militaire ou civil. Un autre risque est la prolifération, car ce sont des technologies peu coûteuses et facilement accessibles, ce qui pose la menace de leur diffusion à des acteurs non étatiques. Marcquer : Merci beaucoup, Laure Deroussy Roch-Gonde, d'avoir participé à ce podcast. Chers auditeurs, nous vous recommandons vivement de vous procurer le nouveau numéro de la revue Politique étrangère, dont le dossier principal est consacré à l’intelligence artificielle. Je vous rappelle aussi la parution en octobre, aux Presses universitaires de France, du livre La guerre à l'ère de l'intelligence artificielle. N'hésitez pas à vous abonner à Le Monde selon l'Ifri sur votre plateforme préférée et à suivre l'Institut français des relations internationales sur les réseaux sociaux. À bientôt pour un prochain épisode !