Laure Deroussy, responsable du programme Géopolitique des Technologies à l’Institut français des relations internationales (Ifri), a récemment publié un article intitulé « De l’Ukraine à Gaza : l’intelligence artificielle en guerre » et un livre « La guerre à l’ère de l’intelligence artificielle ». Elle examine l’impact croissant de l’intelligence artificielle (IA) dans les conflits contemporains, en se focalisant sur les cas de l’Ukraine et de Gaza.
1. L’usage de l’IA en Ukraine
- Antériorité de l’IA militaire : L’intégration de l’IA dans les systèmes de défense est une ambition poursuivie depuis plus d’une décennie. En 2009 et 2012, les États-Unis ont élaboré des stratégies en la matière. La Chine et, dans une moindre mesure, la Russie étaient également considérées comme des leaders dans ce domaine avant l’invasion de l’Ukraine.
- Surprise lors de l’invasion de l’Ukraine : La Russie a étonné les observateurs par son manque d’avancées technologiques sur le terrain. À l’inverse, l’Ukraine a mis en place une stratégie innovante en collaborant avec de grandes entreprises américaines, cherchant à compenser son infériorité numérique par un rattrapage technologique, notamment via l’intégration de l’IA dans ses systèmes d’armement.
- Applications concrètes de l’IA :
- Saturation de capteurs : Les champs de bataille modernes sont équipés de nombreux capteurs (satellites, drones, smartphones, caméras embarquées), générant une quantité massive de données.
- Analyse et prise de décision : L’IA est essentielle pour analyser rapidement ces données, permettant d’aider à la prise de décision stratégique, notamment en matière de ciblage.
2. L’usage de l’IA à Gaza
- Investissement d’Israël dans l’IA : Avant l’opération « Glaive de fer », Israël avait déjà largement investi dans les technologies d’IA, intégrées avec des systèmes de surveillance de masse.
- Programmes algorithmiques déployés :
- Évaluation individuelle des menaces : Utilisation d’algorithmes pour attribuer des « notes de sécurité » à chaque habitant de Gaza, évaluant leur dangerosité potentielle.
- Programmes spécifiques :
- Absora : Identifie les habitations où résident des membres du Hamas, soulevant des questions sur le respect du principe de proportionnalité du droit international humanitaire.
- LaVender : Cible précisément les combattants en se basant sur des données qui peuvent être obsolètes ou erronées.
- Where’s Daddy? : Vise les combattants du Hamas lorsqu’ils sont chez eux, généralement la nuit, posant des problèmes de distinction entre civils et combattants.
3. Risques associés à l’IA dans la guerre
- Biais algorithmiques :
- Fiabilité des données : Les informations utilisées peuvent être datées, erronées ou basées sur des éléments instables comme les numéros de téléphone, souvent échangés ou perdus en contexte de guerre.
- Conséquences : Risque accru de cibler des personnes innocentes.
- Surconfiance dans les algorithmes :
- Biais d’automatisation : Les opérateurs tendent à suivre les recommandations des algorithmes sans les remettre en question, surtout sous pression temporelle.
- Complexité des systèmes : Les algorithmes fonctionnent souvent comme des « boîtes noires », rendant leur fonctionnement opaque même pour les experts.
- Pression opérationnelle :
- Décisions rapides : Les opérateurs disposent de temps très limité pour vérifier les cibles (par exemple, 20 secondes dans le cas de LaVender), limitant la capacité à effectuer des vérifications approfondies.
- Érosion du contrôle humain :
- Apprentissage autonome des machines : Les systèmes d’IA développent des capacités d’auto-apprentissage, rendant le contrôle humain encore plus difficile.
4. Perspectives de régulation de l’IA dans les conflits
- Débats internationaux en cours :
- Systèmes d’armes létaux autonomes (SALA) : Depuis 2013, discussions sur l’interdiction ou la régulation de ces armes.
- Campagne « Stop Killer Robots » : Coalition d’ONG visant à interdire les SALA et à encadrer l’utilisation de l’IA militaire.
- Initiatives au sein de l’ONU :
- Convention sur certaines armes classiques : Un groupe d’experts gouvernementaux discute depuis 2017 des moyens de réguler ces technologies.
- Résolutions et appels : Adoption de résolutions appelant à une régulation, avec des personnalités comme António Guterres plaidant pour une action d’ici 2026.
- Difficultés et alternatives :
- Insatisfaction des militants : Perception que le processus multilatéral est trop lent, conduisant à chercher des forums alternatifs comme l’Assemblée générale des Nations unies.
- Sommet REAIM : Rencontre internationale visant à discuter de l’IA responsable dans le domaine militaire.
5. Importance du cadre juridique
- Rôle du droit international :
- Qualification des actes : Permet de déterminer la légalité des actions et de limiter certains comportements.
- Sanctions et responsabilité : Essentiel pour attribuer des responsabilités, notamment face à l’autonomisation croissante des armes.
- Défis spécifiques à l’IA militaire :
- Attribution de la responsabilité : Complexité accrue en cas de défaillance technique ou d’exactions commises avec des systèmes autonomes.
- Établissement de tabous : Le droit peut contribuer à créer un consensus international contre certaines armes, comme ce fut le cas pour les armes chimiques.
- Risque du « fait accompli » :
- Précédent des drones : Leur utilisation s’est généralisée avant que des cadres juridiques ne soient établis.
- Nécessité d’anticipation : Importance d’établir des régulations avant une diffusion massive et incontrôlée des technologies d’IA militaires.
6. Transformation de la nature de la guerre par l’IA
- Changement de l’agentivité :
- Machine comme agent : Avec les armes autonomes, les décisions létales peuvent être prises par des systèmes automatisés, réduisant le rôle direct de l’humain.
- Questions de responsabilité et de moralité : Qui est responsable des actions commises par une machine ?
- Impact sur l’éthos guerrier :
- Érosion du sacrifice : Si les combattants ne risquent plus leur vie, le concept traditionnel du courage et du sacrifice est remis en question.
- Distance psychologique : Absence de conscience humaine dans l’acte de tuer, posant des problèmes éthiques profonds.
- Défis pour les corpus fondamentaux :
- Droit, éthique et stratégie militaire : Ces domaines sont bouleversés et doivent s’adapter à l’autonomisation de la force.
- Guerre déshumanisée : Risque d’une déconnexion accrue entre les décisions militaires et les réalités humaines du conflit.
- Débats sur une guerre « plus propre » :
- Arguments pour et contre : Certains soutiennent que l’IA peut réduire les pertes civiles, tandis que d’autres craignent une escalade incontrôlée et une déshumanisation de la violence.
Conclusion
L’intégration croissante de l’intelligence artificielle dans les conflits armés pose des défis majeurs en termes de contrôle humain, de responsabilité juridique et d’éthique. Sans cadre juridique adapté et sans une réflexion approfondie sur les implications morales, il existe un risque que l’IA transforme fondamentalement la nature de la guerre, avec des conséquences potentiellement graves pour l’humanité.
Sources :
ChatGPT o1-preview