5111995.jpegExactement deux semaines après l'invasion de l'Ukraine par la Russie en février, Alexander Karp, PDG de la société d'analyse de données Palantir, a présenté son argumentaire aux dirigeants européens. Avec la guerre à leurs portes, les Européens devraient moderniser leurs arsenaux avec l'aide de la Silicon Valley, a-t-il soutenu dans une lettre ouverte.

Pour que l'Europe "reste suffisamment forte pour vaincre la menace d'une occupation étrangère", a écrit Karp, les pays doivent embrasser "la relation entre la technologie et l'État, entre les entreprises perturbatrices qui cherchent à déloger l'emprise des entrepreneurs enracinés et les ministères du gouvernement fédéral avec financement."

Les militaires répondent à l'appel. L'OTAN a annoncé le 30 juin qu'elle créait un fonds d'innovation d'un milliard de dollars qui investirait dans des startups en démarrage et des fonds de capital-risque développant des technologies "prioritaires" telles que l'intelligence artificielle, le traitement des mégadonnées et l'automatisation. Depuis le début de la guerre, le Royaume-Uni a lancé une nouvelle stratégie d'IA spécifiquement pour la défense, et les Allemands ont affecté un peu moins d'un demi-milliard à la recherche et à l'intelligence artificielle dans le cadre d'une injection de 100 milliards de dollars à l'armée.

« La guerre est un catalyseur de changement », déclare Kenneth Payne, qui dirige la recherche sur les études de défense au King's College de Londres et est l'auteur du livre I, Warbot : The Dawn of Artificially Intelligent Conflict.
La guerre en Ukraine a ajouté de l'urgence à la volonté de pousser davantage d'outils d'IA sur le champ de bataille. Ceux qui ont le plus à gagner sont des startups telles que Palantir, qui espèrent tirer profit de la course des militaires pour mettre à jour leurs arsenaux avec les dernières technologies. Mais les préoccupations éthiques de longue date concernant l'utilisation de l'IA dans la guerre sont devenues plus urgentes à mesure que la technologie devient de plus en plus avancée, tandis que la perspective de restrictions et de réglementations régissant son utilisation semble plus lointaine que jamais.

La relation entre la technologie et l'armée n'a pas toujours été aussi amicale. En 2018, suite aux protestations et à l'indignation des employés, Google s'est retiré du projet Maven du Pentagone, une tentative de construire des systèmes de reconnaissance d'images pour améliorer les frappes de drones. L'épisode a provoqué un débat houleux sur les droits de l'homme et la moralité du développement de l'IA pour les armes autonomes.
Cela a également conduit des chercheurs de haut niveau en IA tels que Yoshua Bengio, lauréat du prix Turing, et Demis Hassabis, Shane Legg et Mustafa Suleyman, les fondateurs du principal laboratoire d'IA DeepMind, à s'engager à ne pas travailler sur l'IA létale.

Mais quatre ans plus tard, la Silicon Valley est plus proche que jamais des militaires du monde. Et il n'y a pas que les grandes entreprises non plus - les startups commencent enfin à s'intéresser, déclare Yll Bajraktari, qui était auparavant directeur exécutif de la National Security Commission on AI (NSCAI) des États-Unis et travaille maintenant pour le Special Competitive Studies Project, un groupe qui fait pression pour une plus grande adoption de l'IA aux États-Unis.

Pourquoi l'IA ?​

Les entreprises qui vendent de l'IA militaire revendiquent largement ce que leur technologie peut faire. Ils disent que cela peut aider à tout, du plus banal au plus mortel, du filtrage des CV au traitement des données des satellites ou à la reconnaissance de modèles dans les données pour aider les soldats à prendre des décisions plus rapides sur le champ de bataille. Un logiciel de reconnaissance d'images peut aider à identifier les cibles. Les drones autonomes peuvent être utilisés pour la surveillance ou les attaques terrestres, aériennes ou maritimes, ou pour aider les soldats à livrer des fournitures de manière plus sûre que ce qui est possible par voie terrestre.

Ces technologies en sont encore à leurs balbutiements sur le champ de bataille, et les militaires traversent une période d'expérimentation, dit Payne, parfois sans grand succès. Il existe d'innombrables exemples de la tendance des entreprises d'IA à faire de grandes promesses sur des technologies qui ne fonctionnent pas comme annoncé , et les zones de combat sont peut-être parmi les domaines les plus difficiles sur le plan technique dans lesquels déployer l'IA, car il existe peu de données de formation pertinentes.
Cela pourrait entraîner une défaillance des systèmes autonomes de «manière complexe et imprévisible», a déclaré Arthur Holland Michel, un expert des drones et d'autres technologies de surveillance, dans un article pour l'Institut des Nations Unies pour la recherche sur le désarmement.
Néanmoins, de nombreuses armées avancent. Dans un communiqué de presse vaguement formulé en 2021, l'armée britannique a fièrement annoncé qu'elle avait utilisé l'IA dans une opération militaire pour la première fois, pour fournir des informations sur l'environnement et le terrain environnants. Les États-Unis travaillent avec des startups pour développer des véhicules militaires autonomes . À l'avenir, des essaims de centaines, voire de milliers de drones autonomes que les militaires américains et britanniques développent pourraient s'avérer être des armes puissantes et mortelles.

De nombreux experts s'inquiètent. Meredith Whittaker, conseillère principale sur l'IA à la Federal Trade Commission et directrice de faculté à l'AI Now Institute, affirme que cette poussée vise davantage à enrichir les entreprises technologiques qu'à améliorer les opérations militaires.
Dans un article pour le magazine Prospect co-écrit avec Lucy Suchman, professeur de sociologie à l'Université de Lancaster, elle a fait valoir que les boosters d'IA alimentent la rhétorique de la guerre froide et tentent de créer un récit qui positionne la Big Tech comme une "infrastructure nationale critique", trop grande et important de rompre ou de réglementer. Ils avertissent que l'adoption de l'IA par l'armée est présentée comme une fatalité plutôt que comme ce qu'elle est réellement : un choix actif qui implique des complexités éthiques et des compromis.

Coffres de guerre IA​

9a325a_3_ai-and-the-military_rand-corporation_article.jpgAvec la controverse autour de Maven qui recule dans le passé, les voix appelant à plus d'IA dans la défense sont devenues de plus en plus fortes au cours des deux dernières années. L'un des plus bruyants a été l'ancien PDG de Google, Eric Schmidt, qui a présidé le NSCAI et a appelé les États-Unis à adopter une approche plus agressive pour adopter l'IA militaire.
Dans un rapport de l'année dernière, décrivant les mesures que les États-Unis devraient prendre pour être à jour en matière d'IA d'ici 2025, le NSCAI a appelé l'armée américaine à investir 8 milliards de dollars par an dans ces technologies ou à risquer de prendre du retard sur la Chine.

L'armée chinoise dépense probablement au moins 1,6 milliard de dollars par an pour l'IA, selon un rapport du Georgetown Center for Security and Emerging Technologies, et aux États-Unis, des efforts importants sont déjà en cours pour atteindre la parité, déclare Lauren Kahn, chercheuse. au Conseil des relations étrangères. Le département américain de la Défense a demandé 874 millions de dollars pour l'intelligence artificielle pour 2022, bien que ce chiffre ne reflète pas le total des investissements du département dans l'IA, a-t-il déclaré dans un rapport de mars 2022.

Il n'y a pas que l'armée américaine qui est convaincue de la nécessité. Les pays européens, qui ont tendance à être plus prudents quant à l'adoption de nouvelles technologies, dépensent également plus d'argent pour l'IA, déclare Heiko Borchert, codirecteur de l'Observatoire de l'IA de la Défense à l'Université Helmut Schmidt de Hambourg, en Allemagne. Les Français et les Britanniques ont identifié l'IA comme une technologie de défense clé, et la Commission européenne, le bras exécutif de l'UE, a affecté 1 milliard de dollars au développement de nouvelles technologies de défense.

Bons cercles, mauvais cercles​

Créer une demande pour l'IA est une chose. Faire en sorte que les militaires l'adoptent en est une autre.
De nombreux pays poussent à l'adoption de l'IA, mais ils ont du mal à passer du concept au déploiement, déclare Arnaud Guérin, PDG de Preligens, une startup française qui vend la surveillance de l'IA. C'est en partie parce que l'industrie de la défense dans la plupart des pays est encore généralement dominée par un groupe de grands entrepreneurs, qui ont tendance à avoir plus d'expertise dans le matériel militaire que dans les logiciels d'IA, dit-il.

C'est aussi parce que les processus de vérification militaires maladroits évoluent lentement par rapport à la vitesse vertigineuse que nous avons l'habitude de voir dans le développement de l'IA : les contrats militaires peuvent s'étendre sur des décennies, mais dans le cycle de démarrage rapide, les entreprises n'ont qu'un an environ pour quitter le terrain.
Les startups et les investisseurs en capital-risque ont exprimé leur frustration devant la lenteur du processus. Selon Katherine Boyle, associée générale de la société de capital-risque Andreessen Horowitz, le risque est que des ingénieurs talentueux partent frustrés pour des emplois chez Facebook et Google, et que des startups fassent faillite en attendant des contrats de défense .

"Certains de ces cerceaux sont totalement critiques, en particulier dans ce secteur où les problèmes de sécurité sont très réels", déclare Mark Warner, qui a fondé FacultyAI, une société d'analyse de données qui travaille avec l'armée britannique. "Mais d'autres ne le sont pas … et à certains égards ont consacré la position des titulaires."

Les entreprises d'IA ayant des ambitions militaires doivent "rester en activité pendant longtemps", déclare Ngor Luong, analyste de recherche qui a étudié les tendances d'investissement en IA au Georgetown Center for Security and Emerging Technologies.
Les militaires sont dans une impasse, dit Kahn : allez trop vite et risquez de déployer des systèmes dangereux et défectueux, ou allez trop lentement et passez à côté des avancées technologiques. Les États-Unis veulent aller plus vite et le DoD a demandé l'aide de Craig Martell, l'ancien chef de l'IA de la société de covoiturage Lyft.
En juin 2022, Martell a pris la tête du nouveau Chief Digital Artificial Intelligence Office du Pentagone, qui vise à coordonner les efforts de l'armée américaine en matière d'IA. La mission de Martell, a-t-il déclaré à Bloomberg , est de changer la culture du département et de stimuler l'utilisation de l'IA par l'armée malgré "l'inertie bureaucratique".

Il pousse peut-être une porte ouverte, car les sociétés d'IA commencent déjà à décrocher des contrats militaires lucratifs. En février, Anduril, une startup créée il y a cinq ans qui développe des systèmes de défense autonomes tels que des drones sous-marins sophistiqués, a remporté un contrat de défense d'un milliard de dollars avec les États-Unis. En janvier, ScaleAI, une startup qui fournit des services d'étiquetage de données pour l'IA, a remporté un contrat de 250 millions de dollars avec le département américain de la Défense.

Méfiez-vous du battage médiatique​

Malgré la marche régulière de l'IA sur le champ de bataille, les préoccupations éthiques qui ont suscité les protestations autour du projet Maven n'ont pas disparu.

Des efforts ont été déployés pour apaiser ces inquiétudes. Conscient qu'il a un problème de confiance, le département américain de la Défense a mis en place des lignes directrices « intelligence artificielle responsable » pour les développeurs d'IA, et il a ses propres lignes directrices éthiques pour l'utilisation de l'IA. L'OTAN a une stratégie d'IA qui définit des lignes directrices éthiques volontaires pour ses pays membres. Toutes ces directives appellent les militaires à utiliser l'IA d'une manière légale, responsable, fiable et traçable et cherchent à atténuer les biais intégrés dans les algorithmes.

L'un de leurs concepts clés est que les humains doivent toujours garder le contrôle des systèmes d'IA. Mais à mesure que la technologie se développera, cela ne sera plus vraiment possible, dit Payne. "L'intérêt d'un [système] autonome est de lui permettre de prendre une décision plus rapidement et avec plus de précision qu'un humain ne pourrait le faire et à une échelle qu'un humain ne peut pas faire", dit-il. "Vous vous paralysez en fait si vous dites" "Non, nous allons avocat pour chaque décision."

Pourtant, les critiques disent que des règles plus strictes sont nécessaires. Il existe une campagne mondiale appelée Stop Killer Robots qui vise à interdire les armes autonomes mortelles, telles que les essaims de drones. Des militants, des responsables de haut niveau tels que le chef de l'ONU António Guterres et des gouvernements comme celui de la Nouvelle-Zélande soutiennent que les armes autonomes sont profondément contraires à l'éthique, car elles donnent aux machines le contrôle des décisions de vie ou de mort et pourraient nuire de manière disproportionnée aux communautés marginalisées par le biais de biais algorithmiques.
Des essaims de milliers de drones autonomes, par exemple, pourraient essentiellement devenir des armes de destruction massive. Restreindre ces technologies sera une bataille difficile car l'idée d'une interdiction mondiale s'est heurtée à l'opposition de grands dépensiers militaires, tels que les États-Unis, la France et le Royaume-Uni.

En fin de compte, la nouvelle ère de l'IA militaire soulève une multitude de questions éthiques difficiles auxquelles nous n'avons pas encore de réponses.
L'une de ces questions est de savoir dans quelle mesure nous voulons que les forces armées soient automatisées en premier lieu, explique Payne. D'une part, les systèmes d'IA pourraient réduire les pertes en ciblant davantage la guerre, mais d'autre part, vous « créez effectivement une force de robots mercenaires pour combattre en votre nom », dit-il. "Cela éloigne votre société des conséquences de la violence."


Pour aller plus loin : Une stratégue pour l'OTAN en matière d'intelligence artificielle